Die meisten modernen Forscher kommen heutzutage ohne Computer überhaupt nicht mehr aus. Aber dieser Ansatz birgt auch Risiken. In einem Gast-Beitrag geht Philipp Egger auf verschiedene Fragen ein – an dieser Stelle mein Dank für den Text.
Anzeige
Ohne Computer geht in Wissenschaft und Forschung heutzutage nichts mehr. Ökologen können beispielsweise damit Naturkatastrophen und deren Folgeerscheinungen simulieren und Sozialwissenschaftler die Effekte in Bezug auf politische Änderungen. Computer sind der Wissenschaft in so gut wie allen Disziplinen behilflich. Sie analysieren Daten und helfen den Forschern, die jeweiligen Kernthesen anhand deutlicher Beispiele besser zu bestimmen.
Allerdings geht man nach der Theorie von Robert Boyle davon aus, dass sich die Wissenschaft auch auf die Reproduzierbarkeit basiert. Der 1626 geborene britische Wissenschaftler belegte schon in diesen Jahren, dass eine neue Entdeckung auf jeden Fall reproduzierbar sein muss. Das bedeutet also, dass eine Erfindung im Prinzip nur dann wissenschaftlich anerkannt wird, wenn jeder genau die gleichen Ergebnisse erzielen kann. Selbstverständlich setzt diese Theorie auch das Befolgen der vorgeschriebenen Methoden voraus. Die Effektivität einer Forschung wird dann in Frage gestellt, wenn bei den Versuchen unterschiedliche Ergebnisse erzielt werden.
Was hat das mit dem Computer zu tun?
Es liegt auf der Hand, dass Computer für die Forschung sehr wichtige Instrumente sind. Allerdings geht man aber auch davon aus, dass viele Daten in der Wissenschaft aus persönlichen Computern stammen und nicht nur alleine vom PC am Arbeits- oder Forschungsplatz. In vielen Fällen der Wissenschaft werden Analysen oder bestimmte Daten noch spät am Abend zuhause ausgewertet. Es handelt sich dabei also um eine mehr oder weniger private Vorbereitung der notwendigen Daten. Einsehbare Ergebnisse für die Öffentlichkeit sind in der Regel das Finale einer sehr langen Prozesskette.
Um die Zuverlässigkeit eines bestimmten Ergebnisses zu bewerten, ist man aber auch auf unterschiedliche Faktoren angewiesen. Dazu zählen vorwiegend wirklich alle Details die in dieser Hinsicht notwendig sind, die getroffenen Entscheidungen der Forscher, die eingesetzten Methoden und natürlich auch die Datenanalyse vom Computer. Bei den gelieferten Ergebnissen allerdings handelt es sich dann aber nicht mehr um die reine Wissenschaft und Forschung, sondern um die ausgewerteten Computer-Ergebnisse. Diese hängen wiederum von den jeweiligen Befehlen ab, sowie natürlich auch von der Softwareentwicklung. Zu denken geben allerdings auch die neuesten Nachrichten rund um die neuesten Forschungsergebnisse, dass Computer mittlerweile fast schon von alleine erfolgreiche Strategien bei Spielen lernen können.
Anzeige
Computer sind in der Lage Neues zu lernen
Ein weiterer Hinweis auf den zukünftigen Tod der Wissenschaft ist die Erkenntnis, dass Computerprogramme jetzt immer mehr in der Lage sind, selbständig Spiele zu lernen. Bild der Wissenschaft beispielsweise nimmt Bezug auf die Lernfähigkeit von Robotern und Computern. Obwohl man davon ausgeht, dass die Lernfähigkeit im Vergleich zum Menschen beschränkt ist, wurden in einem Lerntest mit einer künstlichen Intelligenz hervorragende Resultate erzielt. Dabei handelt es sich um ein System mit Namen Deep Q-Network. Es basiert vereinfacht ausgedrückt aus einem neuronalen Netzwerk mit differenzierten Filterschichten. Der Lernprozess ist einem menschlichen Gehirn ähnlich. Eine erfolgreiche Aktion wird von diesem Netzwerk beibehalten, ist sie das nicht, dann muss sie verändert werden.
Das DQN-System erhielt im Test die jeweilige Information zu den unterschiedlichen Spielphasen. Selbstverständlich war dafür auch die Rückmeldung über die getätigte Spielaktion notwendig. Also im Grunde genau die gleiche Information, wie der menschliche Gegenspieler mit seinem Punktestand. Dieses Computerprogramm war im Ende fast genauso gut wie sein menschlicher Gegenspieler und konnte sich sogar fast alleine die unterschiedlichen Spiele beibringen. Auch längerfristige Strategien kamen dabei vom Computer erfolgreich zum Einsatz.
Ein weiteres Beispiel hierfür ist übrigens auch die Nachricht, dass ein Computerprogramm den europäischen Meister im chinesischen Go-Brettspiel mit 5:0 besiegen konnte. Die Spielstärke von den Computern ist mehr als beeindruckend, noch dazu, da man diese Stärken in der Wissenschaft eigentlich erst in den nächsten 10 Jahren erwartet hat.
Damit wird mehr als deutlich, dass Computer und Roboter sicherlich in der Zukunft den Tod der Wissenschaft bedeuten.
Open-Source-Projekte – ein großer Vorteil für Forschung und Wissenschaft
Open-Source-Projekte können übrigens für die Wissenschaft von großem Vorteil sein. Dadurch lassen sich beispielsweise Computeranalysen und natürlich auch das Dokumentieren von den verschiedenen Methoden und Anwendungen nicht nur vereinfachen, sondern auch vereinheitlichen. Schon seit einigen Jahren haben sich verschiedene Wissenschaftler unterschiedlicher Aufgabengebiete zusammengeschlossen und sich über diese Themen geeinigt. Darunter auch Nuklearforscher, Biologen und Neurologen. Sie verständigen sich untereinander über eine einheitliche Arbeitsgrundlage, was ein Zeichen für eine komplette Veränderung in wissenschaftlicher Hinsicht ist.
Skripten finden deshalb immer mehr Einsatz in der Wissenschaft. Sie erleichtern die Automatisierung und grenzen menschliche Fehler deutlich ein. Damit lässt sich die jeweilige Vorgehensweise bestens nachvollziehen. Aufgrund der klaren Anweisungen ist in dieser Hinsicht auch nicht unbedingt großes Detailwissen erforderlich. Allerdings hat das natürlich auch den Nachteil, dass der eigentliche Autor einer Entwicklung womöglich nicht die verdiente Aufmerksamkeit erhält oder dass diese Leistungen für andere Zwecke von Fremden benutzt werden können.
Der Tod der Wissenschaft ist im Grunde davon abhängig, wie die Forscher in Zukunft die Computer nutzen werden. Transparenz kann dazu beitragen, dass auch die Öffentlichkeit immer mehr Anteil an den wissenschaftlichen Forschungen erhält und dazu auch noch große Unkosten eingespart werden können.
Philipp Egger ist ein professioneller Redakteur und ein erfahrener Content Manager bei Essayhilfe. Sie können auch ihn direkt über Facebook erreichen.
Anzeige
Das kommt mir aber sehr kulturpessimistisch vor. Wissenschaft wird sich ja in der praktischen Anwendung bewähren, weshalb ein "falsches" Ergebnis nicht lange überleben wird, ganz gleich, wie es zustande gekommen ist.
Ja. – Ende des Zeitalters der einsamen Wissenschafts-Heroen ist m.E. wohl die Kernaussage. – Nur dies.
Wissenschaft wird es weiter geben; die Frage der individuellen Urheberschaft (und ungeteilten Priorität) wird sich ändern, die Prinzipien der experimentellen Naturwissenschaften (Reproduzierbarkeit/Falsifizierbarkeit etc.) bestimmt nicht.
@Philipp Egger:
Sie haben hoffentlich meinen Kommentar hier nicht als negatives feedback empfunden. – Das von Ihnen aufgeworfene Thema finde ich nämlich hochinteressant. Übrigens fiel mir dazu sofort die Sache mit dem Go-Spiel ein, die sicher im Rückblick später mal als epochemachender Durchbruch gewertet werden wird… Und wie's beim online Lesen so geht, sah ich dann ja beim Runterscrollen, dass Sie genau dies auch so sehen. :-)
Beste Grüße & Dank für Ihren wirklich anregenden Beitrag!
Andreas B.
Upps! Bearbeitungsfenster leider schon zu…
Ich frage mich übrigens auch, wie das dann mit dem ganzen Patentrecht etc. wohl weitergehen wird? – Und dabei geht es um die einen für die ganz große Kohle, für die anderen um ihre Brötchentüte…
Daumen auf dem Touchpad reimt: für und um soll'n andersrum. ;-)
1. April is nich mein Tag.