"Arbeitspferde" für die Forschung: Die meistzitierten Paper des Jahrhunderts

Welche wissenschaftlichen Paper wurden im 21. Jahrhundert bisher am meisten zitiert? Die Antwort überrascht und zeigt, worauf die Forschung angewiesen ist.

vorlesen Druckansicht 2 Kommentare lesen
Physiknobelpreisträger Geoffrey Hinton

DIA TV/Shutterstock.com

(Bild: Shutterstock)

Lesezeit: 3 Min.
Inhaltsverzeichnis

Wovon handeln wohl die bisher meistzitierten wissenschaftlichen Paper in diesem Jahrhundert? Von CRISPR-Gentools, mRNA-Impfungen, vom Higgs-Boson oder von Gravitationswellen?

Falsch geraten. In den Top Ten, die das Fachmagazin Nature zusammengestellt hat, taucht keins dieser Themen auf. "Die am meisten zitierten Paper sind nicht generell die berühmtesten wissenschaftlichen Entdeckungen", kommentiert Nature. "Stattdessen beschreiben diese Arbeiten eher wissenschaftliche Methoden oder Software, die Arbeitspferde, auf die Forschende angewiesen sind."

Für das Ranking hat Nature fünf verschiedene Datenbanken mit einigen zehn Millionen Artikeln ausgewertet, die seit dem Jahr 2000 veröffentlicht wurden. Und die Gewinner sind:

In diesem Paper von Microsoft Research geht es um eine effizientere Trainingsmethode von tiefen neuronalen Netzwerken zur Bilderkennung. Das Konzept dahinter führte unter anderem zu AlphaGo, AlphaFold und schließlich zu Großen Sprachmodellen.

Das Paper von Applied Biosystems beschäftigt sich mit der Analyse von PCR-Experimenten. PCR steht für Polymerase-Kettenreaktion und dient dazu, DNA zu vervielfältigen, um sie untersuchen zu können.

Zwei Forscherinnen aus Auckland und Bristol geben in diesem Paper Richtlinien für eine "gezieltere und rigorosere" Anwendungen der "Thematischen Analyse", einer "schlecht abgegrenzten, selten anerkannten, aber dennoch weit verbreiteten qualitativen Analysemethode in der Psychologie".

Nummer vier auf der Liste ist keine neue Forschungsarbeit, sondern die fünfte Auflage des Diagnose-Handbuches der American Psychiatric Association. Es liefert Kriterien, um psychische Störungen zu erkennen.

Das am fünfthäufigsten zitierte Paper stammt von der Uni Göttingen und befasst sich dem Softwarepaket SHELX. Es dient dazu, von Messdaten auf die Struktur von Molekülen zu schließen.

Auf Platz sechs landet ein Paper aus Berkeley über Random Forests. Dieses Verfahren wird oft zur Klassifizierung von Datensätzen verwendet, wie etwa zur Analyse von Konflikten und Kriegen. In Zeiten von Deep Learning ist die Methode ein bisschen aus der Mode gekommen. Sie eignet sich aber gut für Tabellen, die viele Daten enthalten, deren Relevanz nicht bekannt ist.

Google-Forschende haben in diesem Paper eine "einfache Netzwerkarchitektur" namens "Transformer" vorgeschlagen (das "T" in "GPT"). Er basiere "ausschließlich auf Aufmerksamkeitsmechanismen" und brauche deutlich weniger Training als bisherige Modelle. Dies war der Durchbruch zu dem, was wir heute als große Sprachmodelle bezeichnen.

Videos by heise

Noch ein Klassiker: In diesem Paper erklären drei kanadische Forscher, wie sie ein tiefes neuronales Netzwerk trainiert haben, um Bilder mit einer bis dahin unerreichten Genauigkeit zu klassifizieren. Ihr Forschungsansatz hat wesentlich zum Boom von Deep Learning und der heutigen KI beigetragen. Einer der Autoren ist ein gewisser Geoffrey E. Hinton, der dafür 2024 den Nobelpreis für Physik erhielt.

Die Plätze 9 und 10 gehen an die jährlich veröffentlichten Krebs-Statistiken des Global Cancer Observatory in der Ausgabe von 2020 und 2018. Sie umfassen 36 Krebsarten in 185 Ländern.

Dieser Beitrag ist zuerst bei t3n.de erschienen.

(wpl)