Google-Suchalgorithmus mit BERT: Verbesserung durch Verarbeitung natürlicher Sprache

Mit BERT soll Googles Suchmaschine Anfragen besser verstehen können. Nach Einführung in den USA kommt der Suchalgorithmus nun für 70 Sprachen.

In Pocket speichern vorlesen Druckansicht 11 Kommentare lesen
Googles Suchanfragen-Verbesserung BERT kommt

(Bild: BigTunaOnline/Shutterstock.com)

Lesezeit: 2 Min.

Googles neuer Suchalgorithmus kommt nach Deutschland und in mehr als 70 weitere Länder. Er arbeitet nun mit BERT, einer Technik der maschinellen Verarbeitung von natürlicher Sprache (Natural Language Processing, NLP). Damit soll die Suchmaschine Anfragen besser verstehen – und passender beantworten können. Start der Anwendung war bereits im Oktober in den USA.

In welchen Ländern das Update nun eingeführt wird, hat Google bei Twitter bekannt gegeben. In mehreren Tweets listet das Unternehmen die Namen der Länder auf und verweist auf den Blogbeitrag zum Einsatz von BERT in den USA.

BERT steht für "Bidirectional Encoder Representations from Transformers". BERT-Modelle sollen komplizierte Suchanfragen besser beantworten und dafür gesamte Sätze verstehen können, statt sich auf einzelne Wörter zu konzentrieren. Die Wörter werden in Relation zueinander betrachtet und in einen Kontext gestellt.

Als Beispiel nannte Google bei der Ankündigung die Suchanfrage, ob man für jemanden anders ein Medikament von der Apotheke holen kann. Bisher wertete die Suchmaschine die Begriffe "Apotheke" und "Medikamente" als Schlagworte und zeigte entsprechende Einträge an. Nun soll die Suchmaschine mit BERT verstehen, dass "für jemanden" eine zentrale Rolle im Satz spielt.

In den USA seien laut Google etwa zehn Prozent der dort gestellten Anfragen betroffen – benötigten also einen Suchalgorithmus, der den Kontext erfassen kann. Ob diese Prozentangabe auch auf Deutschland und andere Länder zutrifft oder es sprachliche oder kulturelle Abweichungen gibt, sagt das Unternehmen nicht. Bei einem kurzen Test des von Google genannten Beispiels mit der Apotheke sind die ersten Treffer bei uns passend, erst in der Folge tauchen Versand-Apotheken und andere Beiträge auf.

Google hatte BERT als Modell für Pre-Trainings bereits 2018 als Open-Source-Modell veröffentlicht. Die Technik soll auch Data Scientists und NLP-Anwendern die Arbeit leichter machen. Sprachverständnis ist eine komplexe Aufgabe und Herausforderung. (emw)