Google möchte, dass wir BERT besser verstehen und hat ein sehr gutes Video zu dem Thema erstellt. Nicht nur für Neulinge ein Must See:
Eine kleine Zusammenfassung für Dich:
-
Kontext, Tonalität und Intention sind für Menschen in der Regel klar, für Maschinen aber nicht
-
Für die Suche ist es wichtig, nicht nur die Sprache zu verstehen, sondern eben auch, wie die Wörter zusammenhängen und welche Bedeutung sich aus ihrer Kombination ergibt
-
Google wird immer besser darin, diese Nuancen, die für die meisten von uns intuitiv sind, zu verstehen; dabei sind sogenannte Bidirectional Encoder Representations from Transformers, oder kurz BERT, eine enorme Unterstützung
-
Mit Hilfe von BERT schafft Google es immer besser, Sprache zu verarbeiten und in ihrem Kontext zu verstehen
-
Während früher bei der Suche vor allem der Fokus auf wichtig erscheinenden Worten lag und die Ergebnisse darauf aufbauend herausgesucht wurden, erhalten so eher kleine und unscheinbare Wörter wie "für" mehr Bedeutung, da sie als Verbindung zwischen einzelnen Begriffen relevant sind, um Kontext zu erfassen
-
Es geht also darum, nicht nur Wörter zu kennen, sondern ihre situativ bedingte Bedeutung zu verstehen
-
Wie genau man so ein Modell trainiert, wird im Video erklärt
- So können zunehmend komplexere Suchanfragen immer besser verstanden werden
Long story short, im Grunde geht es um die Frage: Welche Begriffe bedeuten in welchem Kontext was? Ist mit "Bank" gerade ein Geldinstitut 💰 gemeint oder eine Sitzgelegenheit 🪑? Geht es bei "Jaguar" um einen schnittigen fahrbaren Untersatz 🚗 oder eine ziemlich schnelle, große Katze 🐈?
Kai Spriestersbach hat die ganze BERT-Kiste vor einer Weile übrigens mal genauer aufgeschrieben, falls Du nochmal tiefer reinlesen möchtest.