Wie können Sprachmodelle wie ChatGPT scheinbar mühelos Texte verstehen, Zusammenfassungen schreiben oder auf komplexe Fragen antworten? In diesem Vortrag werfen wir einen verständlichen Blick auf die mathematischen Grundlagen von Large Language Models (LLMs) – also den Modellen, die hinter modernen KI-Textsystemen stehen.
Wir zeigen anschaulich, wie LLMs mit riesigen Textmengen trainiert werden, wie Wörter in Zahlen verwandelt und mithilfe von Vektoren und Wahrscheinlichkeiten verarbeitet werden. Dabei geht es um grundlegende Konzepte wie „Token“, „Wort-Vektoren“ (Embeddings) und Sprachvorhersage – also wie ein Modell das nächste Wort in einem Satz errechnet.
Fachbegriffe werden verständlich erklärt, so dass der Vortrag für jeden zugänglich ist und so ein Blick ermöglicht auf die Magie der Mathematik, die hinter der Sprache steckt. Im Mittelpunkt steht dabei nicht nur die Technik, sondern auch die Frage: Was bedeutet es eigentlich, wenn eine KI unsere Sprache „versteht“?