🤖 „LLM" – was bedeutet das eigentlich?
Wenn du dich mit KI beschäftigst, stolperst du ständig über diese drei Buchstaben: LLM. ChatGPT ist ein LLM. Claude ist ein LLM. Gemini ist ein LLM. Aber was genau steckt dahinter – und warum ist es wichtig, das zu verstehen? Die Abkürzung LLM steht für Large Language Model – auf Deutsch: großes Sprachmodell. „Groß" ist dabei keine Übertreibung. Die leistungsfähigsten LLMs von heute wurden mit Hunderten Milliarden von Parametern trainiert – das sind die internen Stellschrauben, an denen das Modell dreht, um Sprache zu verstehen und zu erzeugen. Was ein LLM eigentlich macht Im Kern tut ein LLM etwas verblüffend Einfaches: Es sagt das nächste Wort vorher. Immer und immer wieder, Wort für Wort, bis ein ganzer Text entsteht. Klingt simpel? Ist es im Prinzip auch. Aber wenn du dieses simple Prinzip auf eine riesige Datenmenge loslässt – im Grunde große Teile des Internets, Bücher, wissenschaftliche Arbeiten, Wikipedia, Foren, Code –, dann passiert etwas Erstaunliches: Das Modell lernt nicht nur Grammatik und Satzbau, sondern auch Zusammenhänge, Logik, Fachwissen, Humor, Stil und sogar so etwas wie Argumentation. Nicht weil jemand ihm das alles einzeln beigebracht hätte. Sondern weil es aus den Mustern in den Daten Strukturen erkennt, die unglaublich leistungsfähig sind. Wie das Training funktioniert – stark vereinfacht Stell dir vor, du liest dein ganzes Leben lang Bücher – Millionen davon. Irgendwann kannst du einen angefangenen Satz so gut weiterführen, dass er klingt, als käme er aus dem jeweiligen Buch. Du hast nie eine Regel gelernt, aber du hast ein Gespür dafür entwickelt, was als Nächstes kommen sollte. Genau das macht ein LLM, nur in einer Größenordnung, die sich kein Mensch vorstellen kann. Das Training läuft in zwei Phasen: 1. Pre-Training: Das Modell liest riesige Textmengen und lernt dabei, Muster in Sprache zu erkennen. Was folgt typischerweise auf welches Wort? In welchem Kontext? Das dauert Wochen bis Monate und verschlingt Millionen an Rechenkosten.