6:21 Eli: Okay, Miles, ich glaube, ich hab das mit den Landkarten und der Aufmerksamkeit so langsam gefressen. Aber wenn ich jetzt auf „Senden“ drücke – was passiert da genau in diesem Moment? Das geht ja oft so wahnsinnig schnell, dass die Antwort Buchstabe für Buchstabe aufploppt.
6:35 Miles: Ja, das ist dieser faszinierende Prozess der Inferenz. Das ist quasi die „Arbeitsphase“ des fertigen Modells. Stell dir vor, dein Prompt – also deine Frage – geht erst mal durch den Tokenizer. Der häckselt deinen Text in diese kleinen Bausteine, die wir gerade besprochen haben. Und dann wandern diese Token-IDs in das neuronale Netz.
6:56 Eli: Und dann rattert es da drin einfach los?
6:58 Miles: Genau, es durchläuft diese vielen Schichten des Transformers. Wir sprechen da oft von 32, 96 oder sogar noch mehr Schichten. In jeder Schicht passiert im Grunde das Gleiche: Das Modell wendet diese Attention-Mechanismen an, um zu verstehen, wie die Wörter in deiner Frage zusammenhängen. Und dann gibt es da noch die sogenannten Feed-Forward-Netzwerke.
7:19 Eli: Feed-Forward? Klingt nach einem Fitness-Programm.
Miles: Fast! Man kann sich diese Schichten wie kleine Wissensspeicher vorstellen. Da drin hat das Modell während des Trainings all die Fakten und Sprachmuster abgespeichert. Die Attention schaut also: „Worauf muss ich achten?“, und das Feed-Forward-Netz gleicht das dann mit dem gelernten „Weltwissen“ ab.
7:40 Eli: Aber wie entscheidet das Teil dann, welches Wort es als erstes hinschreibt? Es muss ja irgendwo anfangen.
7:45 Miles: Das ist der Clou: Das Modell berechnet am Ende für jedes einzige Wort, das es kennt – und das sind oft über 100.000 Stück im Vokabular – eine Wahrscheinlichkeit. Es sagt zum Beispiel: „Nach deiner Frage ist die Wahrscheinlichkeit für das Wort 'Das' bei 80 Prozent, für 'Es' bei 10 Prozent und für 'Vielleicht' bei 5 Prozent.“
8:04 Eli: Und dann nimmt es einfach immer das mit den 80 Prozent?
8:07 Miles: Nicht unbedingt! Das ist ein super wichtiger Punkt. Wenn das Modell immer nur das allersicherste Wort nehmen würde, dann klänge es total roboterhaft und repetitiv. Das nennt man dann „Greedy Search“ – also gierige Suche. Das ist gut für Matheaufgaben, aber schlecht für kreative Texte.
8:23 Eli: Ah, deswegen gibt es diese Einstellungen wie „Temperature“, oder? Davon hab ich mal gehört.
2:58 Miles: Exakt! Mit der Temperatur steuern wir, wie viel Risiko das Modell eingehen darf. Wenn die Temperatur niedrig ist, wählt es fast immer den Spitzenreiter. Wenn sie hoch ist, darf es auch mal ein Wort nehmen, das nur auf Platz 3 oder 4 der Wahrscheinlichkeitsliste steht. Das macht den Text lebendiger, aber eben auch unberechenbarer.
8:47 Eli: Echt jetzt? Das heißt, die KI würfelt eigentlich jedes Mal ein kleines bisschen?
8:51 Miles: Ja, genau das mein ich! Es ist ein kontrolliertes Würfeln auf Basis von Wahrscheinlichkeiten. Und jetzt kommt das Wichtigste: Sobald das Modell das erste Wort generiert hat – sagen wir mal „Das“ – wird dieses Wort sofort wieder vorne an deinen ursprünglichen Text drangehängt.
9:08 Eli: Warte mal, es füttert sich quasi selbst?
9:11 Miles: Ganz genau. Der Prozess startet von vorn: Dein Prompt plus das erste Wort „Das“. Dann berechnet es das nächste Wort, zum Beispiel „Modell“. Dann geht’s wieder von vorn los: Dein Prompt plus „Das Modell“. Und so weiter. Das nennt man autoregressive Generierung. Deshalb sieht man auch oft, wie die Wörter nacheinander auf dem Bildschirm erscheinen. Die KI „denkt“ sich nicht erst den ganzen Absatz aus und spuckt ihn dann aus, sondern sie tastet sich Wort für Wort voran.
0:40 Eli: Krass. Das heißt aber auch, wenn sie sich am Anfang mal verhauen hat, dann zieht sich der Fehler durch den ganzen restlichen Text, weil sie ja auf ihrem eigenen Mist weiterbaut?
9:47 Miles: Genau das ist das Problem mit den Halluzinationen! Wenn die KI einmal in die falsche statistische Richtung abbiegt, dann versucht sie, diesen Weg konsequent weiterzugehen, weil das für sie in diesem Moment die wahrscheinlichste Fortsetzung ist. Sie „merkt“ nicht unbedingt, dass sie gerade Quatsch erzählt, solange der Quatsch grammatikalisch und statistisch gesehen Sinn ergibt.
10:07 Eli: Das erklärt so einiges. Aber sag mal, woher weiß das Teil eigentlich so viel? Du meintest vorhin was von 2.600 Jahren Lesezeit. Wo kommen all diese Daten her?
10:17 Miles: Na ja, im Grunde haben die Entwickler fast das ganze Internet leergesaugt. Wir reden hier von riesigen Datensätzen wie dem FineWeb oder Common Crawl. Da stecken Wikipedia-Artikel drin, Millionen von Büchern, Blogbeiträge, Nachrichten, Foren-Diskussionen und eben auch Unmengen an Programmiercode.
10:34 Eli: Also auch die ganzen Katzenvideos und Backrezepte aus irgendwelchen Foren?
10:39 Miles: Alles! Wobei man sagen muss: Die Daten werden vorher massiv bereinigt. Da laufen Web-Crawler drüber, die erst mal den ganzen Müll aussortieren – Cookie-Banner, Werbung, Spam, kaputte HTML-Codes. Man will ja, dass das Modell von hochwertiger Sprache lernt und nicht von „Hier klicken für günstige Pillen“.
10:57 Eli: Na, hoffentlich haben sie das ordentlich gemacht! Aber ist das dann nicht auch ein Problem, wenn die KI mit all dem Zeug aus dem Internet gefüttert wird? Da steht ja auch viel Mist drin – Vorurteile, Hass, falsche Fakten.
11:09 Miles: Absolut. Das ist eine der größten Herausforderungen. Wir nennen das „Bias“. Wenn die Trainingsdaten voreingenommen sind, dann wird es das Modell auch sein. Das Modell ist am Ende ein Spiegel der Daten, mit denen es gefüttert wurde. Es lernt die statistischen Muster unserer Gesellschaft – und die sind eben nicht immer fair oder korrekt.
11:27 Eli: Und wie kriegt man das dann wieder raus? Ich mein, wenn das erst mal in diesen Milliarden von Parametern „eingebrannt“ ist, kann man das doch nicht einfach wieder löschen, oder?
11:36 Miles: Das ist der Punkt, wo es kompliziert wird. Nach diesem riesigen Pre-Training, wo das Modell erst mal nur lernt, wie Sprache an sich funktioniert, kommt das Post-Training. Da wird das Modell quasi „erzogen“. Man gibt ihm gezielte Anweisungen und menschliches Feedback. Das nennt man dann Reinforcement Learning from Human Feedback, kurz RLHF.
11:57 Eli: Also wie bei einem Hund, der ein Leckerli kriegt, wenn er brav „Sitz“ macht?
12:01 Miles: Ziemlich genau so! Menschliche Tester bewerten die Antworten der KI. Wenn das Modell eine hilfreiche, höfliche und korrekte Antwort gibt, wird das positiv verstärkt. Wenn es anfängt zu beleidigen oder gefährlichen Unsinn zu verbreiten, wird das negativ bewertet. So lernt die KI, ihre statistischen Fähigkeiten in Bahnen zu lenken, die wir Menschen als nützlich empfinden.