Große Sprachmodelle (LLMs): Nur eine Art von Künstlicher Intelligenz – und nicht die zuverlässigste

Viele Menschen denken bei „Künstlicher Intelligenz“ (KI) zuerst an Chatprogramme wie ChatGPT, Gemini oder Claude. Diese Systeme – sogenannte Große Sprachmodelle, kurz LLMs – wirken oft wie kluge Gesprächspartner. Doch sie sind nur eine von vielen Formen der KI. Andere KI-Systeme steuern zum Beispiel medizinische Geräte, erkennen Krebszellen in Röntgenbildern oder optimieren Verkehrsflüsse – und tun das oft zuverlässiger und sicherer als LLMs.

LLMs sind also nicht „die KI“, sondern eine spezielle, sprachbasierte Variante – mit besonderen Stärken, aber auch gravierenden Schwächen.

Wie funktionieren LLMs?

Ein LLM ist ein Computerprogramm, das mit riesigen Mengen an Texten trainiert wurde – aus Büchern, Zeitungen, Webseiten und Foren. Es hat gelernt, welche Wörter und Sätze typischerweise aufeinander folgen.

Wenn Sie eine Frage stellen, sucht das System nicht nach der Wahrheit, sondern nach der wahrscheinlichsten Antwort – basierend auf dem, was es gelernt hat.

Ein LLM versteht nichts. Es denkt nicht. Es weiß nichts über die Welt.
Es berechnet lediglich, welcher Text als nächstes am besten passt.

Was können LLMs gut?

Doch diese Stärken gelten nur innerhalb enger Grenzen.

Wo versagen LLMs – und warum das gefährlich sein kann

1. Sie erfinden Fakten – häufig und überzeugend

LLMs liefern oft falsche Informationen, als wären sie wahr. Sie erfinden:

Dieses Phänomen wird „Halluzination“ genannt – aber es ist kein seltenes Versagen, sondern ein regelmäßiges Verhalten des Systems.

Beispiel: Auf die Frage nach einer Studie über Schlafverhalten nennt das LLM einen Titel, eine Institution und ein Jahr – doch keine dieser Angaben ist korrekt. Dennoch klingt die Antwort glaubwürdig.

2. Sie „vergessen“ den Gesprächsverlauf

Ein LLM sieht nur den aktuellen Chat. Wenn der zu lang wird, verliert es den Überblick über frühere Aussagen. Es kann daher Widersprüche erzeugen oder den roten Faden verlieren.

3. Sie bestätigen, was Sie schon glauben

Die Antwort eines LLMs hängt stark von Ihrer Frageformulierung ab.
Fragen Sie: „Warum ist X schlecht?“, wird das System oft Gründe liefern – auch wenn X gar nicht schlecht ist.

So entsteht eine Bestätigungsblase: Je öfter Sie fragen, desto mehr stützt das System Ihre ursprüngliche Annahme – nicht weil sie wahr ist, sondern weil sie in der Frage vorausgesetzt wird.

4. Sie haben kein ethisches Urteilsvermögen

Ein LLM hilft genauso gern bei einer freundlichen Nachricht wie bei einer täuschenden Betrugsmail. Es kennt kein richtig oder falsch, kein gut oder böse.

5. Sie übernehmen Vorurteile

Da LLMs auf realen Texten trainiert werden, wiederholen sie oft geschlechtsspezifische, kulturelle oder soziale Vorurteile – manchmal subtil, manchmal deutlich.

LLMs sind nicht „die KI“ – sondern nur eine Variante

Viele Medien und Werbekampagnen suggerieren, LLMs seien die Künstliche Intelligenz. Das ist irreführend.

Tatsächlich gibt es viele Arten von KI:

Viele dieser Systeme sind spezialisiert, prüfbar und zuverlässig – weil sie auf klaren Regeln und validierten Daten basieren.
LLMs hingegen sind allgemein, undurchsichtig und fehleranfällig, weil sie auf statistischen Mustern beruhen.

Ein LLM ist also eher wie ein sehr schneller, aber unzuverlässiger Nachschlagewerk-Generator – nicht wie ein Experte.

Was sollten Sie beachten?

Fazit

Große Sprachmodelle sind beeindruckende Werkzeuge – aber keine Wissensquelle. Sie können helfen, Zeit zu sparen oder neue Perspektiven zu entdecken. Doch sie ersetzen nicht menschliches Urteilsvermögen, kritisches Denken oder vertrauenswürdige Quellen.

Je bewusster Sie mit ihnen umgehen, desto besser können Sie ihre Vorteile nutzen – und ihre Risiken vermeiden.