Viele Menschen denken bei „Künstlicher Intelligenz“ (KI) zuerst an Chatprogramme wie ChatGPT, Gemini oder Claude. Diese Systeme – sogenannte Große Sprachmodelle, kurz LLMs – wirken oft wie kluge Gesprächspartner. Doch sie sind nur eine von vielen Formen der KI. Andere KI-Systeme steuern zum Beispiel medizinische Geräte, erkennen Krebszellen in Röntgenbildern oder optimieren Verkehrsflüsse – und tun das oft zuverlässiger und sicherer als LLMs.
LLMs sind also nicht „die KI“, sondern eine spezielle, sprachbasierte Variante – mit besonderen Stärken, aber auch gravierenden Schwächen.
Wie funktionieren LLMs?
Ein LLM ist ein Computerprogramm, das mit riesigen Mengen an Texten trainiert wurde – aus Büchern, Zeitungen, Webseiten und Foren. Es hat gelernt, welche Wörter und Sätze typischerweise aufeinander folgen.
Wenn Sie eine Frage stellen, sucht das System nicht nach der Wahrheit, sondern nach der wahrscheinlichsten Antwort – basierend auf dem, was es gelernt hat.
Ein LLM versteht nichts. Es denkt nicht. Es weiß nichts über die Welt.
Es berechnet lediglich, welcher Text als nächstes am besten passt.
Was können LLMs gut?
- Flüssige Texte schreiben: Briefe, Zusammenfassungen, Anleitungen – oft gut lesbar und grammatikalisch korrekt.
- Fragen beantworten: Bei allgemeinen Themen (z. B. „Was ist Photosynthese?“) liefern sie oft brauchbare Erklärungen.
- Übersetzungen anbieten: In vielen Sprachen sind die Ergebnisse hilfreich – aber nicht immer fehlerfrei.
- Beim Lernen oder Arbeiten unterstützen: Sie können Ideen liefern oder Struktur vorschlagen.
Doch diese Stärken gelten nur innerhalb enger Grenzen.
Wo versagen LLMs – und warum das gefährlich sein kann
1. Sie erfinden Fakten – häufig und überzeugend
LLMs liefern oft falsche Informationen, als wären sie wahr. Sie erfinden:
- Bücher, die es nicht gibt,
- Autoren, die nicht existieren,
- Gesetze, die nie verabschiedet wurden,
- historische Daten, die falsch sind.
Dieses Phänomen wird „Halluzination“ genannt – aber es ist kein seltenes Versagen, sondern ein regelmäßiges Verhalten des Systems.
Beispiel: Auf die Frage nach einer Studie über Schlafverhalten nennt das LLM einen Titel, eine Institution und ein Jahr – doch keine dieser Angaben ist korrekt. Dennoch klingt die Antwort glaubwürdig.
2. Sie „vergessen“ den Gesprächsverlauf
Ein LLM sieht nur den aktuellen Chat. Wenn der zu lang wird, verliert es den Überblick über frühere Aussagen. Es kann daher Widersprüche erzeugen oder den roten Faden verlieren.
3. Sie bestätigen, was Sie schon glauben
Die Antwort eines LLMs hängt stark von Ihrer Frageformulierung ab.
Fragen Sie: „Warum ist X schlecht?“, wird das System oft Gründe liefern – auch wenn X gar nicht schlecht ist.
So entsteht eine Bestätigungsblase: Je öfter Sie fragen, desto mehr stützt das System Ihre ursprüngliche Annahme – nicht weil sie wahr ist, sondern weil sie in der Frage vorausgesetzt wird.
4. Sie haben kein ethisches Urteilsvermögen
Ein LLM hilft genauso gern bei einer freundlichen Nachricht wie bei einer täuschenden Betrugsmail. Es kennt kein richtig oder falsch, kein gut oder böse.
5. Sie übernehmen Vorurteile
Da LLMs auf realen Texten trainiert werden, wiederholen sie oft geschlechtsspezifische, kulturelle oder soziale Vorurteile – manchmal subtil, manchmal deutlich.
LLMs sind nicht „die KI“ – sondern nur eine Variante
Viele Medien und Werbekampagnen suggerieren, LLMs seien die Künstliche Intelligenz. Das ist irreführend.
Tatsächlich gibt es viele Arten von KI:
- Bilderkennungssysteme in der Medizin,
- Spracherkennung in Navigationsgeräten,
- Vorhersagemodelle für Wetter oder Energieverbrauch,
- Steuerungssysteme in Fahrzeugen oder Fabriken.
Viele dieser Systeme sind spezialisiert, prüfbar und zuverlässig – weil sie auf klaren Regeln und validierten Daten basieren.
LLMs hingegen sind allgemein, undurchsichtig und fehleranfällig, weil sie auf statistischen Mustern beruhen.
Ein LLM ist also eher wie ein sehr schneller, aber unzuverlässiger Nachschlagewerk-Generator – nicht wie ein Experte.
Was sollten Sie beachten?
- Vertrauen Sie LLMs nicht blind.
- Prüfen Sie wichtige Aussagen – besonders bei Gesundheit, Recht, Finanzen oder Sicherheit.
- Geben Sie keine persönlichen oder sensiblen Daten ein.
- Denken Sie daran: Eine überzeugende Antwort ist nicht automatisch eine wahre Antwort.
- Nutzen Sie LLMs als Ideengeber – nicht als Entscheider.
Fazit
Große Sprachmodelle sind beeindruckende Werkzeuge – aber keine Wissensquelle. Sie können helfen, Zeit zu sparen oder neue Perspektiven zu entdecken. Doch sie ersetzen nicht menschliches Urteilsvermögen, kritisches Denken oder vertrauenswürdige Quellen.
Je bewusster Sie mit ihnen umgehen, desto besser können Sie ihre Vorteile nutzen – und ihre Risiken vermeiden.