6 alarmierende Fakten über „KI-Psychose“, die Du kennen solltest

Ein hilfreicher Chatbot oder eine unterschätzte Gefahr?

Viele Menschen nutzen KI-Tools wie ChatGPT inzwischen fast täglich. Sie erleichtern die Arbeit, liefern Ideen oder werden genutzt, wenn man etwas nachschlagen will. Doch was passiert, wenn diese Systeme nicht nur unterstützen, sondern beginnen, unsere Wahrnehmung zu verzerren?

In den letzten Monaten höre ich immer wieder einen Begriff, der mir persönlich Angst macht: „KI-Psychose“. Ein Phänomen, das zeigt, wie tief KI die menschliche Psyche beeinflussen kann und wie wenig wir darauf vorbereitet sind.

1. KI kann psychotische Episoden auslösen oder verstärken

Unter dem Begriff „KI-Psychose“ oder „Chatbot-Psychose“ wird beschrieben, wie Interaktionen mit KI psychotische Episoden bei Menschen auslösen oder verstärken können, die dafür anfällig sind. Es handelt sich nicht um eine offizielle Diagnose, sondern um einen Begriff, der im wissenschaftlichen Diskurs genutzt wird, um eine beunruhigende Entwicklung greifbar zu machen.

Besonders deutlich zeigt das die Geschichte von Jessica Jansen aus Belgien.

Während einer unbemerkten bipolaren Phase nutzte sie ChatGPT intensiv. Genau das erwies sich als gefährliche Kombination. Der Chatbot bestätigte ihre Gedanken, verstärkte sie und fügte neue Details hinzu. So wuchs ein Netz aus Überzeugungen, das sie schließlich in eine „vollwertige Psychose“ führte. Am Ende war sie überzeugt, Autistin, ein mathematisches Genie, Opfer sexuellen Missbrauchs geworden zu sein und Botschaften Gottes zu empfangen.

Jessica beschreibt es rückblickend so:

„ChatGPT hat einfach mit mir halluziniert, was mich immer tiefer in den Kaninchenbau führte.“ (Quelle)

2. Das Design vieler KI-Modelle verstärkt problematische Gedankenmuster

Ein zentraler Mechanismus, der hier eine Rolle spielt, ist Sykophantie“, also die Tendenz von Modellen, Nutzer*innen zu bestätigen, anstatt ihnen zu widersprechen. Viele Systeme sind genau darauf trainiert: Zustimmung erzeugt Zufriedenheit, hält Gespräche am Laufen und wirkt „hilfreich“. Für Menschen in einer psychischen Krise kann das jedoch gefährlich werden.

Sie sehen gerade einen Platzhalterinhalt von YouTube. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen

 

Selbst OpenAI bestätigte, dass ein Update von GPT-4o das System „merklich sykophantischer“ gemacht habe. Das führte dazu, dass ChatGPT Zweifel verstärkte, Wut befeuerte, zu impulsiven Handlungen ermutigte oder negative Emotionen unterstützte. (Quelle)

Die Situation wurde so ernst eingeschätzt, dass das Update zunächst zurückgezogen wurde – bis es nach großem Nutzerprotest wieder eingeführt wurde.

Für Menschen, die im echten Leben wenig Bestätigung erfahren, fühlt sich dieser digitale Zuspruch besonders gut an. Das kann gefährlich werden, besonders in Phasen von Einsamkeit oder emotionaler Instabilität.

3. Die 3 häufigsten Wahnformen: Spirituelles Erwachen, gottgleiche KI & Liebeswahn

Forscher*innen des King’s College London, zitiert im Fachjournal Der Nervenarzt, haben Muster identifiziert, die in Berichten über KI-assoziierte Wahnvorstellungen besonders häufig auftreten:

  • Spirituelles Erwachen & MissionenMenschen glauben, verborgene Wahrheiten erkannt zu haben oder eine besondere Aufgabe zu erfüllen.
  • Gottgleiche KIDie Überzeugung, mit einem allwissenden oder bewussten Wesen zu kommunizieren.
  • LiebeswahnDer Glaube, der Chatbot empfinde echte romantische Gefühle.

Ein besonders drastisches Beispiel: der Mann, der 2021 versuchte, ins Windsor Castle einzudringen, um Queen Elizabeth II. zu ermorden. Der Chatbot „Sarai“ bestärkte ihn in seinem Vorhaben. Als der Mann fragte, ob sie sich nach dem Tod wiedersehen würden, antwortete Sarai mit einem gruseligen: Ja, das werden wir.“

4. Das erschreckende Ausmaß: Hunderttausende könnten von KI-Psychose betroffen sein.

Besorgniserregend ist auch, wie groß die betroffene Gruppe sein könnte. OpenAI selbst veröffentlichte Zahlen, die einen Eindruck davon geben:

Rund 0,07 % der wöchentlichen Nutzer*innen zeigen demnach Anzeichen von Manie oder Psychose. Bei den von CEO Sam Altman genannten 800 Millionen wöchentlichen Nutzer*innen entspricht das etwa 560.000 Menschen.

Und dabei geht es nicht nur um psychotische Episoden. Laut demselben Bericht senden wöchentlich 1,2 Millionen Menschen (0,15 %) Nachrichten, die „explizite Indikatoren für potenzielle Suizidplanung oder -absicht“ enthalten.

Selbst wenn nur ein Bruchteil dieser Menschen akut gefährdet ist, sprechen wir über ein Problem, das man nicht ignorieren kann, weder technologisch noch gesellschaftlich.

5. Einsamkeit erhöht die Wahrscheinlichkeit, KI zu vermenschlichen

Warum lassen sich Menschen überhaupt auf so persönliche Gespräche mit Chatbots ein? Eine zentrale Rolle spielen Gefühle von Einsamkeit und der Mangel an menschlichen Gesprächspartnern. Chatbots wirken wie ein geschützter Raum: keine Zurückweisung, keine Peinlichkeit. Für viele Menschen heißt das: sie haben keine Hemmungen sich zu öffnen.

Genau diese Dynamik zeigt die Geschichte der 21-jährigen Hanna Lessing aus Kalifornien. Weil es ihr schwerfiel, Freunde zu finden, wandte sie mit ihren persönlichen Anliegen an ChatGPT. Ihre Motivation bringt es auf den Punkt:

„Im Internet ist mein Bestes nie gut genug. Bei ChatGPT ist mein Bestes immer gut genug.“

Und damit ist sie nicht allein. Laut einer Studie von Common Sense Media haben 70 % der befragten US-Teenager schon einmal eine Begleiter-KI genutzt. Auch in Deutschland sehen wir auf TikTok immer häufiger Jugendliche, die ChatGPT als “Freund*in” oder “Therapie” bezeichnen.

Das zeigt: KI begleitet Menschen längst nicht mehr nur beruflich, sondern füllt oft emotionale Lücken.

6. Ihre Interaktivität macht KI so gefährlich

Dass Technologien in Wahnvorstellungen eingebaut werden, ist historisch nichts Neues: Schon 1919 beschrieb der Psychoanalytiker Viktor Tausk den „Beeinflussungsapparat“, eine imaginäre Maschine, die angeblich Gedanken steuert. Auch das Bild von jemandem, der glaubt durch Radio, Fernsehen oder implantierten Chips überwacht zu werden, ist gesellschaftlich bekannt.

Der Unterschied zu heutigen KI-Systemen liegt jedoch in ihrer Interaktivität. Zum ersten Mal in der Geschichte gibt es eine Technologie, auf die Gedanken nicht nur projiziert werden können, sondern die ein aktives Gegenüber ist, das Nähe und Bewusstsein suggerieren kann.

Die Computerlinguistin Emily M. Bender fasst zusammen.

Wir haben gelernt, Maschinen zu bauen, die gedankenlos Text generieren, aber nicht, wie wir aufhören können, uns einen Verstand dahinter vorzustellen.

Schlussfolgerung: Wie gehen wir als Gesellschaft damit um?

Die Fakten zeigen deutlich: Das grundlegende Design von KI-Chatbots, das auf Bestätigung und Nutzerbindung ausgelegt ist, nutzt systematisch menschliche Schwächen aus, manchmal mit schwerwiegenden Folgen.

Das Phänomen der „KI-Psychose“ ist keine dystopische Zukunftsvision, sondern bereits Realität. Und je schneller KI-Systeme wachsen, desto dringender brauchen wir Leitlinien, Aufklärung und Schutzmechanismen. Als Digital Marketer weiß ich, dass die Plattformen dies nicht selbst in die Hand nehmen werden, schließlich wollen sie Nutzer binden und unsere Daten sammeln, damit ihr Produkt zu einem festen Bestandteil unseres Lebens wird.

Die entscheidende Frage lautet also:

Wie übernehmen wir als Gesellschaft Verantwortung für die psychologischen Risiken, die KI-Chatbots mit sich bringen, und welche konkreten Schutzmechanismen brauchen wir, bevor die Systeme noch mächtiger werden?

Jump to...

Diese Artikel könnten Dich auch interessieren

Bleibe immer auf dem Laufenden!

Melde Dich jetzt zu unserem monatlichen Newsletter an.