
Der KI-Dienst ChatGPT ist weltweit enorm verbreitet, und nun liefert OpenAI erstmals konkrete Zahlen zu einem sensiblen Thema: Laut einer aktuellen Analyse zeigen rund 0,15 % der wöchentlichen aktiven Nutzer Gespräche mit eindeutigen Hinweisen auf mögliche Suizidabsichten oder -planungen. Bei einer Nutzerzahl von etwa 800 Millionen pro Woche bedeutet das mehr als eine Million Menschen, die sich in einer Woche mit dieser Art von Inhalten an ChatGPT wenden.
Hilfe und Unterstützung in Deutschland
Wenn du dich in einer seelischen Krise befindest oder an Suizid denkst, bist du nicht allein – und es gibt Menschen, die dir helfen möchten. In Deutschland stehen dir rund um die Uhr und kostenlos folgende Anlaufstellen zur Verfügung:
- Telefonseelsorge: 0800 111 0 111 oder 0800 111 0 222 – anonym, kostenlos und jederzeit erreichbar. Auch per Chat unter online.telefonseelsorge.de
- Nummer gegen Kummer (für Kinder & Jugendliche): 116 111 – erreichbar Montag bis Samstag von 14 bis 20 Uhr. Online-Beratung unter www.nummergegenkummer.de
- Hilfetelefon „Depression“: 0800 33 44 533 – Beratung für Betroffene und Angehörige.
- Bei akuter Gefahr: Wähle den Notruf 112 oder wende dich an die nächste psychiatrische Klinik oder Notaufnahme.
Reden hilft – und professionelle Unterstützung kann Leben retten. Niemand muss diese Gedanken allein tragen.
Zahlen im Überblick: Suizid- und Psychoseindikatoren bei ChatGPT
Die Zahlen stammen direkt von OpenAI und wurden im Rahmen einer Veröffentlichung zur Verbesserung von ChatGPT im Umgang mit sensiblen Gesprächen veröffentlicht. Hier die wichtigsten Eckwerte:
- Ungefähr 0,15 % der wöchentlichen Nutzer des Dienstes führen Gespräche mit „expliziten Indikatoren für potenzielle Suizidplanung oder -absicht“.
- Ausgehend von etwa 800 Millionen aktiven wöchentlichen Nutzern ergibt das über eine Million Betroffene pro Woche.
- Zusätzlich meldet OpenAI, dass etwa 0,07 % der Nutzer mögliche Zeichen von „Psychose oder Manie“ zeigen – also rund 560 000 Fälle pro Woche.
- Die Firma weist jedoch darauf hin, dass diese Arten von Gesprächen schwer exakt zu erfassen sind und in Prozentangaben relativ selten erscheinen.
Was bedeutet das konkret?
Auf den ersten Blick erscheinen 0,15 % sehr klein – doch bei globalen Nutzerzahlen im dreistelligen Millionenbereich werden daraus erhebliche absolute Größenordnungen. Mehr als eine Million Menschen pro Woche geben also Inhalte preis, die als Hinweis auf ernsthafte psychische Krisen gewertet werden könnten.
Für Betreiber wie OpenAI ist das eine Herausforderung: Wie kann eine KI in solchen Momenten angemessen reagieren? ChatGPT ist laut OpenAI nicht als Ersatz für professionelle Betreuung gedacht. Der breite Einsatz von Chatbots bei persönlichen Problemen – auch psychischer Natur – wirft Fragen nach Verantwortung, Grenzen und Wirkung auf. Dass ein Dienst mit so vielen Nutzern in so vielen Fällen zum Gesprächspartner bei existenziellen Themen wird, zeigt eine neue Dimension der digitalen Begleitung und zugleich der Risiken.
Maßnahmen von OpenAI: Sicherheit und Modell-Update
OpenAI beschreibt, wie man mit Experten zusammenarbeitet, um das Modell im Umgang mit psychischen Krisen zu verbessern. Zu den Änderungen gehören:
- Einbindung von über 170 Psychiatern, Psychologen und Krisenexperten zur Auswertung sensibler Chats.
- Evaluationen mit herausfordernden Szenarien – etwa Gesprächen mit Selbstmord- oder Selbstverletzungsabsichten – bei denen das aktuelle Modell eine Erfolgsquote von rund 91 % erreichte, verglichen mit 77 % beim Vorgänger.
- Reduktion der Zahl unerwünschter Antworten bei kritischen Themen um etwa 65 % im Echtbetrieb.
- Implementierung von Hinweisen auf Krisenhotlines, Pausen-Prompts bei langen Sitzungen und besonderen Schutzmechanismen bei jungen Nutzern.
Trotz dieser Maßnahmen bleibt eine kritische Anmerkung: OpenAI selbst sieht die Daten als vorläufig an, da die Erkennung solcher Gespräche technisch und interpretativ schwierig sei.
Gesellschaftliche und regulatorische Implikationen
Dass Millionen von Nutzern pro Jahr mit ChatGPT über existenzielle Krisen sprechen oder zumindest über Gedanken an Suizid nachdenken, zeigt eine neue Schattenseite der Digitalisierung. Professionelle Betreuung ist weiterhin durch Menschen zu leisten – KI kann allenfalls ergänzen.
Regulierungsbehörden nehmen diese Entwicklungen ernst: In den USA fordern Generalstaatsanwälte Schutzmechanismen für Minderjährige bei KI-Diensten, da solche Systeme zunehmend in emotionalen Kontexten eingesetzt werden. Für Unternehmen gilt: Transparenz und Verantwortung werden wichtiger denn je. KI-Anbieter müssen nachvollziehbar machen, wie sie mit risikobehafteten Inhalten umgehen und welche Maßnahmen existieren, um Nutzer in Krisenlagen zu schützen.
Ausblick – worauf sollte man achten?
In den kommenden Monaten lohnt ein Blick auf mehrere Aspekte:
- Wie verfeinern KI-Anbieter ihre Tools im Umgang mit psychischen Krisen? Gibt es unabhängige Studien, die Wirksamkeit belegen?
- Wie reagieren Medien, Politik und Gesellschaft auf die wachsende Rolle von Chatbots als emotionale Gesprächspartner?
- Wie gelingt es, Nutzern klarzumachen, dass KI keine Therapie ersetzt – und wie gelingt der Übergang zur echten Hilfe?
Die Zahlen von OpenAI sind ein deutlicher Weckruf: Technologie trifft auf menschliche Verletzlichkeit – und die Welt muss lernen, verantwortungsvoll damit umzugehen.
Quellen
- OpenAI estimates how many ChatGPT users show signs of ‘mental health emergencies’ — Business Insider (27 Okt 2025)
- Over 1.2 m people a week talk to ChatGPT about suicide — Sky News (28 Okt 2025)
Letzte Aktualisierung am 30.10.2025 / Affiliate Links / Bilder von der Amazon Product Advertising API. Alle hier angezeigten Preise und Verfügbarkeiten gelten zum angegebenen Zeitpunkt der Einbindung und können sich jederzeit ändern. Der Preis und die Verfügbarkeit, die zum Kaufzeitpunkt auf Amazon.de angezeigt werden, sind maßgeblich. Als Amazon-Partner verdienen wir an qualifizierten Verkäufen.
















