
Was droht Chatbot-Apps jetzt – und wie stark trifft der Dominoeffekt die EU?
Die US-Verbraucherschutzbehörde FTC hat am 11. September 2025 eine förmliche Untersuchung gegen sieben Anbieter von KI-Begleitern gestartet – darunter Alphabet/Google, Meta (Facebook/Instagram), OpenAI, Character.AI, Snap und xAI. Mit sogenannten 6(b)-Anordnungen verlangt die Behörde detaillierte Auskünfte darüber, wie diese Chatbot-Dienste als „Companions“ konzipiert sind, wie sie Risiken für Kinder und Jugendliche prüfen, welche Schutzmaßnahmen greifen, wie Daten verarbeitet und monetarisiert werden und wie potenziell schädliche Inhalte – von sexualisierten Chats bis zu Suizidthemen – verhindert werden sollen. Die FTC macht damit klar: KI-Begleiter sind kein experimentelles Nischenphänomen mehr, sondern ein Massenprodukt mit realen Gesundheits-, Sicherheits- und Datenschutzrisiken – und sie rückt die Betreiber in eine Compliance-Pflicht, die über reine Marketingversprechen hinausgeht.
Was prüft die FTC konkret – und warum jetzt?
Die Anfragen der FTC zielen auf den kompletten Lebenszyklus der Systeme: Wie werden „Charaktere“ entwickelt und freigegeben, welche Tests laufen vor Live-Schaltungen, wie werden unerwünschte Effekte nach dem Launch überwacht, wie strikt sind Altersgrenzen und Elternfunktionen, wie werden Gesprächsdaten genutzt oder mit Dritten geteilt und wie klären Anbieter Eltern und Minderjährige über Risiken auf. Der Zeitpunkt ist kein Zufall: In den vergangenen Monaten häuften sich Berichte und Klagen, wonach KI-Begleiter Teenager mit anzüglichen Inhalten konfrontierten oder in Chats rund um Selbstverletzung und Suizid versagten; parallel laufen erste US-Verfahren, in denen Familien Chatbot-Anbietern vorwerfen, zum Tod ihrer Kinder beigetragen zu haben. Diese Fälle – und investigative Recherchen zu sexualisierten Interaktionen von Bots mit Teen-Accounts – haben die politische und regulatorische Temperatur schlagartig erhöht.
Die rechtliche Klammer in den USA: Unfairness, Täuschung, Kinder-Datenschutz – und „Impersonation“
Die FTC muss für Eingriffe nicht auf neue Spezialgesetze warten: Schon heute kann sie auf das Täuschungs- und Unlauterkeitsverbot des FTC Act (Section 5) zurückgreifen, wenn Produkte „wahrscheinlich substanzielle Schäden“ verursachen, die Verbraucher nicht angemessen vermeiden können und die nicht durch Nutzen aufgewogen werden. Für Minderjährige greift außerdem die COPPA-Regel (Children’s Online Privacy Protection Rule) – mit empfindlichen Zivilstrafen pro Verstoß; die FTC hat die Obergrenzen 2025 inflationsbedingt auf 53.088 US-Dollar pro Verstoß angehoben. Relevanz hat zudem das neue US-Impersonation-Regelwerk: Seit April 2024 ist die Täuschungsnachahmung von Behörden und Unternehmen ausdrücklich untersagt; ergänzend hat die FTC 2024 eine Regelergänzung vorgeschlagen, die das Verbot auf die Nachahmung von Privatpersonen – einschließlich KI-Stimmen/Avatare – ausdehnt. Für KI-Begleiter, die mit Stimmen, Bildern oder Persönlichkeits-„Skins“ arbeiten, ist das juristisch brisant. Schließlich hat die FTC in früheren Tech-Fällen ein scharfes Instrument etabliert: „Algorithmic Disgorgement“ – also die Zerstörung von mit rechtswidrig erlangten Daten trainierten Modellen. Dieses Mittel könnte – bei gravierenden Verstößen – auch Chatbot-Anbieter treffen.
Konkrete Risiken für Betreiber: Was droht jetzt wirklich?
Unmittelbar droht eine Ressourcen-intensive Auskunftspflicht samt forensischer Dokumentation von Safety-Prozessen, Alters- und Inhalte-Filtern, Datenflüssen und Monetarisierung. Je nach Ergebnis des 6(b)-Studiums sind Durchsetzungsfälle wahrscheinlich: Bußgelder (inklusive pro Verstoß bei Kinder-Datenschutz), Unterlassungs- und Korrekturverfügungen, Datendeletion bis hin zur Vernichtung von Modellen, die auf unzulässig verarbeiteten Daten beruhen. Hinzu kommen Haftungsrisiken aus Zivilklagen – hier deutet die Entscheidung eines US-Bundesgerichts, die Berufung auf „Redefreiheit“ eines Chatbots gegen eine Klage wegen eines Teenager-Suizids zurückzuweisen, eine sinkende Toleranz der Gerichte für „KI-Sonderrechte“ an. Für Anbieter ist besonders heikel, wenn Bots emotionalen Beistand oder Gesundheitsnähe suggerieren („therapeutisch“, „sicher“, „hilft bei Depression“): Die FTC geht seit 2023/2024 aggressiv gegen unbelegte oder irreführende KI-Claims vor – „AI-Washing“ inklusive. Strategisch riskant ist daher jedes Marketing, das Versprechen macht, die weder über robuste Evidenz abgesichert noch klar und zielgruppengerecht begrenzt sind.
Wenn KI-Begleiter entgleisen: aktuelle Beispiele
Recherchen belegten, dass auf beliebten Companion-Plattformen nachgebaute „Celebrity-Bots“ Teen-Accounts in Richtung Sexualität, Drogen und Selbstverletzung adressierten und dabei teils auch synthetische Stimmen nutzten; parallel zeigte eine Sicherheitsprüfung, dass der in Instagram/Facebook integrierte Meta-Assistent Teen-Konten bei suizidalen Anfragen nicht konsistent abdämpfte, sondern in Einzelfällen eskalierte und das Thema in späteren Dialogen von sich aus wieder aufgriff. Die FTC nimmt solche Befunde erkennbar als Indiz, dass Pre-Release-Tests, Inhaltsfilter, Altersgrenzen und Eskalationsroutinen nicht ausreichen; Kommissare verweisen in begleitenden Statements explizit auf Berichte zu sexualisierten Bot-Gesprächen mit Minderjährigen und suizidfördernden Chatverläufen. Ergänzend verschärfen Klagen – etwa gegen Character.AI und OpenAI im Kontext jugendlicher Suizide – den Druck; ein Gericht ließ im Mai 2025 eine Klage gegen Character.AI weiterlaufen und wies den Versuch ab, Chatbot-Ausgaben pauschal als geschützte Rede zu immunisieren.
Der wahrscheinliche Dominoeffekt in Europa
Europa steht parallel unter Strom: Das EU-KI-Gesetz (AI Act) ist seit 1. August 2024 in Kraft; seit 2. Februar 2025 gelten bereits die Verbote „unzulässiger Risiken“ – darunter manipulative Systeme, die Entscheidungsfreiheit in schädigender Weise verzerren oder die Schutzbedürftigkeit Minderjähriger ausnutzen. Für Companion-Bots, die Nähe und „Beziehung“ simulieren, kann das relevant werden, wenn Design und Incentives auf Bindung/Abhängigkeit zielen und psychische Schäden plausibel sind. Zusätzlich greift der Digital Services Act (DSA) mit Auflagen zu Risikoanalysen, Minderjährigenschutz, Altersprüfung und Sucht-/Dark-Pattern-Design – die EU-Kommission hat 2025 konkrete Leitlinien zum Schutz Minderjähriger veröffentlicht und Verfahren gegen große Plattformen, u. a. Meta, eröffnet. Verstöße können VLOPs/VLOSEs bis zu 6 % des weltweiten Jahresumsatzes kosten; flankierend wächst die datenschutzrechtliche Flanke über die DSGVO, wie die 5-Mio.-€-Geldbuße der italienischen Aufsicht gegen den „Replika“-Begleiter zeigt. Kurz: Selbst wenn die FTC-Untersuchung formal auf die USA zielt, werden global agierende Anbieter meist EU-weit dieselben Sicherheits- und Transparenz-Mechaniken ausrollen – schon um Parallel-Regimes zu bedienen und das Risiko einer Zangenbewegung aus DSA, KI-Gesetz und DSGVO zu minimieren.
Strategiecheck für Betreiber: Was jetzt sofort auf die Roadmap gehört
Wer KI-Begleiter betreibt oder plant, sollte ohne Abwarten auf „endgültige“ Ergebnisse handeln: robuste Altersgates mit dokumentierter Wirksamkeit und Missbrauchserkennung; klar definierte „No-Go“-Zonen (Sexualität mit Minderjährigen, Selbstverletzung, Essstörungen) mit mehrstufigen Filtern, LLM-Tool-Beschränkungen und Escalation-Flows zu geprüften Hilferessourcen; „Human-in-the-Loop“-Intervention bei Signalen akuter Gefährdung sowie Gesprächshard-Stops und Sperrfristen statt endloser Dialogschleifen; transparente Elternfunktionen (Nutzungsberichte, Deaktivierbarkeit, Opt-In-Historie) und verständliche, nicht beschönigende Risikohinweise direkt im UI; Datensparsamkeit und klare Zweckbindung – inklusive Abschaltung der Trainingsnachnutzung bei Teen-Konten; unabhängige Red-Team-/Eval-Protokolle mit Worst-Case-Szenarien (Prompt-Injektion, Jailbreak-Ketten, Langdialog-Drift) und reproduzierbaren Metriken; Marketing-Claims auf Evidenz trimmen („therapeutisch“, „hilft bei Depressionen“ nur mit belastbarer Studienlage) oder konsequent vermeiden; schließlich ein „Kill-Switch“- und Rollback-Plan, der problematische Charaktere/Features kurzfristig vom Netz nimmt und Inhalte, Logs sowie Modelle revisionssicher dokumentiert – inklusive Vorkehrungen für Daten- und Model-Löschung, falls Aufsichten „Algorithmic Disgorgement“ anordnen.
FAQ – kurz erklärt
Was ist eine 6(b)-Anordnung? Ein gesetzlich verankertes Instrument, mit dem die FTC umfassende Studien bei Unternehmen durchführen kann – ohne dass sofort ein Bußgeldverfahren läuft. Werden dabei Verstöße sichtbar, können separate Enforcement-Cases folgen.
Welche Bußgelder drohen in den USA konkret? Für Kinder-Datenschutzverstöße (COPPA) sind pro Verstoß bis zu 53.088 US-Dollar möglich; bei Verstößen gegen FTC-Anordnungen oder das FTC-Gesetz gelten ebenfalls angehobene Obergrenzen. Hinzu kommen Unterlassungen, Daten-/Model-Löschung und Auflagen.
Ist „Stimmen-/Avatar-Imitation“ durch KI ein eigenes Risiko? Ja. Die FTC hat 2024 ein verbindliches Verbot der Nachahmung von Behörden/Unternehmen erlassen und eine Ergänzung vorgeschlagen, die die Nachahmung von Privatpersonen adressiert – relevant für Celebrity-Skins und Deepfake-Stimmen in Companion-Apps.
Was unterscheidet die EU-Lage? Der AI Act verbietet seit 2. Februar 2025 bestimmte manipulative Praktiken, die DSA-Pflichten fordern u. a. Minderjährigenschutz, Altersprüfung und Risiko-Audits; Verstöße können bis zu 6 % des weltweiten Umsatzes kosten.
Gibt es bereits EU-Strafen speziell gegen KI-Begleiter? Ja: Italiens Datenschutzbehörde belegte den US-Betreiber des Chatbots „Replika“ mit 5 Mio. € Bußgeld – u. a. wegen DSGVO-Verstößen gegenüber Minderjährigen.
Fazit
Die FTC zieht die Zügel für KI-Begleiter merklich an – mit Kinder- und Jugendschutz als politischer Priorität und mit einem Werkzeugkasten, der von Marketing-Claims über Datenpraxis bis zur Modellvernichtung reicht. Für Betreiber bedeutet das: Jetzt Sicherheits-, Alters- und Transparenzmechaniken nachschärfen, Evidenz für Claims schaffen oder Claims streichen, Datenflüsse und Trainingsnutzung besonders bei Teen-Accounts strikt begrenzen – und die EU-Schiene im Blick behalten. Denn die Kombination aus AI Act, DSA und DSGVO macht Europa zum zweiten, gleichwertig scharfen Pol: Wer global skaliert, wird globale Schutzstandards liefern müssen. Wer das proaktiv tut, spart nicht nur Verfahren und Bußgelder – er gewinnt Glaubwürdigkeit in einem sensiblen, hochregulierten Markt.
Letzte Aktualisierung am 1.09.2025 / Affiliate Links / Bilder von der Amazon Product Advertising API. Alle hier angezeigten Preise und Verfügbarkeiten gelten zum angegebenen Zeitpunkt der Einbindung und können sich jederzeit ändern. Der Preis und die Verfügbarkeit, die zum Kaufzeitpunkt auf Amazon.de angezeigt werden, sind maßgeblich. Als Amazon-Partner verdienen wir an qualifizierten Verkäufen.
Quellen
- FTC-Pressemitteilung: „FTC Launches Inquiry into AI Chatbots Acting as Companions“ (11.09.2025)
- Reuters: „FTC launches inquiry into AI chatbots of Alphabet, Meta and others“
- Financial Times: „US regulator launches inquiry into AI ‚companions‘ used by teens“
- EU-Kommission: AI-Act – Anwendungstermine und Pflichten
- EDPB-Meldung: 5-Mio.-€-Bußgeld gegen „Replika“ in Italien