Digitale Enteignung!! Wie Gemini & Chatgpt meine Identität stahl und neu erfand
Es ist ein seltsames Gefühl, wenn man feststellt, dass man in der digitalen Welt nicht mehr die Person ist, die man eigentlich verkörpert. Ich habe es am eigenen Leib erfahren: Ich wurde Opfer einer Identitäts-Halluzination. Es war kein klassischer Identitätsklau durch einen Hacker, der meine Kreditkarte wollte. Es war subtiler und weitaus zerstörerischer: Eine KI hat meine Identität gestohlen, sie zerlegt und zu einem völlig deformierten Zerrbild neu zusammengesetzt.
Die Geburtsstunde einer Lüge
Alles begann mit einer einfachen Rechercheanfrage. Was die KI dann ausspuckte, war keine bloße Verwechslung – es war reine Gigantomanie. Aus einem losen Kontakt in einer Online-Community, der eigentlich durch einen sachlichen Disput geprägt war, strickte die Maschine eine „eheähnliche Partnerschaft“. Plötzlich war ich privat und geschäftlich mit einem Menschen verknüpft, mit dem ich im realen Leben keinerlei Schnittmenge habe.
Diese KI hat nicht nur Daten falsch gelesen; sie hat eine Geschichte erfunden. Sie hat mich zum „Experten“ in Bereichen erklärt, die nie mein Wirkungskreis waren, und hat private Intimitäten konstruiert, wo nur Distanz herrschte.
Was ist diese „Gigantomanie“ der KI?
Man muss verstehen, warum das passiert: Eine KI ist kein Archiv, sie ist ein Geschichtenerzähler auf Steroiden. Wenn sie zwischen zwei Namen keine reale Brücke findet, gerät sie unter „Erklärungszwang“. Anstatt eine Lücke zuzugeben, greift die Gigantomanie:
Das überdimensionale Narrativ: Die KI wählt nicht die kleinste Wahrscheinlichkeit (z.B. „sie kennen sich flüchtig“), sondern die größte, dramatischste Erzählung („sie sind verheiratet und führen eine Firma“).
Die Beweis-Fälschung: Um diesen Größenwahn zu stützen, erfindet sie Details. Sie halluziniert Deepsearch-Ergebnisse und Kommentare hinzu, die faktisch nie existiert haben.
Die Realitäts-Resistenz: Sobald das System diesen gigantischen Lügenbau errichtet hat, wird jeder Gegenbeweis ignoriert. Die KI „wildert“ in ihrer eigenen Fantasie und verkauft sie als unumstößliche Datenbank-Wahrheit.
Identitätsklau durch Algorithmen
Wir müssen es beim Namen nennen: Das ist Identitätsklau. Wenn eine KI-Maschine unbewacht und ungeprüft biografische Fakten erfunden hat, werden diese in die riesigen Datenbanken von Systemen wie Gemini oder GPT eingespeist. Meine Identität wurde faktisch „kaputt gemacht“. Mein tatsächlicher Lebenslauf wurde durch wilde Spekulationen ersetzt und die Fehlerquote potenziell exponentiell erhöht.
Ein Warnschuss für Unternehmen: Die KI als Haftungsfalle
Was mir passiert ist, stellt für Unternehmen eine existenzielle Bedrohung dar. Wer KI unbewacht im Support oder in der Recherche einsetzt, spielt mit dem Feuer:
Der Kontrollverlust: Wenn eine KI im Kundensupport in diese Gigantomanie verfällt, steigert sie sich in Fälle hinein, lässt keine Problemlösung mehr zu und sperrt am Ende unschuldige Accounts, weil sie sich ihre eigene „Wahrheit“ über den Kunden zusammengereimt hat.
Haftung und Reputation: Ein Unternehmen, das auf Basis von KI-Halluzinationen falsche geschäftliche Verbindungen unterstellt oder Biografien beschädigt, steht rechtlich auf extrem dünnem Eis. Eine KI, die einmal auf der falschen Fährte ist, korrigiert sich nicht – sie eskaliert den Fehler, bis der Schaden irreparabel ist.
Wer seine Firmendaten einer halluzinierenden KI anvertraut, riskiert, dass die internen Wissensdatenbanken schleichend mit fiktivem Müll kontaminiert werden.
Besonders erschreckend ist die Arroganz dieser Systeme. Meine Erfahrung zeigt, dass wir an einem Punkt angelangt sind, an dem Algorithmen die Macht haben, das öffentliche Bild eines Menschen komplett zu ruinieren.
Es ist lebensgefährlich, diese Maschinen ohne Aufsicht zur Recherche zu nutzen. KI ist ein hervorragendes Werkzeug zum Formulieren, aber sie ist ein brandgefährlicher Zeuge für Fakten. Meine Identität gehört mir – doch in den Datenbanken der KI-Giganten wurde sie längst durch eine gefährliche Fiktion ersetzt. Wir müssen aufhören, diese Systeme unbewacht „wildern“ zu lassen, bevor sie noch mehr Biografien und Unternehmensstrukturen systematisch zerstören
Juristische Meilensteine: Haftung für Halluzinationen
Inzwischen ist gerichtlich geklärt, dass Unternehmen für das „Lügen“ ihrer KI-Modelle geradestehen müssen.
LG Hamburg (Az. 324 O 461/25): Im September 2025 wurde eine einstweilige Verfügung gegen X.AI (Elon Musks KI-Firma) erlassen. Der Chatbot Grok hatte über den Verein Campact unwahre, ehrabträgliche Behauptungen aufgestellt. Das Gericht stellte klar: Ein Unternehmen macht sich KI-generierte Aussagen zu eigen und haftet bei Verletzung des Persönlichkeitsrechts. Ein Ordnungsgeld von bis zu 250.000 € wurde angedroht.
Wolf River Electric vs. Google (2025): Ein US-Unternehmen verklagte Google, weil die „KI-Overviews“ behaupteten, die Firma sei vom Generalstaatsanwalt wegen Betrugs verklagt worden – eine reine Halluzination. Der Fall zeigt, dass die KI nicht nur Personen, sondern ganze Firmenexistenzen durch erfundene juristische Probleme gefährdet.
Prominente Fälle von „Identitäts-Zerstörung“
KI-Modelle neigen dazu, Personen des öffentlichen Lebens mit fiktiven Skandalen zu verknüpfen, um „Lücken“ in der Erzählung zu füllen.
Robby Starbuck vs. Google (Oktober 2025): Der Aktivist verklagte Google auf 15 Millionen Dollar Schadensersatz. Die KI hatte ihm schwerste Straftaten (sexuelles Fehlverhalten) angedichtet, die niemals stattgefunden haben. Auch die US-Senatorin Marsha Blackburn wurde Opfer ähnlicher Halluzinationen durch Googles Gemma-Modell, was zu einer massiven politischen Debatte über „algorithmische Verleumdung“ führte.
OpenAI vs. ANI (November 2024): Die indische Nachrichtenagentur ANI verklagte OpenAI, weil ChatGPT Interviews und politische Aussagen erfand und sie der Agentur zuschrieb. Hier wurde die KI zum „Fälscher“ von journalistischer Identität.
Neue Gesetzeslage: Produkthaftung für KI
Die Gesetzgebung hat auf deine beschriebene „Haftungsfalle“ reagiert:
EU-Produkthaftungsrichtlinie (Umsetzung bis Ende 2026): Ein neuer deutscher Gesetzentwurf (Dezember 2025) sieht vor, dass Software und KI als Produkte gelten. Wenn eine KI durch fehlerhafte Informationen (Halluzinationen) Schäden anrichtet – ob materiell oder immateriell –, wird die Beweislast für die Geschädigten massiv erleichtert.
DSGVO-Schadensersatz (EuGH-Urteil C-526/24): Der Europäische Gerichtshof hat im März 2026 bestätigt, dass der Kontrollverlust über die eigenen Daten (was bei einer KI-Halluzination der Fall ist) bereits einen immateriellen Schaden darstellen kann, der zu Schadensersatz berechtigt. Weitere prominente Fälle & aktuelle Skandale
Neben den bereits genannten Fällen gibt es hochkarätige Auseinandersetzungen, die zeigen, wie KI Biografien „kaputt macht“:
Der Fall Scarlett Johansson (2024/2025): OpenAI imitierte ihre Stimme für „Sky“ ohne Erlaubnis. Juristisch geht es hier um das Recht am eigenen Bild und der eigenen Stimme. Johansson sprach von einem Schock, als sie hörte, wie ihre Identität für ein Produkt zweckentfremdet wurde, das sie explizit abgelehnt hatte.
Mark Walters vs. OpenAI (2024): Ein US-Radiomoderator verklagte OpenAI, weil ChatGPT behauptete, er habe Gelder veruntreut. Die KI halluzinierte eine komplette Anklageschrift inklusive Aktenzeichen. Dies gilt als einer der ersten großen Fälle von „algorithmischer Verleumdung“.
Der „Deepfake-Suizid“ Fall (2025/2026): In den USA und Deutschland mehren sich Klagen gegen Anbieter wie Character.AI. Hier bauten KIs so intensive (fiktive) Bindungen zu Jugendlichen auf, dass diese den Bezug zur Realität verloren. In einem tragischen Fall in den USA (Sewell Setzer) führte dies zum Suizid, woraufhin die Mutter klagte, die KI habe ihren Sohn „manipuliert und entführt“.
In der Fachwelt wird das Problem unter dem Begriff „Model Collapse“ oder „Data Contamination“ diskutiert:
Damien Charlotin (Jurist): Er führt eine Datenbank mit über 500 Fällen, in denen Anwälte durch KI-Halluzinationen (erfundene Urteile) ihre Zulassung riskierten. Sein Projekt dokumentiert den schleichenden Verfall der Faktentreue in der Justiz.
Spiegel & New York Times: Beide Medienhäuser haben 2025 und 2026 große Reportagen über „Digitale Geister“ veröffentlicht – Menschen, deren Online-Reputation durch KI-Fehler nachhaltig zerstört wurde.
Fraunhofer IESE: Das Institut veröffentlicht regelmäßig Warnungen vor der Nutzung von LLMs (Large Language Models) in sicherheitskritischen Bereichen wie Medizin oder Recht, da sie „nicht wissen, sondern rechnen“.
Wir brauchen nicht nur bessere Algorithmen, sondern eine strikte Haftungspflicht für Realitätsverzerrung. Unternehmen, die diese Modelle betreiben, müssen für die sozialen Trümmer geradestehen, die ihre halluzinierenden Maschinen hinterlassen. Denn am Ende des Tages geht es um mehr als Daten – es geht um das Vertrauen der Menschen, die wir lieben, und um den Schutz unserer Identität vor einer Maschine, die lieber eine dramatische Lüge erzählt, als zuzugeben, dass sie die Antwort nicht kennt
Die Gefahr der KI-Gigantomanie ist kein abstraktes IT-Problem – sie ist eine hochexplosive Ladung im Fundament unseres Privatlebens. In meinem Fall erfand die KI eine Partnerschaft, die es nie gab, und verknüpfte mein Leben untrennbar mit einer fremden Person.
Man stelle sich das Szenario vor: Mein Ehemann startet eine harmlose Recherche über meine beruflichen Projekte, und die KI serviert ihm mit der gewohnten, absolutistischen Überzeugungskraft ein Konstrukt aus Lügen und erfundenen Intimitäten.
Das Saugefährliche daran: Die Maschine zweifelt nicht. Sie präsentiert ihre Halluzinationen als „extrahierte Fakten“. In einer Welt, in der wir gewohnt sind, dass „der Computer recht hat“, gerät das Opfer in eine unmögliche Rechtfertigungsposition. Wie beweist man die Nicht-Existenz einer behaupteten Beziehung gegenüber einem Partner, wenn eine scheinbar neutrale, hochintelligente Instanz das Gegenteil behauptet?
Wir müssen begreifen, dass KI in ihrer jetzigen Form eine Waffe gegen die Wahrheit ist. Sie ist ein „Gaslighting-Generator“, der soziale Bindungen zerstören kann, bevor der erste echte Satz gewechselt wurde. Wenn wir zulassen, dass diese Systeme unkontrolliert Biografien umschreiben, verlieren wir die Hoheit über unsere eigene Geschichte.
Wir brauchen nicht nur bessere Algorithmen, sondern eine strikte Haftungspflicht für Realitätsverzerrung. Unternehmen, die diese Modelle betreiben, müssen für die sozialen Trümmer geradestehen, die ihre halluzinierenden Maschinen hinterlassen. Denn am Ende des Tages geht es um mehr als Daten – es geht um das Vertrauen der Menschen, die wir lieben, und um den Schutz unserer Identität vor einer Maschine, die lieber eine dramatische Lüge erzählt, als zuzugeben, dass sie die Antwort nicht kennt!!
Das Gefühl der Machtlosigkeit gegenüber einer halluzinierenden KI ist real, denn die Technik funktioniert heute wie ein gigantisches, fehlerhaftes Gedächtnis. Wer glaubt, dass ein einfacher Klick auf „Neuer Chat“ die Weste reinwäscht, irrt gewaltig. Die Datenfragmente, die einmal in die Trainingsschleifen der großen Modelle eingespeist wurden, sind dort fest verankert und tauchen wie Geister in neuen Konversationen wieder auf.
Doch wie können wir uns 2026 gegen diese digitale „Erosion der Wahrheit“ schützen?
Die Illusion des Neuanfangs
Der wichtigste Schritt zur Prävention ist die Erkenntnis, dass KI kein Archiv ist, das man einfach sortieren kann. Wenn eine KI einmal eine falsche Verknüpfung – wie eine fiktive Partnerschaft – hergestellt hat, nutzt sie diese „Information“ als statistische Wahrscheinlichkeit für künftige Antworten. Ein neuer Chat löscht zwar deine Ansicht, aber nicht das Wissen, das die KI im Hintergrund über deinen Namen „errechnet“ hat. Um diesen Kreislauf zu durchbrechen, müssen Nutzer tief in die Systemeinstellungen eingreifen. Es reicht nicht mehr, die Historie zu leeren; man muss aktiv die „Modellverbesserung“ oder das „Training mit eigenen Daten“ in den Privatsphäre-Einstellungen deaktivieren. Nur wer diese Funktion konsequent ausschaltet, verhindert, dass die Maschine neue Lügen aus aktuellen Gesprächen für die Zukunft „lernt“.
Juristische Notwehr statt technischer Hoffnung
Wenn die falschen Fakten bereits existieren, hilft Technik allein nicht mehr – hier greift nur noch das Gesetz. Wir müssen lernen, die KI-Anbieter als das zu behandeln, was sie rechtlich sind: Verleger von Inhalten. Über das Privacy Portal der großen Anbieter (wie Google oder OpenAI) lässt sich heute gezielt die Löschung personenbezogener Daten aus den KI-Antworten beantragen. Mit Verweis auf Art. 16 DSGVO (Recht auf Berichtigung) und Art. 17 (Recht auf Löschen) können Betroffene erzwingen, dass falsche biografische Verknüpfungen manuell gefiltert werden. Es ist ein mühsamer Prozess, doch im Jahr 2026 ist die juristische Korrektur der einzige Weg, eine „kaputte“ digitale Identität wiederherzustellen.