
Aus „gereist“ wird „geist“
Ein vermeintlich harmloser Newsletter, eine Routine-E-Mail vom Verlag oder ein journalistischer Artikel, verschickt per Mail – und doch liest sich der Text plötzlich absurd: Da ist nicht mehr vom Urlaub „gereist“ die Rede, sondern davon, „dass jemand geist“ sei. Genau das ist aktuell in Gmail passiert. Nutzer berichten, dass ihre E-Mails fehlerhaft und teils sinnentstellend dargestellt werden – und das ohne ihr Zutun.
Der Skandal um verdrehte Inhalte in Google Mail bringt ein Grundproblem automatisierter Technologien auf den Punkt: Wenn KI uns helfen soll, aber stattdessen manipuliert. Die Redaktion von T-Online veröffentlichte hierzu einen aufsehenerregenden Bericht, der durch eigene Beobachtungen ausgelöst wurde – und der mittlerweile zahlreiche Leserreaktionen nach sich zog.
Hintergrund: Der Fehler, der keiner sein sollte
Was ist konkret geschehen? Wie T-Online zuerst berichtete, veränderte Gmail offenbar Inhalte von E-Mails durch eine automatische, fehlerhafte Übersetzungsfunktion. Nutzer, die eine andere Sprache als Englisch in Gmail eingestellt hatten, bekamen deutschsprachige Texte angezeigt, in denen Wörter sinnverfälscht verändert worden waren. Besonders auffällig war, dass die Veränderungen nicht zufällig wirkten, sondern systematisch falsche Begriffe eingesetzt wurden – häufig durch maschinelle Übersetzung ins Deutsche, obwohl der Text ursprünglich bereits auf Deutsch war.
Ein Beispiel: Aus einem ursprünglich korrekten Satz wie „Er ist nach Italien gereist“ wurde „Er ist nach Italien geist“. Ein anderes Beispiel: Der Ausdruck „sie haben angefragt“ wurde in „sie haben Angriff“ verwandelt.
Solche Änderungen mögen auf den ersten Blick wie kuriose Einzelphänomene wirken – in Wahrheit aber stehen sie für ein tiefgreifendes technisches Versagen.
Technische Analyse: Die KI, die zu viel weiß – oder zu wenig
Doch wie kommt es zu diesen skurrilen Ergebnissen? Offenbar hat Gmail in bestimmten Fällen eine Art „automatische Übersetzung“ aktiviert, obwohl der Inhalt gar nicht übersetzt werden sollte. Ein Google-Sprecher erklärte laut T-Online, dass eine überarbeitete Version von Gmail für eine kleine Gruppe von Nutzern ausgerollt worden sei. Diese Version nutze KI, um Inhalte zu verbessern – zum Beispiel, um automatisch zwischen Sprachen zu übersetzen. Doch hier kam es zum Problem: Die KI glaubte fälschlich, dass deutschsprachige Inhalte einer Übersetzung aus dem Englischen bedürfen – und generierte so neue, oft sinnlose Begriffe.
Diese Art der algorithmischen „Überkorrektur“ ist nicht neu. Bereits in anderen Kontexten, etwa bei Auto-Übersetzungen von Websites, wurden ähnliche Phänomene beobachtet. Der Unterschied im Fall Gmail: Hier handelt es sich um private Kommunikation – E-Mails, die als besonders vertraulich gelten. Dass eine KI sich hier „einmischt“, ohne dass die Nutzer dies bewusst aktiviert haben, ist ein gravierender Eingriff.
Das sagt Google – und das sagen Betroffene
Google selbst wiegelte zunächst ab. Gegenüber T-Online hieß es, dass nur „eine sehr kleine Zahl“ von Nutzern betroffen sei und dass die Funktion überarbeitet werde. Inzwischen sei das Problem „weitgehend behoben“. Doch die Reaktionen im Netz sprechen eine andere Sprache: Zahlreiche Nutzer äußerten sich in sozialen Medien und Kommentarspalten empört über die Veränderung ihrer Inhalte.
Ein Beispiel einer Leserin: „Ich habe einen Newsletter meiner Hochschule verschickt, der mit einem Satz über internationale Studienprogramme begann – plötzlich stand da, wir böten eine ‚Kampagne‘ an. Niemand wusste, woher das kam.“ Andere berichteten von E-Mails, die in der beruflichen Kommunikation für Irritation sorgten, weil einfache Formulierungen missverständlich umgedeutet wurden.
T-Online selbst betont, dass es sich bei den Mails um **Originalinhalte** gehandelt habe, die nicht über Google-Dienste erstellt wurden. Das heißt: Google hatte keinerlei Grund, die Texte neu zu interpretieren. Die Redaktion erklärte: „Wir haben niemals eine Übersetzungsfunktion aktiviert oder benötigt.“
Was steht auf dem Spiel? Datenschutz, Vertrauen, Integrität
Der Vorfall wirft grundsätzliche Fragen auf: Wie weit darf eine KI eingreifen, ohne dass der Nutzer es merkt? Und was bedeutet es, wenn eine E-Mail – ein digitaler Brief – plötzlich nicht mehr das ausdrückt, was der Absender meinte?
Gerade journalistische Inhalte leben von Präzision. Wird ein Artikel per Mail verfälscht, steht nicht nur die technische Qualität infrage, sondern auch die journalistische Glaubwürdigkeit. Dass dies auf der Plattform eines der größten Internetunternehmen der Welt passiert, macht die Sache besonders heikel.
Auch datenschutzrechtlich ist der Vorfall brisant. Zwar greift Google laut eigener Datenschutzrichtlinie nicht aktiv in Inhalte ein – in der Praxis jedoch wird diese Grenze durch KI-Systeme offenbar zunehmend aufgeweicht. Der Tech-Journalist Matthias Kremp kommentierte: „Wenn E-Mail-Inhalte verändert werden, ohne dass Nutzer darüber informiert werden, ist das eine klare Grenzüberschreitung.“
Verwandte Vorfälle: Wenn Technik versagt
Der Fall Gmail steht nicht allein. In den vergangenen Jahren gab es immer wieder Berichte über KI-Systeme, die Inhalte falsch interpretierten, Autokorrektur-Fehler, falsch zugewiesene Spam-Labels oder aggressive Filtermechanismen. Auch Facebook, Microsoft Outlook und Apple Mail hatten mit maschinellen Fehlinterpretationen zu kämpfen – allerdings meist im Kontext von Formatierung oder Spam-Schutz, nicht bei der aktiven Umformulierung von Texten.
Der Unterschied im aktuellen Gmail-Fall liegt in der direkten Beeinflussung des Inhalts – bei gleichzeitig fehlender Transparenz. Nutzer konnten die Funktion weder deaktivieren noch nachvollziehen, warum bestimmte Begriffe verändert wurden.
Empfehlungen für Nutzer
Wer Gmail nutzt, sollte seine Spracheinstellungen kontrollieren und prüfen, ob automatische Übersetzungen aktiviert sind. Google bietet in den Kontoeinstellungen die Möglichkeit, Spracheinstellungen manuell festzulegen – viele Nutzer haben jedoch nie eine Übersetzungsfunktion bewusst gewählt. In diesem Fall empfiehlt es sich, im Browser statt in der Gmail-App zu arbeiten und ungewöhnliche Darstellungen per Screenshot zu dokumentieren.
Auch Unternehmen sollten ihre Newsletter und geschäftlichen E-Mails künftig auf korrekte Darstellung in Gmail prüfen – insbesondere, wenn sie Kunden oder Geschäftspartner im Ausland ansprechen.
Googles Verantwortung und Ausblick
Google hat angekündigt, das Problem zu beheben. Inzwischen wurde die fehlerhafte Übersetzungsfunktion zurückgenommen, wie es in einem Unternehmensstatement heißt: „Wir haben eine neue Version ausgerollt, die das Verhalten anpasst. Nutzer sollten keine verfälschten Inhalte mehr sehen.“
Doch der Vertrauensverlust bleibt. Viele Nutzer stellen sich nun die Frage: Was passiert sonst noch unbemerkt mit meinen Daten? Und welche Entscheidungen trifft die KI für mich, ohne dass ich davon weiß?
In einer Zeit, in der generative KI-Systeme wie ChatGPT, Gemini oder Claude in immer mehr Alltagsanwendungen eingebaut werden, braucht es klare Grenzen – und vor allem eines: **Transparenz**.
Der E-Mail-Kanal braucht Vertrauen – keine Fantasie
Gmail steht sinnbildlich für ein wachsendes Problem: Systeme, die mehr können sollen als je zuvor, aber dabei auch mehr Fehler machen. Eine KI, die journalistische Inhalte „übersetzt“, ohne dass es nötig oder gewünscht ist, verletzt das Prinzip der digitalen Verlässlichkeit. Selbst kleine Veränderungen an Begriffen können in der Geschäftswelt, im Journalismus oder im privaten Austausch fatale Wirkungen entfalten.
Die Hoffnung bleibt, dass Anbieter wie Google aus diesen Fehlern lernen – und dass Nutzer kritisch bleiben, sich wehren, wenn Inhalte verändert werden, und im Zweifel Alternativen nutzen. Denn eines ist klar: Eine E-Mail, die nicht mehr sagt, was der Absender meint, hat ihre Aufgabe verfehlt.