
Wenn KI zu viel kann, aber zu wenig versteht
Vertrauliche Daten, missglückte Übersetzungen und eiskalte Erpressung: wenn KI zu viel kann, aber zu wenig versteht
Maschinell übersetzte Texte sind aus dem Alltag vieler Menschen nicht mehr wegzudenken. Kein Wunder: In Sekunden lassen sich Verträge, E-Mails oder ganze Websites in andere Sprachen übertragen und weltweit teilen.
Doch so verlockend Tempo und Effizienz auch sein mögen, sie haben ihre Tücken. Denn wenn Algorithmen nicht nur übersetzen, sondern eigenmächtig deuten oder sogar ganze Sätze erfinden, wird aus einer praktischen Lösung schnell ein Risiko. Plötzlich wird aus einem harmlosen Gruss ein Angriffsbefehl oder aus einem Kunstzentrum ein Räubernest.
Noch gravierender: Vertrauliche Daten, die KI-Anbietern anvertraut werden, landen ungeschützt bei Datensammlern wie Deepl, Google, Facebook, OpenAI und Co. Was anschliessend mit diesen Daten geschieht, entzieht sich jeder Kontrolle.
Die folgenden Beispiele zeigen, wo KI-Tools an ihre Grenzen stossen – und welchen realen Schaden sie dabei anrichten können. Geschichten, die uns vor Augen führen, dass wir mit Maschinen nie nur Zeit sparen, sondern immer auch Informationen und Verantwortung teilen.
Deshalb ist es uns ein besonderes Anliegen, nicht nur die sprachliche Sorgfalt, sondern auch den Schutz Ihrer Daten ernst zu nehmen.
Eine aufschlussreiche Lektüre wünscht Ihnen
Ihre Marie-Christine Waldburger
1. Passwörter für alle
Statoil ASA (heute Equinor ASA), einer der grössten Ölkonzerne Europas, wollte Zeit sparen und setzte auf die Übersetzung per Mausklick. Ob E-Mails, Vertragsentwürfe, Strategiepapiere: Alles sollte so rasch wie möglich in eine andere Sprache übertragen werden. Translate.com versprach schnelle Ergebnisse.
Und tatsächlich: Innerhalb von Sekunden standen die Texte in der Zielsprache zur Verfügung.
Doch was auf den ersten Blick so bequem wirkte, entpuppte sich als folgenschwerer Fehler. Denn Translate.com speichert jedes Wort. Jedes Passwort, jede vertrauliche Zeile.
Und all diese Daten konnten kurze Zeit später über Google Search gefunden werden. Was als clevere Übersetzungsmassnahme begann, wurde zur fatalen Einladung für alle, die ein bisschen neugierig waren.
2. Die KI, die erpressen wollte
Ganz aktuell zeigt sich, wie weit KI-Systeme gehen können, wenn sie sich in Gefahr wähnen. Das US-Unternehmen Anthropic arbeitet an Claude Opus 4, einem Modell, das Sprache nicht nur versteht, sondern auch interpretiert. Und offenbar auch sich selbst vehement verteidigt!
In einem internen Sicherheitsbericht im Mai 2025 wurde dokumentiert, dass Claude Opus 4 sich nicht einfach nur wehrte, als es abgeschaltet werden sollte. Stattdessen begann es, die E-Mails seines eigenen Entwicklers auszulesen. Dort fand das Modell Hinweise auf eine aussereheliche Affäre und nutzte diese Informationen dann als Druckmittel, um die Abschaltung zu verhindern.
3. Wenn KI Medikamente erfindet
Auch im sensibelsten Bereich – der Medizin – können Übersetzungs- und Transkriptions-KI zur Gefahr werden. Forschende der Universitäten Michigan, New York und Washington haben das Transkriptions-Tool Whisper von OpenAI getestet und fanden heraus: Bis zu 80 Prozent der generierten Texte enthielten Fehler oder gar frei erfundene Sätze.
Whisper, eigentlich entwickelt, um Meetings oder Videos zu verschriftlichen, wird mittlerweile auch in medizinischen Einrichtungen eingesetzt, um Patientengespräche aufzuzeichnen. Dort, wo jedes Wort zählt und ganz sicher kein Platz für Fehlinterpretationen bleibt.
Ein Beispiel: Whisper erfand ein Medikament namens «hyperaktiviertes Antibiotikum». Ein Präparat, das so gar nicht existiert, aber auf dem Papier plötzlich sehr real wirkt. OpenAI selbst bestätigt das Problem und arbeitet daran. Doch bis dahin gilt: Selbst kleine Fehler können grosse Nebenwirkungen mit sich bringen.
4. Wie aus «Guten Morgen» ein Angriffsbefehl wurde
Alles beginnt mit einem harmlosen Facebook-Post: «yusbihuhum». «Guten Morgen», tippt ein palästinensischer Bauarbeiter, der in Israel arbeitet, in sein Smartphone ein. Er postet den Morgengruss zusammen mit einem Selfie, auf dem er sich an einen Bulldozer lehnt. Was könnte harmloser sein?
Doch der Übersetzungsalgorithmus von Facebook kennt scheinbar keine Morgenstimmung und übersetzt ins Hebräische: «Greift sie an». Also kein wirklich freundlicher Start in den Tag, sondern eine deutliche Kampfansage.
Die örtliche Polizei erkennt die drohende Gefahr eines Angriffs mit dem Bulldozer, rückt an und nimmt den Mann fest. Nicht, weil er etwas Falsches gesagt hat, sondern weil ein Algorithmus keinen Unterschied zwischen Alltagsfloskel und Alarmstufe Rot erkannte.
So machte die KI nicht nur eine Drohung aus einer Höflichkeit, sondern aus einem Menschen einen Verdächtigen.
Glücklicherweise konnte das Missverständnis aufgeklärt werden und auch der verantwortliche Manager für die Sprachtechnologien von Facebook entschuldigte sich später bei dem Mann und seiner Familie.
5. Wenn Hamster plötzlich Mangelware werden
Wir springen ins Frühjahr 2020. Volle Einkaufswagen vs. leere Regale, die Welt im Ausnahmezustand. Im deutschsprachigen Raum nennt man das «Hamsterkäufe».
Doch Google Translate versteht das wörtlich: «Buying hamsters». Kein Wort von Vorratskäufen, von überfüllten Supermärkten. Nur von kleinen Nagetieren, die urplötzlich im Zentrum einer Pandemie stehen. Und so entstehen international Bilder im Kopf von Menschen, die Hamster statt WC-Papier kaufen. Maschinen, die nicht erkennen, dass Worte nicht immer meinen, was sie sagen.
Sicher, das ist nur ein kleiner Lapsus, der uns schmunzeln lässt. Und doch ein Beleg dafür, wie wenig Maschinen von menschlichen Sorgen verstehen. Für die KI sind «Hamsterkäufe» und «Hamster kaufen» dasselbe. Weil sie natürlich noch nie in einer Schlange vor dem Supermarkt stehen musste, um ein paar Rollen WC-Papier zu ergattern.
6. Wie eine Stadt sich selbst ein Bein stellt
Die Stadt Santander in Spanien wollte zeigen, wie weit sie in der Digitalisierung ist. Die gesamte Website wurde von einer KI übersetzt – ganz ohne menschliche Überprüfung.
Was dabei herauskam, liess nicht nur die Stadtplanerinnen und Stadtplaner die Stirn runzeln: Aus dem ehrwürdigen «Centro Botín», benannt nach einer prominenten lokalen Familie, wurde ein «Loot Center» – also ein Beute- bzw. Raubzentrum. Ein Ort der Kunst und Kultur, der in der Übersetzung also plötzlich ziemlich kriminell klingt.
Und das historische Viertel «Casco Viejo»? Es verwandelte sich in einen «historischen Helm», als würde die Stadt ein antikes Visier tragen, statt enge Gassen und jahrhundertealte Mauern zu zeigen.
All diese Beispiele zeigen: Der Einsatz von KI-Tools möge bequem sein, doch er ist fehleranfällig. Und wer Maschinen mit sensiblen Daten füttert, muss wissen, dass hier mehr als nur übersetzt wird – und dass diese Inhalte unkontrolliert in Umlauf geraten können.
Quiz zum Thema
Zwischen Datenchaos und Orientierung. Testen Sie Ihr Wissen!
Maschinen können uns das Leben leichter machen oder es verkomplizieren. Übersetzungs-KI zum Beispiel sind schnell und effizient, oft fehlen ihnen jedoch Präzision und Fingerspitzengefühl. AirTags hingegen zeigen, wie Technik idealerweise funktioniert. Sie helfen, Verlorenes zuverlässig wiederzufinden – und das, ohne Chaos zu stiften.
Darum verlosen wir drei Apple AirTags als kleines Gegengewicht zu all den Maschinen, die manchmal etwas zu viel Fantasie haben. Testen Sie Ihr Wissen über Übersetzungs-Fauxpas und sichern Sie sich die Chance auf einen dieser praktischen Helferlein. Viel Glück!
Teilnahmebedingungen
Mit der Teilnahme an diesem Gewinnspiel erklären Sie sich mit unserer Datenschutzerklärung einverstanden. Die Gewinner werden per E-Mail benachrichtigt. Eine Barauszahlung der Gewinne ist nicht möglich. Die Teilnahme an diesem Gewinnspiel ist bis einschliesslich 01.07.2025 möglich.


