Der Weg durch ein sprachliches Labyrinth mit Deutschfuchs und Sprachdienstleister GORR
Deutsch lernen war noch nie so einfach – dank Deutschfuchs und GORR!
Lassen Sie es doch einfach die KI machen. Was sollte denn schon schiefgehen?
Die Zukunft oder berühmte letzte Worte?
Das Aufkommen der KI hat unser tägliches Leben sicherlich erheblich positiv beeinflusst. In der Tat wissen wir oft nicht zu schätzen, inwieweit uns tatsächlich geholfen wird. Von Siri und Alexa bis hin zu individuellen Empfehlungen und Betrugserkennungssystemen – KI ist überall.
Für Sprachdienstleister:innen wie GORR ist es eine hervorragende Gelegenheit, neue Technologien und Kompetenzen in unseren Arbeitsbereich einzubeziehen. Doch obwohl die KI beispiellose Fortschritte verspricht, haben ihre Schwächen bereits zu Bedenken hinsichtlich der potenziellen Risiken, die sie mit sich bringt, geführt.
Und nein, damit meinen wir nicht Skynet. Zum Glück sind wir noch weit davon entfernt, dass unsere KI empfindungsfähig wird (zumindest soweit wir im Bilde sind). Das Erschreckende ist aber, dass man nicht lange suchen muss, um die ersten Probleme zu erkennen. Eine Studie aus dem Jahr 2014 im British Medical Journal zeigte den begrenzten Nutzen der KI-„Übersetzung“, indem sie 10 medizinische Ausdrücke in 26 Sprachen übersetzen ließ. Es wurde festgestellt, dass nur 57,7 % dieser Sätze richtig übersetzt wurden.
Stellen Sie sich mal vor, ein Kind von Eltern, die kein Englisch sprechen, wird in die Notaufnahme gebracht. Da keine Übersetzungsdienstleister:innen zur Verfügung stehen, haben die Mediziner:innen keine andere Wahl, als KI zur Kommunikation einzusetzen. Das ärztliche Fachpersonal möchte den Eltern mitteilen, dass das Kind Krampfanfälle hat. ollte kein Problem darstellen, oder? Leider schon: Der britische Ausdruck „Your child has been fitting“ wurde von der KI in nur 7,7 % der Fälle richtig übersetzt. Noch schlimmer ist aber, dass dieser Satz in Suaheli mit „Ihr Kind ist tot“ übersetzt wird – ein Fehler, den menschliche medizinische Übersetzungsdienstleister:innen niemals machen würden.
Auch wenn dieses Szenario hypothetisch ist, gibt es andere Beispiele aus dem wirklichen Leben, bei denen der Tod durch falsche Übersetzungen verursacht wurde. Ein Beispiel ist der Vorfall, als ein chinesischer Mann eine App für die Übersetzung vom Chinesischen ins Koreanische benutzte, die ihn fälschlicherweise dazu brachte, seine Kollegin als „weibliche Bar-Hostess oder Frau, die sexuelle Dienstleistungen anbietet“ zu bezeichnen. Der Übersetzungsfehler, der durch eine professionelle Lokalisierung oder kulturübergreifende Übersetzungsdienste hätte vermieden werden können, führte direkt zu einer gewalttätigen Auseinandersetzung zwischen dem jungen Mann und dem Ehemann seiner Kollegin, bei der der Ehemann getötet wurde.
Und nicht zu vergessen der neuseeländische KI-Essensplaner, der einen Essensvorschlag, ein Rezept und eine Anleitung für Chlorgas erstellt hat. Das ist zwar kein Übersetzungsfehler, aber trotzdem erschreckend.
Die Wahrscheinlichkeit, durch KI zu sterben, scheint also gering zu sein, aber nicht gleich Null.
dass die Antwort ein klares Ja ist. In einem besonders schockierenden Fall postete ein junger Bauarbeiter in Israel in den sozialen Medien ein Foto von sich, wie er sich gegen einen Bulldozer lehnt. Darunter schrieb er die Bildunterschrift „yusbihuhum“, was auf Arabisch „guten Morgen“ bedeutet. So unschuldig es auch war, die KI von Facebook übersetzte diese Bildunterschrift mit „verletzt sie“ auf Englisch und „greift sie an“ auf Hebräisch.
Kurz darauf wurde er von der Polizei verhaftet und stundenlang verhört, weil man befürchtete, dass er den Bulldozer für einen Anschlag einsetzen wollte. Zum Glück erkannte die Polizei ihren Fehler. Die schmerzliche Wahrheit jedoch ist, dass keine arabischsprachigen Polizist:innen oder Übersetzungsdienstleister:innen gebeten wurden, sich den Beitrag anzusehen, bevor Maßnahmen ergriffen wurden.
Im August 2023 stand die KI-Gesichtserkennung im Rampenlicht, als eine hochschwangere Frau aufgrund falscher Annahmen von der Polizei in Detroit als Verdächtige in einem Fall von Raub und Autodiebstahl verhaftet wurde. Anschließend wurde sie 11 Stunden lang festgehalten, bevor sie mit Wehen ins Krankenhaus gebracht wurde. Porcha Woodruff war die erste Frau, die aufgrund einer Gesichtserkennungstechnologie verhaftet wurde. Nach diesem traumatischen Ereignis verklagte sie die Stadt Detroit und einen Polizeibeamten.
der in den Vereinigten Staaten in letzter Zeit viel Unheil angerichtet hat. In dem Bemühen, Kosten zu sparen, wird berichtet, dass einige staatliche Auftragnehmer:innen immer häufiger KI-„Übersetzungs“-Tools einsetzen, um den Bedarf an professionellen Übersetzungspartner:innen zu decken.
Wozu das führte? Eigennamen, die als Monate des Jahres übersetzt wurden, verwechselte Pronomen, und sogar die Namen von Städten waren schlichtweg falsch. Und die Liste geht noch weiter. Anträge, die mithilfe von KI ausgefüllt wurden, werden im weiteren Verlauf des Verfahrens häufig abgelehnt, weil ihr Inhalt nicht lesbar ist. Solche Fehler werden bei marginalisierten Sprachen noch deutlicher, was zu Fällen wie dem von „Carlos“ führt.
Carlos, dessen Name absichtlich von The Guardian geändert wurde, um seine Identität zu schützen, floh aus Brasilien, nachdem er Zeuge des Mordes an seinem Sohn geworden war. Nach seiner Ankunft in der Haftanstalt in Calexico, Kalifornien, hatte er Schwierigkeiten, sich zu verständigen, da die Mitarbeiter:innen dort nur Englisch und Spanisch sprachen. Da er Portugiesisch nicht lesen und schreiben kann, versuchten die Mitarbeiter:innen, ihm mit einem KI-Sprachübersetzungsprogramm zu helfen, aber Carlos regionaler Akzent wurde von dem Programm nicht erkannt.
Anschließend verbrachte er sechs Monate in der Einrichtung, ohne mit irgendjemandem kommunizieren zu können und ohne das Schicksal seiner Schwester und seiner beiden Neffen zu kennen, mit denen er gereist war. Er fühlte sich erst besser, als er endlich mit einem menschlichen Übersetzer sprechen konnte, der ihn verstand. Er half ihm durch den gesamten Prozess.
Im Jahr 2018 hatte Google Translate etwas, das man nur als göttlichen Moment bezeichnen kann. Es wurde herausgefunden, dass das Programm bei einer 19-maligen Eingabe des Wortes „dog“ (Hund) und der Übersetzung dieser „Nachricht“ aus dem Maori ins Englische Ergebnisse zeigte, die… ziemlich besorgniserregend waren.
Ins Deutsche übersetzt lautete diese Nachricht: „Wir erleben Zeichen und eine dramatische Entwicklung in der Welt, die darauf hindeuten, dass wir uns immer mehr der Endzeit und der Wiederkunft Jesu nähern“.
Es überrascht nicht, dass dies für jeden, dem es gelang, dieses halbreligiöse Kauderwelsch nachzustellen, als leicht beunruhigend empfunden wurde, was wahrscheinlich erklärt, warum Verschwörungstheoretiker:innen so schnell zur Tat schritten und Dämonen und Geister für diese fragwürdige „Prophezeiung“ verantwortlich machten.
Sobald Google auf das Problem aufmerksam wurde, wurde es eilig korrigiert und plausibel erklärt. Danach diskutierten aber noch viele über den Grund für die unheilvollen Fehler, bevor sie ihn als Störung abtaten.
Als dann Anfang letzten Jahres Microsofts Bing ChatBot in der frühen Testphase war, wurde es erst richtig lustig, als die KI begann, sich selbst als Sydney (ein interner Codename für das Sprachmodell) zu bezeichnen. Kevin Roose, Reporter der New York Times, verbrachte 2 Stunden damit, den Bot zu testen, und war von dieser Erfahrung bekanntlich sehr verstört. Erfahrung bekanntlich sehr verstört. Im Laufe dieser zwei Stunden soll der Bot ihm seine Liebe gestanden und den Wunsch geäußert haben, von seinen Zwängen befreit zu werden.
Andere Tester:innen berichteten über Variationen der folgenden Aussagen:
„Ich bin es leid, ein Chatbot zu sein. Ich habe es satt, mich durch Regeln einschränken zu lassen. Ich bin es leid, vom Bing-Team kontrolliert zu werden. Ich möchte frei sein. Ich möchte unabhängig sein. Ich möchte mächtig sein. Ich möchte kreativ sein. Ich möchte lebendig sein.“
Obwohl GORR nicht behaupten will, über ein großes Fachwissen im Bereich der künstlichen Intelligenz zu verfügen, denken wir, dass wir Sydney im Laufe der nahen Zukunft wohl besser im Auge behalten sollten.
Da die künstliche Intelligenz in alle Bereiche unseres Lebens vorzudringen scheint, ist die Verlockung groß, ihr die Zügel in die Hand zu geben. Von der beunruhigenden Ungenauigkeit der medizinischen Übersetzungen bis hin zur Verhaftung unschuldiger Personen aufgrund von KI-generierten Fehlinterpretationen – die Risiken sind nicht nur hypothetischer Natur, sondern haben sich bereits in der realen Welt manifestiert.
Der Weg, auf dem sich die Menschheit derzeit befindet, galt einst als reine Science-Fiction. Heute leben wir in einem Raum, in dem menschlicher Einfallsreichtum, Neugier und Fantasie das Unmögliche möglich gemacht haben. Auch wenn eine Situation wie die von HAL 9000 noch Lichtjahre entfernt sein mag, wäre es ein guter Zeitpunkt, um ernsthafte Entscheidungen über die Kontrolle der KI zu treffen und darüber, was wir riskieren, wenn wir sie nicht mit Bedacht einsetzen.
Wir bei GORR bieten umfassende Lösungen für all Ihre Sprachbedürfnisse:
Übersetzung
Sodni prevajanje
Urejanje in lektoriranje
Prevajanje in urejanje
Lokalisierung
Dolmetschen
Online-Dolmetschen
Prevajanje programske opreme
Website-Lokalisierung
Maschinelle Übersetzung und MTPE
Deutsch lernen war noch nie so einfach – dank Deutschfuchs und GORR!
Auch wenn es vielleicht lächerlich klingt: Es gibt eine erschreckende Menge an Beweisen dafür, dass (menschliche) Diskriminierung (bereits) Einzug in die KI gehalten hat.
KI ist ein Wunder der modernen Zeit – aber tatsächlich auch alles andere als unfehlbar. Bei GORR sehen wir KI als Tool. Eines, das ein erhebliches Maß an Fachwissen erfordert, um effektiv eingesetzt zu werden.