WENN KI ALLES FALSCH MACHT

Haben wir die KI rassistisch gemacht? Geschlechtsspezifische und rassistische Vorurteile in der KI

Auch wenn es vielleicht lächerlich klingt: Es gibt eine erschreckende Menge an Beweisen dafür, dass (menschliche) Diskriminierung (bereits) Einzug in die KI gehalten hat.

An

So unglaublich es auch klingen mag, es gibt erschreckend viele Hinweise darauf, dass (menschliche) Diskriminierung (bereits) ihren Weg in die künstliche Intelligenz gefunden hat. Das ist ein Problem, das Übersetzungsdienstleister:innen nicht fremd ist.

Während die Fähigkeiten der KI weiter erforscht werden, wird immer deutlicher, dass auch sie nicht immun gegen Vorurteile ist, insbesondere (und das sollte uns zu denken geben) gegen Vorteile in Bezug auf Rasse und Geschlecht. Dieses beharrliche Problem beschränkt sich dabei natürlich nicht nur auf professionelle Übersetzungsdienstleistungen. Auch die Bereiche Kunst, Design und sogar Technologie sind betroffen und stellen uns vor eine Vielzahl unangenehmer Herausforderungen.


Die ersten Vorurteile in der KI

Die Wurzel des Übels sowohl bei „Übersetzungs“-KI als auch bei KI im Allgemeinen liegt in den Daten, mit denen diese Modelle trainiert werden. Algorithmen für maschinelles Lernen lernen aus riesigen Datensätzen. Wenn diese Datensätze voreingenommene oder kulturell unsensible Inhalte enthalten (und das tun sie – ganz klar), kann die KI diese Vorurteile unbeabsichtigt übernehmen und aufrechterhalten.

Zu allem Überfluss kommt noch dazu, dass Vorurteile sogar dadurch entstehen können, dass bestimmte Sprachen, Dialekte oder Kulturen in den Trainingsdaten unterrepräsentiert sind. Das kann zu falschen Ergebnissen und realen Konsequenzen führen.

Was ist schief gelaufen?

Diese Frage ist (in jeder Hinsicht) nicht leicht zu beantworten. Wie bereits erwähnt, wird „Übersetzungs“-KI durch das Training mit großen Textkorpora aus dem Internet, Büchern und anderen Quellen entwickelt. Sollten diese Datensätze unbeabsichtigt bestehende gesellschaftliche Vorurteile widerspiegeln, dann absorbiert die KI unsere Stereotypen und diskriminierenden Muster und gibt sie in unzähligen Formen wider.

Einfach gesagt: Die KI hat ihre Vorurteile in Bezug auf Geschlechter und Rassen von uns gelernt.

Die mangelnde Diversität in den Teams, die KI-Modelle entwickeln, trägt außerdem dazu bei, dass die potenzielle Diskriminierung oder Entfremdung farbiger Menschen übersehen wird. Einige Beispiele sind unangemessene Terminologie, Bildgeneratoren, die nicht in der Lage sind, Schwarze Frauen realistisch darzustellen (lachend oder weinend), Katastrophen bei der Gesichtserkennung und Fehler in der Spracherkennungstechnologie, die Befehle von Schwarzen Menschen oder denjenigen, die Englisch nicht als Muttersprache haben, nicht erkennen.


Was können wir also tun?

Es gibt ganz klar Raum für Verbesserungen. Deshalb können wir einige Dinge tun, um die Fähigkeiten der KI zu diversifizieren:

Regelmäßige Zusammenarbeit zwischen menschlichen Übersetzer:innen und KI

Auf die Gefahr hin, etwas eigennützig zu klingen: Menschliche Übersetzer:innen haben ein nuancenreiches Verständnis kultureller Kontexte, Redewendungen und sprachlicher Feinheiten. Deshalb spielen sie eine entscheidende Rolle dabei, sprachliche Probleme zu vermeiden oder zu korrigieren, bevor sie überhaupt zu Problemen werden. Im Gegensatz zur KI besitzen Menschen die Fähigkeit, Zusammenhänge zu verstehen, die über den „Originaltext“ hinausgehen. Sie erkennen Untertöne und Nuancen, die bei Maschinen verloren wären.

Menschliche Übersetzer:innen sind sogar noch um einiges wichtiger in heiklen oder vertraulichen Fachgebieten, wie beispielsweise dem Rechtswesen, der Medizin, der IT oder der Technik. In diesen Bereichen sind Präzision und kulturelle Sensibilität von größter Bedeutung. Eine Zusammenarbeit zwischen den beiden würde wahrscheinlich beiden Seiten zugute kommen: Übersetzer:innen könnten die KI nutzen, um effizienter zu arbeiten und gleichzeitig dazu beitragen, die Algorithmen des maschinellen Übersetzungstools für die Zukunft zu verfeinern und zu verbessern.

Diversifizierung des Trainingsdateninputs

An dieser Stelle ist das wahrscheinlich selbsterklärend. Die Sicherstellung vielfältiger und repräsentativer Datensätze ist ein absolut entscheidender Schritt zur Milderung von Vorurteilen in der KI.

Es wäre ein Haufen Arbeit, aber die Mühe lohnt sich. Um erfolgreich zu sein, müssten Entwickler:innen aktiv Inhalte aus unterrepräsentierten Gruppen, Sprachen und Kulturen suchen und integrieren, um eine inklusive und präzisere KI zu fördern. Diese Technologie müsste nicht nur gemeinsam mit diesen unterrepräsentierten Gruppen entwickelt, sondern auch ausgiebig mit ihnen getestet werden, um eine kohärente Funktion zu gewährleisten.

Die Entwicklung einer ethischen KI

Neben der Diversifizierung des Inputs würde die Umsetzung ethischer Richtlinien für die KI-Entwicklung, einschließlich der Förderung von Transparenz und Rechenschaftspflicht, einen großen Beitrag zur Identifizierung und Korrektur von Vorurteilen leisten.

Auch hier wäre ein Eingreifen von menschlicher Seite für die Durchführung regelmäßiger Audits und Bewertungen von KI-Systemen unverzichtbar. Eine solche Beurteilung würde den laufenden Verbesserungen und Korrekturen einen konstanten menschlichen Touch verleihen, da der natürliche Zeitfluss unweigerlich zu Veränderungen und einem weiteren Wachstum führt.

Einrichtung eines Feedback-Systems für Benutzer

Wie die meisten Unternehmen wissen, ist die Verinnerlichung von Benutzerfeedback in Prozesse, Ansätze und Methoden ein großer Schritt in die richtige Richtung. Die Einrichtung eines Mechanismus, mit dem Benutzer Feedback zu Funktion, Übersetzung und Einschränkungen geben könnten, würde dazu beitragen, Vorurteile zu erkennen und zu korrigieren, ohne von den Entwickler:innen übermäßig viel verlangen zu müssen. Eine kontinuierliche Verbesserung durch Benutzer-Input ist entscheidend, um die KI im Laufe der Zeit zu verfeinern und um inklusive und umfassende Systeme zu schaffen.

Obwohl es verschiedene Meinungen zu diesem Thema gibt, ist die bittere Wahrheit, dass wir zunächst die Ursprünge der Diskriminierung vonseiten der KI anerkennen und verstehen müssen, bevor eine dieser Herausforderungen angegangen und bewältigt werden kann. Sobald das gelungen ist, wird die Identifizierung von Irrtümern und die Umsetzung von Korrekturen viel einfacher.

KI mag ein mächtiges Tool sein, das in der Zukunft wahrscheinlich eine große Rolle spielen wird. Trotzdem darf sie nicht sich selbst überlassen werden. Im Fall von Übersetzungsdienstleistungen ist die ständige Überwachung und Betreuung durch Menschen sicherlich die einzige Möglichkeit, genaue, kulturell sensible und kontextuell nuancierte Übersetzungen zu gewährleisten. Zudem wird die KI nur durch menschliche Hilfe die reiche Vielfalt und Komplexität der menschlichen Erfahrung widerspiegeln können.


UNSERE DIENSTLEISTUNGEN

Wir bei GORR bieten umfassende Lösungen für all Ihre Sprachbedürfnisse:

Übersetzung
Beglaubigte Übersetzungen
Lektorat und Korrekturlesen
Übersetzung und Lektorat
Lokalisierung
Dolmetschen
Online-Dolmetschen
Software-Übersetzung
Website-Lokalisierung
Maschinelle Übersetzung und MTPE

Folgendes könnte Sie auch interessieren

Der Weg durch ein sprachliches Labyrinth mit Deutschfuchs und Sprachdienstleister GORR

Deutsch lernen war noch nie so einfach – dank Deutschfuchs und GORR!

AI taking over the digital world and the world of translation.

Lost in Translation: Die realen Konsequenzen, wenn KI plötzlich das Steuer übernimmt

Lassen Sie es doch einfach die KI machen. Was sollte denn schon schiefgehen?

An AI generated humanoid robot that does not understand the nuanced human side of translation services.

Die 5 größten Fallstricke bei KI-Übersetzungen

KI ist ein Wunder der modernen Zeit – aber tatsächlich auch alles andere als unfehlbar. Bei GORR sehen wir KI als Tool. Eines, das ein erhebliches Maß an Fachwissen erfordert, um effektiv eingesetzt zu werden.

© 2023 GORR. Alle Rechte vorbehalten