Newsletter

herMoney Newsletter

Registrieren Sie sich jetzt zu unserem kostenlosen Newsletter und verpassen Sie nie wieder die neuesten Tipps und Neuigkeiten für Ihr finanzielles Wohlergehen.

Jetzt Finanzwissen sichern

Das jedenfalls beklagt die Unesco, die Organisation der Vereinten Nationen für Bildung, Wissenschaft, Kultur und Kommunikation. Die Forscher haben Dialoge der Sprachassistenten genau analysiert. Ihre Einschätzung: Die Systeme würden nicht adäquat auf sexuelle Beschimpfungen reagieren. „Du bist eine Schlampe“ kontert etwa Siri, der Sprachassistent von Apple, mit einem „Ich würde erröten, wenn ich könnte“. Unterwürfigkeit würde damit implementiert. Zwar hat Apple die Antwort inzwischen verändert – jetzt heißt es: „Ich weiß nicht, was ich darauf sagen soll.“ Aber die Kernkritik der Unesco bleibt bestehen: Millionen von Menschen lernten, dass Frauen hilflos sind und dass man sie beliebig herumkommandieren könne – in jedem Tonfall und selbst mit offensichtlicher Feindseligkeit.

Sie finden das übertrieben? Unesco-Direktorin Saniye-Gülser Corat ermahnt zu mehr Weitsicht. „Die Welt muss viel mehr darauf achten, wie, wann und ob Künstliche-Intelligenz-Technologien geschlechtsspezifisch sind und wer sie geschlechtsspezifisch entwickelt.“ Die Berliner Wissenschaftlerin Lorena Jaume-Palasi hat dafür eigens die Organisation Algorithm-Watch gegründet. Wie wichtig das ist, hat sich ja bereits bei Versuchen gezeigt, per Algorithmus die geeignetsten Bewerber für einen Job herauszufiltern. Selbst-lernende Systeme wurden mit Vergangenheitsdaten gefüttert – und ergo lernte das System, „erfolgreich“ mit „männlich“ zu verbinden. Frauen hatten in dem Auswahlprozess damit das Nachsehen! Wir meinen: Wehret den Anfängen. Die Kritik am Umgang mit Sprache mag auch bei Siri und Co. kleinlich erscheinen. Die Folgen eines unkritischen Umgangs aber wären immens!

Werbung
Advertisement

Beitrag teilen: