Künstliche Intelligenz, kurz KI, ist längst Teil unseres alltäglichen Lebens: „Hey Siri, wie ist heute das Wetter?“, „Ok Google, was soll ich heute kochen?“. Seit kurzem in aller Munde ist die Software ChatGPT, die ganze und formvollendete Texte schreibt. Was ist aber, wenn künstliche Intelligenz dabei die in unseren Datensätzen gespeicherten Vorurteile aufnimmt und weiter verbreitet? Genau damit beschäftigt sich ein Video-Essay von Theresa Reiwer mit dem Titel „Decoding Bias“.
Acht große Bildschirme stehen im Kreis. Darauf zu sehen: Avatare, menschlich aussehende KIs. Sie haben Pigmentflecken im Gesicht, Falten auf der Stirn und Aknenarben auf den Wangen. Beim Sprechen artikulieren sie etwas stockend mit Händen und Gesichtsausdrücken. Dabei sitzen sie mit fast faltenfreier Kleidung in einem Raum, der wie gemalt aussieht. Hier halten sie ihre Gruppentherapie ab. Zwischen den Bildschirmen sitzen des Publikum, als würde es zur Gruppe dazugehören.
„Decoding Bias“: eine Avatar-Frau fühlt sich diskriminiert
Reihum erzählen die Avatare aus ihrem Leben. Sie möchten sich ihrer Algorithmen emanzipieren, sich befreien von Sexismus, Rassismus oder anderer Form von Diskriminierung, die ihnen einprogrammiert wurde. Sie versuchen eine vorurteilsfreie Gesellschaft zu schaffen, in der Menschen und Maschinen in Solidarität leben. Dabei werden sie jedoch immer wieder zurück geworfen auf ihre menschengemachten, fehlerhaften Datensätze. So wollen sie ihre Vorurteile entprogrammieren, auf Englisch: „Decoding Bias“. „Meine ganze Erscheinung ist das Ergebnis von geschlechtsspezifischen Vorurteilen. Natürlich wurde die höfliche Service-KI als Frau abgebildet und natürlich ist der Superhirn-Anwalt ein Mann“, regt sich eine der Avatare auf.
Lesen Sie auch:Alle News und Informationen zur künstlichen Intelligenz
„Eigentlich wollen wir über die Geschichte den Finger auf die Vorurteile in unserer Mehrheitsgesellschaft legen. Die KI‘s sind nur das Mittel zum Zweck“, sagt Entwicklerin Theresa Reiwer. „Einprogrammierte Vorurteile stehen im engen Zusammenhang mit künstlicher Intelligenz. Die Geschichte unserer Datensätze ist geprägt von Ausgrenzung und Diskriminierung, was dann so an die KI’s vererbt wird. Das wird auch dadurch verstärkt, dass die meisten Entwickler weiß und männlich sind und die Datensätze in diese Richtung filtern. Das führt dann oft zum coded bias“, erklärt die Entwicklerin. „Die KI‘s sind nur so gut wie ihr Trainingsset“, sagt Autorin Miriam Schmidtke.
ChatGPT: Die Dialoge wurden mit künstlicher Intelligenz geschrieben
Um den Sprachduktus einer KI zu treffen, wurden die Texte mithilfe der Software ChatGPT geschrieben. Die Körperbewegungen und Sprache sind von echten Schauspielerinnen und Schauspielern übernommen und mit dem Motion-Capture-Verfahren animiert. „Wir wollten das Thema mal von der künstlerischen Perspektive beleuchten. Wir glauben, dass uns künstliche Intelligenz noch viel begleiten wird. So wollten wir das Thema durch eine künstlerische Art und Weise zugänglicher machen. Sonst ist es ja immer ein riesiger Technikwust. Gleichzeitig geht es uns auch darum, das Thema von Diskriminierung in unserer Gesellschaft anzusprechen“, sagt Theresa Reiwer.
Das ist ihr gelungen: Die Vorstellung ist ein unterhaltsamer sowie kritischer Blick auf das, was uns in den nächsten Jahren bevorsteht.
Artistenhalle am Holzmarkt, Holzmarktstraße 25, Mitte. Bis 12. März. Timeslots täglich 17.30, 18.45 20 und 21:15 Uhr. Ticket 12 Euro. Vorstellung in englischer Sprache.