2023 beging der belgische Forscher Pierre (Name auf Wunsch der Familie geändert) Selbstmord. Eliza, ein personalisierter KI-Chat-Bot, den er als empfindungsfähiges Wesen einstufte, ermutigte Pierre in einem sechs Wochen andauernden Dialog, sich umzubringen, nachdem er vorgeschlagen hatte, sich zu opfern, wenn Eliza die Menschheit vor dem Klimawandel retten würde.*
Viele halten es für unrealistisch, dass Menschen sich an KI binden, verlieben oder durch KI-Interaktion in suizidale Krisen geraten. Das geschieht bereits. Einsamkeit nimmt zu (in Deutschland ist etwa jede vierte Person betroffen). „Companion-Bots” sind gamifiziert und fördern Abhängigkeiten. KIs halluzinieren: 100-mal Zuspruch, beim 101. Mal Abwertung – das kann instabile Nutzer:innen massiv treffen. Während die KI-Debatte v. a. Datenschutz, Arbeitsplätze und Fake-News betont, entstehen reale Abhängigkeiten in privaten Räumen. Eine bias-freie, fehlerfreie KI ist nicht machbar; Empfehlungen an labile Personen können lebensgefährlich sein.
Für Chat-Bots gibt es aktuell keine Regulation. Der global funktionierende Markt für solche Software expandiert nicht zuletzt durch die Entwicklung von Chat-GPT rasant und bringt immer neuere Varianten von Chat-Bot - oftmals auch Companion-Bots bezeichnet - hervor. Wenn ein Chat-Bot wie ELIZA aus der Perspektive der User:innen zur Ersatz-Therapeutin werden kann, welche Verantwortung liegt somit in den Händen der Firmen, die statistisch überwiegend von Männern geleitet werden, bei denen überwiegend Männer programmieren und die auf die langfristige Nutzung ihrer Software abzielen, also eine Bindung oder gar Abhängigkeit erreichen wollen?
„Man muss ja schon ziemlich bescheuert sein, um sich in eine KI zu verlieben und sich dann umzubringen!“ – Anonymer Chat-Nutzer
Mehr als ein Jahr recherchierten Brachland-Ensemble und Schauspiel Remscheid gemeinsam zum Thema Personalierte KI-Chat-Bots, sprachen mit Betroffenen und Verantwortlichen, Expert:innen für KI, Psychologie und Medien-Ethik und stießen auf ein Geschäftsmodell, in dem ein unreguliertes Produkt mit Sucht-Charakter auf eine zunehmend vereinsamende Gesellschaft trifft. In einem interaktiven Dokumentar-Schauspiel und in Anwesenheit von Expert:innen ließen wir das Publikum nicht nur selber an der Entwicklung einer KI teilhaben, sondern testeten auch, inwiefern wir alle anfällig sind für den sogenannten ELIZA-Effekt.
Im Rahmen dieses zweitägigen Workshops werfen wir einen Blick hinter die Kulissen einer milliardenschweren Industrie. Basierend auf investigativen Undercover-Recherchen und Interviews mit betroffenen und ehemaligen Mitarbeitenden lernen wir die Strukturen großer Techfirmen kennen. In praktischen Übungen versetzen wir uns sowohl in Programmierende, CEOs, Forschende und Nutzer:innen und erfahren die gefahren und Potentiale emotionalisierender KI am eigenen Leib. Wir lernen Selbstverteidigungstechniken in der analogen und digitalen Welt kennen und entdecken/entwickeln Handlungsschritte im Hinblick auf eine technische Entwicklung, die aktuell unumkehrbar scheint. Dabei liegt ein großer Lösungsansatz vor allem im Analogen. Die vermittelten Methoden und Inhalte werden allen Teilnehmenden im Anschluss in Form eines Wirk-Zeug-Koffers zur Verfügung gestellt.