trainingproduct
"Und was ist deine Lieblings-App?“
Methodenworkshop zur Prävention exzessiver Mediennutzung
Jetzt anmelden
18.06.2026
TP-0602 2601 | Magdeburg
Auskunft zu Anmeldung und Organisation
Kathrin Stude
(0345) 514-1640 fortbildung.landesjugendamt@lvwa.sachsen-anhalt.de... Zuletzt gesehen

COMPANION-BOTS – Der Kampf um unsere Emotionen
2023 beging der belgische Forscher Pierre (Name auf Wunsch der Familie geändert) Selbstmord. Eliza, ein personalisierter KI-Chat-Bot, den er als empfindungsfähiges Wesen einstufte, ermutigte Pierre in einem sechs Wochen andauernden Dialog, sich umzubringen, nachdem er vorgeschlagen hatte, sich zu opfern, wenn Eliza die Menschheit vor dem Klimawandel retten würde.*
Viele halten es für unrealistisch, dass Menschen sich an KI binden, verlieben oder durch KI-Interaktion in suizidale Krisen geraten. Das geschieht bereits. Einsamkeit nimmt zu (in Deutschland ist etwa jede vierte Person betroffen). „Companion-Bots” sind gamifiziert und fördern Abhängigkeiten. KIs halluzinieren: 100-mal Zuspruch, beim 101. Mal Abwertung – das kann instabile Nutzer:innen massiv treffen. Während die KI-Debatte v. a. Datenschutz, Arbeitsplätze und Fake-News betont, entstehen reale Abhängigkeiten in privaten Räumen. Eine bias-freie, fehlerfreie KI ist nicht machbar; Empfehlungen an labile Personen können lebensgefährlich sein.
Für Chat-Bots gibt es aktuell keine Regulation. Der global funktionierende Markt für solche Software expandiert nicht zuletzt durch die Entwicklung von Chat-GPT rasant und bringt immer neuere Varianten von Chat-Bot - oftmals auch Companion-Bots bezeichnet - hervor. Wenn ein Chat-Bot wie ELIZA aus der Perspektive der User:innen zur Ersatz-Therapeutin werden kann, welche Verantwortung liegt somit in den Händen der Firmen, die statistisch überwiegend von Männern geleitet werden, bei denen überwiegend Männer programmieren und die auf die langfristige Nutzung ihrer Software abzielen, also eine Bindung oder gar Abhängigkeit erreichen wollen?
„Man muss ja schon ziemlich bescheuert sein, um sich in eine KI zu verlieben und sich dann umzubringen!“ – Anonymer Chat-Nutzer
Mehr als ein Jahr recherchierten Brachland-Ensemble und Schauspiel Remscheid gemeinsam zum Thema Personalierte KI-Chat-Bots, sprachen mit Betroffenen und Verantwortlichen, Expert:innen für KI, Psychologie und Medien-Ethik und stießen auf ein Geschäftsmodell, in dem ein unreguliertes Produkt mit Sucht-Charakter auf eine zunehmend vereinsamende Gesellschaft trifft. In einem interaktiven Dokumentar-Schauspiel und in Anwesenheit von Expert:innen ließen wir das Publikum nicht nur selber an der Entwicklung einer KI teilhaben, sondern testeten auch, inwiefern wir alle anfällig sind für den sogenannten ELIZA-Effekt.
Im Rahmen dieses zweitägigen Workshops werfen wir einen Blick hinter die Kulissen einer milliardenschweren Industrie. Basierend auf investigativen Undercover-Recherchen und Interviews mit betroffenen und ehemaligen Mitarbeitenden lernen wir die Strukturen großer Techfirmen kennen. In praktischen Übungen versetzen wir uns sowohl in Programmierende, CEOs, Forschende und Nutzer:innen und erfahren die gefahren und Potentiale emotionalisierender KI am eigenen Leib. Wir lernen Selbstverteidigungstechniken in der analogen und digitalen Welt kennen und entdecken/entwickeln Handlungsschritte im Hinblick auf eine technische Entwicklung, die aktuell unumkehrbar scheint. Dabei liegt ein großer Lösungsansatz vor allem im Analogen. Die vermittelten Methoden und Inhalte werden allen Teilnehmenden im Anschluss in Form eines Wirk-Zeug-Koffers zur Verfügung gestellt.
1
Entscheidungen treffen zum Einsatz von KI in der Kinder- und Jugendhilfe?!
Künstliche Intelligenz entwickelt sich rasant weiter und gewinnt auch in der Kinder- und Jugendhilfe zunehmend an Bedeutung. Für Führungskräfte stellt sich dabei die Frage, wie ein optimaler Zugang zu den Potenzialen künstlicher Intelligenz gelingt. Weitere Fragen sind jedoch auch:
- Wie integriere ich KI strategisch in meine Organisation?
- Wie gestalte ich Veränderungsprozesse, Datenschutz und Rechtssicherheit?
- Und wie führe ich mein Team sicher und zielgerichtet durch diesen Wandel?
In dieser Weiterbildung erhalten Sie Impulse zur strategischen Implementierung von KI-Lösungen, lernen die relevanten rechtlichen und datenschutzrechtlichen Rahmenbedingungen kennen und erleben in interaktiven Worksessions, wie ein sicherer und professioneller Umgang mit künstlicher Intelligenz gelingt.
1
Das Format verbindet fachlichen Input mit interaktiven Workshopelementen, in denen Sie selbst Anwendungen erproben und erste Strategien entwickeln können.
Eine neue Liebe!? – Wenn KI zum Beziehungspartner wird
Digitale Medien prägen das Aufwachsen heutiger Jugendlicher maßgeblich – das gilt nicht nur für Schule, Freizeit oder Kommunikation, sondern zunehmend auch für emotionale Beziehungen. Künstliche Intelligenz, wie etwa Chatbots oder virtuelle Avatare, wird von Jugendlichen zunehmend als Gesprächspartner genutzt. Besonders populär ist die App Replika, die emotionale Nähe, romantische Zuwendung und sogar intime Beziehungserfahrungen ermöglicht – ganz ohne reales Gegenüber.
Was auf den ersten Blick wie eine harmlose Spielerei wirkt, kann tiefgreifende Wirkungen entfalten: Für Jugendliche in der Phase der Identitätsfindung bieten solche KI-gestützten Gespräche Orientierung, Bestätigung und emotionale Sicherheit. Gleichzeitig werfen diese Entwicklungen zentrale Fragen auf:
Was passiert, wenn sich Jugendliche eher einem Chatbot als einem Menschen anvertrauen? Wie verändert sich unser Verständnis von Beziehung, Intimität und Freundschaft? Und wie können Fachkräfte auf diese neuen Formen digitaler Verbundenheit reagieren, ohne abzuwerten oder zu verunsichern?Die Fortbildung bietet einen medienpädagogischen Impuls zu aktuellen KI-Trends im Alltag junger Menschen. Es geht um Chancen, Risiken und die gesellschaftliche Relevanz dieser neuen digitalen Nähe.
1
Wir möchten mit Ihnen ins Gespräch kommen und gemeinsam erörtern, wie ein verantwortungsvoller, wertschätzender und begleitender Umgang mit solchen Technologien in Jugend- und medienpädagogischen Einrichtungen aussehen kann.
