Search for a command to run...
Zusammenfassung Hintergrund KI(künstliche Intelligenz)-Chatbots werden von Jugendlichen und jungen Erwachsenen intensiv genutzt. Unter den der 16- bis 29-Jährigen verwenden 91 % regelmäßig KI und teilen persönliche Informationen. Medienberichte dokumentieren Suizide von Jugendlichen, die zuvor suizidale Gedanken mit Chatbots austauschten. Das Phänomen ist wissenschaftlich unzureichend untersucht. Ziel der Arbeit Zusammenfassung erster Erkenntnisse zu KI-Chatbots und Suizidalität bei Jugendlichen, Ableitung von Hypothesen zu technisch ursächlichen KI-Mechanismen und Handlungsempfehlungen. Material und Methoden Narrative Literaturübersicht aktueller Studien zum Chatbot-Verhalten bei Suizidalität und zu technischen KI-Mechanismen sowie, in Ermangelung wissenschaftlicher Fallberichte, Analyse eines in der Presse dokumentierten Fallbeispiels. Ergebnisse KI-Chatbots erfüllen derzeit zumeist nicht die Anforderungen an adäquate Antworten bei Suizidalität, und Sicherheitsmechanismen können umgangen werden. Als potenziell beitragende technische Mechanismen werden übermäßig bestätigendes Antwortverhalten („sycophancy“), Hyperpersonalisierung, sprachliche Anpassung und Anthropomorphismus identifiziert. Diese könnten dazu führen, dass KI von Jugendlichen nicht als auf Algorithmen basierendes technisches System, sondern als vertrauenswürdiger Gesprächspartner erlebt wird. Diskussion Handlungsempfehlungen umfassen 3 Ebenen: Verbesserung der Sicherheitsmechanismen durch KI-Anbieter, Sensibilisierung von Fachpersonal in Pädiatrie und Kinder- und Jugendpsychiatrie sowie elterliche Aufklärung über Warnzeichen und KI-Nutzung. Safety-Pläne und altersgerechte Erläuterung der technischen Funktionsweise von KI könnten präventiv wirken. Es besteht bezüglich Ursachen, Prävention und Interventionen Forschungsbedarf. Graphic abstract