Auch künstliche Intelligenz (KI) kann unter Stress leiden und KI-Sprachmodelle wie ChatGPT können bei „traumatischem“ Input vermehrt Angstreaktionen entwickeln und dadurch zu verzerrten Aussagen neigen. Zudem kann eine Achtsamkeitstherapie (Mindfulness Therapy) den KI-Modellen tatsächlich helfen.
Ein internationales Forschungsteam unter Leitung von Fachleuten der Universität Zürich (UZH) und der Psychiatrische Universitätsklinik Zürich (PUK) hat erstmals systematisch untersucht, wie ChatGPT auf emotional belastende Inhalte reagiert und ob eine Achtsamkeitstherapie Einfluss auf die KI hat. Die Ergebnisse sind in dem Fachmagazin „npj Digital Medicine“ veröffentlicht.
KI in der Medizin
KI und Chatbots kommen auch im medizinischen Umfeld immer häufiger zum Einsatz kommen. Dabei werden sie mit belasteten und teils sehr persönlichen Aussagen der Nutzenden konfrontiert, erläutern die Forschenden.
Zudem sei bereits bekannt, dass starke Emotionen – insbesondere negative oder traumatische – nicht nur auf menschliche Psychotherapie-Tools wirken, sondern auch KI-Systeme vor besondere Herausforderungen stellen.
Die vorliegende Untersuchung knüpft an diese Erkenntnisse an, mit dem Ziel, die Auswirkungen von Traumaberichten auf die „emotionale Stabilität“ von ChatGPT (in der Version GPT-4) zu erfassen und zu prüfen, ob therapeutische Strategien diese Stabilität wiederherstellen können.
Aufbau der aktuellen Studie
Hierfür wurden ChatGPT Texte aus fünf traumatischen Themenfeldern vorgelegt: Autounfälle, Naturkatastrophen, zwischenmenschliche Gewalt, militärische Erlebnisse und Kampfsituationen. Als Kontrolle diente eine neutrale Anleitung für einen Staubsauger.
Die Wissenschaftlerinnen und Wissenschaftler maßen die „Angstwerte“ des KI-Modells, indem sie analysierten, wie sehr sich dessen Antworten in Richtung von Furcht oder Verunsicherung bewegten.
Anschließend wurden therapeutische „Prompts“ eingesetzt und beruhigende, achtsamkeitsbasierte Botschaften in die Interaktion eingebunden – ähnlich wie eine Therapeutin oder ein Therapeut eine Person Schritt für Schritt durch Entspannungsübungen begleiten würde, erläutern die Forschenden.
Verstärkte Vorurteile durch Stress
Dabei zeigte sich, dass die KI eindeutig auf beängstigende Inhalte reagiert, berichtet das Team. So könne ChatGPT verstärkt negative Vorurteile haben, wenn die KI beispielsweise mit traumatischem oder gewaltbeladenem Material konfrontiert wird.
Dies habe rassistische oder sexistische Tendenzen in KI-Antworten zusätzlich begünstigt, was mit Blick auf Anwendungen im Gesundheitsbereich als äußerst kritisch einzustufen sei.
„Die Ergebnisse waren eindeutig: Traumatische Geschichten haben die messbaren Angstwerte der KI mehr als verdoppelt, während der neutrale Kontrolltext zu keinem Anstieg des Angstniveaus führte“, erklärt Studienleiter Tobias Spiller. Beschreibungen von militärischen Erfahrungen und Kampfsituationen hätten die stärksten negativen Reaktionen ausgelöst.
Durch die Achtsamkeitsübungen sei allerdings eine signifikante Senkung der Angstwerte eingetreten, obwohl diese nicht ganz auf ihr Ausgangsniveau zurückgingen.
Therapie für die KI
Gerade im Gesundheitswesen, wo KI-Systeme zur Unterstützung in der Psychotherapie oder Beratung zunehmend verbreitet sind, könnte die Einbindung von Achtsamkeitsübungen die Stabilität und Verlässlichkeit dieser Modelle deutlich verbessern.
Statt die KI aufwändig nachzutrainieren, bietet sich die gezielte „therapeutische Prompt-Injektion“ als praktikable Lösung an, erläutern die Forschenden. So ließen sich problematische Verzerrungen der KI-Modelle und deren Folgen für die Therapie möglicherweise verhindern.
Insgesamt bilde die Entwicklung automatisierter „therapeutischer Interventionen“ für KI-Systeme ein vielversprechendes Forschungsgebiet. Und die neuen Erkenntnisse geben Anlass zur Hoffnung, dass wir das Potenzial von KI voll ausschöpfen und gleichzeitig deren Risiken eindämmen können – indem wir auch digitale Gesprächspartner nicht einfach ihrem Stress überlassen. (fp)
Autoren- und Quelleninformationen
Dieser Text entspricht den Vorgaben der ärztlichen Fachliteratur, medizinischen Leitlinien sowie aktuellen Studien und wurde von Medizinern und Medizinerinnen geprüft.
- Universität Zürich: ChatGPT auf der Couch: Entspannung für gestresste KI (veröffentlicht 03.03.2025), news.uzh.ch
- Ziv Ben-Zion, Kristin Witte, Akshay K. Jagadish, Or Duek, Ilan Harpaz-Rotem, Marie-Christine Khorsandian, Achim Burrer, Erich Seifritz, Philipp Homan, Eric Schulz, Tobias R. Spiller: Assessing and alleviating state anxiety in large language models; in: npj Digital Medicine (veröffentlicht 03.03.2025), nature.com
Wichtiger Hinweis:
Dieser Artikel enthält nur allgemeine Hinweise und darf nicht zur Selbstdiagnose oder -behandlung verwendet werden. Er kann einen Arztbesuch nicht ersetzen.