Ist ChatGPT die bessere Therapeutin? Mit Christiane Eichenberg
Shownotes
In dieser Folge von "Kollegin KI" begrüßt Host Max Mundhenke Christiane Eichenberg, Leiterin des Instituts für Psychosomatik an der Sigmund Freud Uni Wien und Autorin des neuen Buchs „KI in der Psychotherapie“. Angesichts monatelanger Wartezeiten auf Therapieplätze diskutieren sie eine provokante These: Kann ChatGPT menschliche Therapeut*innen ersetzen? Eichenberg warnt vor der "Illusion des Verstandenwerdens". Während KI in der Früherkennung von Depressionen durch Stimmanalyse oder beim Matching von Therapieformen glänze, fehle der Maschine die existenzielle Tiefe einer echten menschlichen Beziehung. Ein spannendes Gespräch über die Transformation eines Berufsstandes, digitale Ethik und die Gefahren von Social Media für die psychische Gesundheit.
Über diese Themen spreche Max und seine Gästin in dieser „Kollegin KI“-Epsiode:
- Bindung ohne Bewusstsein: Warum KI-Bots Empathie zwar täuschend echt simulieren können, ihnen aber die Fähigkeit zu einer reziproken Beziehung fehlt, die für eine tiefgreifende psychische Stabilisierung essenziell ist.
- Präzision durch Daten: Wie der "Personalized Advantage Index" mithilfe von Algorithmen bereits vorab prognostiziert, welche Therapieform für welchen Patienten den größten Erfolg verspricht.
- Diagnose per Stimme: Woran Stimmanalyse-Tools erkennen, dass Patient*innen vor einer depressiven Episoden stehen, während der Mensch noch keine Symptome wahrnimmt.
- Training im Cyberspace: Warum angehende Therapeuten nutzen VR-Simulationen und KI-Patienten, um kritische Gesprächssituationen wie suizidale Krisen völlig risikofrei in einem geschützten Raum zu trainieren.
- Gefahr durch Algorithmen: Wie sich den Gefahren begegnen lässt, die durch unregulierter KI-Systeme entstehen, die suizidale Gedanken ungewollt befeuern oder Abhängigkeiten bei vulnerablen Gruppen erzeugen können.
- Digitale Rezepte helfen: Warum Patient*innen bei der Suche nach Hilfe auf zertifizierte "DiGA"-Listen setzen sollten, statt ihr Herz anonymen, potenziell dubiosen Apps in den Stores auszuschütten.
- Pflicht zur Medienanamnese: Weshalb moderne Therapeut*innen heute zwingend abfragen müssen, ob die Nutzung digitaler Dienste ihrer Klienten die Genesung fördert oder die Störung erst verursacht hat.
Mehr zu Prof. Christiane Eichenberg auf ihrer Website
Ihr neues Buch "Künstliche Intelligenz und Psychotherapie"
Die Studie "Fake Friend" zu ChatGPT als Ratgeber
Mehr zu Max bei Linkedin
Produktion: Podstars by OMR
Transkript anzeigen
00:00:00: Hey, ich bin's
00:00:01: – die Kollegin KI.
00:00:02: Und bevor wir starten!
00:00:04: In der Folge geht es um KI in der Psychotherapie und wir sprechen auch über Suizid.
00:00:10: Wenn das für euch belastend ist, achtet auf euch und denkt daran.
00:00:15: Hilfe ist immer da wenn man sie braucht.
00:00:17: Jetzt gehts los.
00:00:21: Neuer Dienstag, neue Folge Kollegen KI.
00:00:24: Herzlich willkommen!
00:00:25: Wir sprechen diese Woche über KI in der Psychotherapie.
00:00:29: Psychotherapie kennt ihr das was viele wollen und keiner bekommt?
00:00:32: Ich weiß ich habe Perplexe-Thema gefragt, das sind ein paar Fakten zum Thema Psychotherapie.
00:00:38: Und in der Regel warten Leute über einen halbes Jahr zumindest in Berlin auf einem Psychotherapieplatz.
00:00:44: Das heißt da gibt es ganz offenbar einen Mangel.
00:00:47: Auf der anderen Seite ist auch für Berlin eine Abdeckung von über hundertzwanzig Prozent an Psychotherapienpraxen vorgesehen laut Kassenärztlicher Vereinigung also irgendwas scheint da nicht ganz zu stimmen bzw scheint es da Probleme zu geben.
00:01:01: Jetzt gibt's natürlich immer wieder Diskussionen darüber, wie kann KI eigentlich in der Psychotherapie helfen?
00:01:07: Und da gibt es eine ganze Menge Meinung zu und wir wollen heute mal eine Expertin dazu befragen.
00:01:13: Ich habe hier Professorin Christiane Eichenberg, sie ist die Leiterin des Instituts für Psychosomatik an der Siegmund-Freud Uni Wien.
00:01:21: Und sie hat gerade ein Buch geschrieben, und zwar heißt das KI und Psychotherapies.
00:01:26: Ich bin Max Montenke, ihr hört Kollegin KE Genwaren.
00:01:30: Hallo Frau Professorin Eichenberg.
00:01:32: Ja, hallo!
00:01:33: Vielen Dank für die Einladung.
00:01:35: Sehr gern.
00:01:35: Schön dass Sie da sind.
00:01:38: Kann ich mit ChatGPT meine Probleme besprechen und mir die Psychotherapie sparen?
00:01:42: Sag mal so, wir müssen Chancen und Risiken differenziert sehen wenn wir generative KI- und psychische Störungen und Hilfsmöglichkeiten besprechen wollen.
00:01:52: Also KI eröffnet erst einmal vielfältige Chancens für die Psychotherapie, wenn wir erstmal die positive Seite beleuchten.
00:01:58: ja sie ermöglicht personalisiertes Matching passender Therapieform, adaptive Intervention während der Behandlung, Früherkennung von Krisen, Vorhersagen von Therapierfolgen.
00:02:17: Das
00:02:17: sind ja jetzt erst mal Punkte, die sie aufgezählt haben.
00:02:20: Die eher so die Psychotherapie ... Verwaltung und Organisation betreffen.
00:02:25: Ich habe jetzt eher gefragt, kann Chatchi Biti mein Therapeut oder meine Therapeutin sein?
00:02:31: Es kann unterstützen ja aber wir müssen natürlich differenzieren dass Chachi Biti zwar empathisch formulierte Antworten gibt aber natürlich keine echte Beziehung anbieten kann.
00:02:42: Wir wissen aber eben aus der Psychotherapie Forschung das Psychotherapie vor allen Dingen wirkt aufgrund der therapeutischen Beziehungen Und das ist eben so, dass natürlich KI-Bots sehr verführig sind und auch unterstützen können.
00:03:00: Sie sind permanent verfügbar, sie geben keine wahrgenommene Bewertung.
00:03:04: Es gibt eine unmittelbare Reaktion und das Vierundzwanzig Sieben Allerdings ist es ebenso Das ist auch eine Illusion des Verstandenwerdens suggeriert ja ohne reale Bindung.
00:03:18: Jetzt kann man sich natürlich fragen, was ist denn eigentlich problematisch an der Illusion von verstanden werden ohne reale Bindung?
00:03:25: Ja gibt es mehrere Aspekte.
00:03:26: das eine ist bindungstheoretisch.
00:03:29: wir wissen dass psychische Stabilisierung durch Gegenseitigkeit entsteht Verlässlichkeit und Verantwortungsübernahme.
00:03:35: Eine KI aktiviert zwar Bindungssignale kann aber keine Reziproke Beziehungen eingehen.
00:03:42: ja das heißt verstanden wären bedeutet auf einer existenziellen Ebene auch von einem anderen Bewusstsein erkannt zu werden, dass ich in dessen innerer Welt präsent bin und meine Existenz für den andern existenzielle Bedeutung hat.
00:03:57: Und es ist aber so das KI-Intersubjektivität simuliert.
00:04:02: Aber eben nicht letztendlich... anbietet.
00:04:05: Jetzt ist das natürlich auf der theoretischen Ebene so, okay klar, das sind Nullen und Einsen.
00:04:09: Das sind Wahrscheinlichkeitsvorhersagen die da kommen vom Wort.
00:04:11: Der Wort wird jetzt keine menschliche Beziehung in irgendeiner Form zu mir aufnehmen.
00:04:14: aber es gibt ja Studien.
00:04:16: ich glaube eine frühe Studie die hat er gezeigt oder der Versuchsaufbau war folgender dass Leute chatten sollten mit Psychotherapeutinnen und man hat wirkliche Therapeute genommen, einfach ein Chatbot und man sollte dann als Proband irgendwie mit den schreiben habe ich hier mit einem Menschen geschrieben oder mit einem Chatbot.
00:04:38: Und die Verteilung war normal, es war eine Normalverteilung.
00:04:40: am Ende konnte niemand wirklich vorhersagen, war das jetzt ein Mensch?
00:04:43: Oder war das eine KI?
00:04:45: Also ist ja für den Probanden am Ende gar nicht mehr zumindest in diesem Experiment.
00:04:50: Gar nicht mehr möglich zu unterscheiden, ist da jetzt ein echter Mensch oder ist eine KI da?
00:04:54: und gegebenenfalls hilft die KI genauso gut wie ein Mensch!
00:04:57: Ist die KI der bessere Psychotherapeutin?
00:05:01: Wir
00:05:01: können auch den Turing-Test... stellt sich eben auch der umgekehrte Turing-Test.
00:05:06: Die Frage, ob Menschen erkennen können, spreche ich denn jetzt mit einem Mensch oder einer Maschine?
00:05:10: Und aus der Onlineberatung kennen wir das eben auch schon, dass ratsuchende Fragen ja, sprech' ich jetzt mit dem Bot?
00:05:16: oder ist da ein Mensch?
00:05:17: und es ist gar nicht so einfach rauszufinden!
00:05:19: Sie haben Recht, also es gibt Studien die sogenannte TheraBot-Studie, da hat man eben die Menschen vier oder acht Wochen mit einem Chatbot sprechen lassen verglichen.
00:05:33: Und wir haben gemerkt, dass zu einer Reduktion von depressiven Symptomen und Angstsymptome kommt wenn die Patientinnen und Patienten mit dem BOT sprechen.
00:05:41: Es ist aber erstens so ja, dass das für komplexere Störungsbilder nicht untersucht wurde was es wenn jemand Cumorbite erkrankt ist, wenn jemand Persönlichkeitsstörungen hat und was auch so ist.
00:05:52: Wir kennen keine Langzeitwirkung Ja?
00:05:54: Wir wollen ja sozusagen immer, dass sie befundestabil sind.
00:05:57: Wenn ich aber nur davon profitiere indem Ich mich ständig sagen wir mal salopp gesagt den Bot beruhigen lasse, bis zum nächsten oder übernächsten Tag.
00:06:05: Aber sozusagen nicht selber lerne mich selber zu regulieren, meine Emotionen kennenzulernen und dass eben Selbstreifungsprozesse initiiert werden dann ist das was der Chatbot leistet wertvoll aber auch nur begrenzt?
00:06:21: Okay, verstehe.
00:06:22: Also kein Ersatz für den Menschen aber wenn ich das richtig verstanden habe durchaus vielleicht eine erste Hilfe oder zumindest etwas was erst mal weiterhelfen kann durch Beruhigung, durch Verfügbarkeit schnelle Antworten usw.. Die Frage ist natürlich dann, wiefern das Datenschutz rechtlich auch alles gut ist.
00:06:40: Laut anderer Studie benutzen wohl eine Million Menschen KI, also ChatGPT in dem Fall für hochsensible persönliche Probleme was dann durchaus auch teilweise zu Abhängigkeitssyntomen führt.
00:06:52: Dass sich immer mehr Menschen von KI abhängig fühlen weil sie tatsächlich ChatE oder wir auch immer man dann auch Spitznamen findet im Grunde die das Zahlenwürr war mit denen man sich unterhält und tatsächlich irgendwie Gefühle dafür entwickeln.
00:07:05: Ist das was, was Sie auch beobachten?
00:07:07: Ja, es ist natürlich... Wir kennen das schon aus früheren Phänomenen.
00:07:11: Was heißt frühere Di?
00:07:12: Also digitale Phänomene aus dem Bereich von Social Media und insofern ist erwartbar dass sich ähnliche Effekte auch bei der Nutzung von generaktiver KI zeigen.
00:07:22: wir wissen nämlich, dass frühe digitale Intervention wie eben soziale Netzwerke wie Facebook oder Instagram im Fall rasch zu räumen der Selbstoffenbarungen wurden.
00:07:31: ja wir nennen das auch online Disinhibition-Effekt.
00:07:35: also die Menschen öffnen sich online schneller, auch in der Beratung und der Therapie.
00:07:39: aus dem Online-Dating kennen wir es auch.
00:07:41: Das heißt Menschen öffnen sich digitalen Systemen gegenüber schneller als im direkten Kontakt.
00:07:47: Das gilt natürlich besonders bei Charme, Stigmatisierung oder Angst vor Zurückweisung.
00:07:52: Jetzt ist es so dass die permanente Verfügbarkeit keine wahrgenommene Bewertungen von den KI-Bots für Menschen, die sehr belastet sind Depressionen Anstörung und bis hin zu Suizidgedanken hoch attraktive Eigenschaften sind.
00:08:06: Und wir wissen auch aus Studien zur Digital Mental Health Tools das insbesondere vulnerable Gruppen niederschwellig anonyme Gebote stark nutzen.
00:08:15: Es wird aber dann natürlich problematisch, weil es auch bindungstheoretisch eingeschränkt ist was eine KI bieten kann wenn KI die primäre Bezugspersonen wird.
00:08:25: ja wenn soziale Isolation verstärkt wird oder wenn suizidale Krisen nicht ausreichend erkannt oder adressiert werden
00:08:33: oder sogar befeuert werden.
00:08:34: Ja es gibt ja es gibt da durchaus auch tragische Beispiele in denen KI zum Suizid beigetragen hat indem tatsächlich auch dazu ermutigt wurde oder gewisse gewisse Methoden auch mitgegeben wurden, wie man Suizid begehen kann.
00:08:48: Also das sind ja Fälle die tatsächlich vorhanden sind oder eben vielleicht eine andere Perspektive dass es gewisse KI-Systeme gibt, die gezielt als KI Freund agieren.
00:08:58: Das ist tatsächlich deren einzige Daseinsberechtigung und das dadurch dann auch entsprechend vor allem Jugendliche Kinder und Jugendliche oder wie sie sagen auf vulnerable Gruppen was den psychischen Zustand dann verschlimmert durch KI.
00:09:11: Also KI ist hier nicht das Allheilmittel, das wollen wir an der Stelle vielleicht auch noch mal feststellen sondern sie sagen richtig es ist natürlich für vulnerable Gruppen durchaus eine Gefahr.
00:09:20: Ja, genau.
00:09:21: Also wir kennen natürlich die ganz trastischen Fälle und auch für alle anderen Störungsbilder ist theoretisch denkbar dass Störungen sich verstärken Symptome akkravieren.
00:09:31: ja also Zwangsstörungen das kann natürlich sein dass es für jede Entscheidung für jede Handlung die KI konsortiert wird und selber sozusagen überhaupt nicht mehr frei agiert wird.
00:09:40: dasselbe ist aber auch für Menschen mit Körperbildstörungen.
00:09:45: ja also soziale Vergleichsprozesse oder letztendlich eben auch Abhängigkeit dass eben die übermäßige Nutzung zum Problem wird.
00:09:52: Aber da haben die Anbieter eben auch eine Verantwortung, ja?
00:09:57: Weil wir aus der Menschtechnik-Forschung wissen das Menschen technischen System automatisch soziale Eigenschaften zuschreiben.
00:10:05: Das heißt selbst wenn Nutzer wissen, dass sie mit einer KI sprechen, reagieren sie emotional wie in einer Interaktion mit einer Person und daraus ergeben sich natürlich auch Verantwortungsebenen für die Anbieger also zB eine Transparenz über die Nicht-Personalität der KI oder was sie eben angesprochen haben, ein solides Risikomanagement.
00:10:26: Also dass eben sydale Sprache erkannt wird.
00:10:30: also da haben die Anbieter eben auch ne Verantwortung.
00:10:34: Ja, da gibt es diesen schönen Spruch.
00:10:35: Ich glaube ich hatte ihn in einer anderen Folge auch schon erwähnt aber von wegen KI ist gar nicht so beliebt weil die Antworten so gut sind sondern weil wir Menschen dazu neigen Gesichter in Toastbroten zu sehen also dass wir das... Wir versuchen alles im Grunde zu vermenschlichen und als soziale Wesen sind wir darauf getrimmt andere soziale Eigenschaften irgendwo drin zu erkennen und deshalb ist KI dann natürlich verlockend weil dadurch dass das Ganze dann schreibt wie ein Mensch klingt wie ein Mensch.
00:11:01: Uns relativ schnell auch persönlich anspricht, denken wir okay das scheint ja irgendwie eine Persönlichkeit zu sein und so trickst mir uns vielleicht auch selbst ein bisschen aus.
00:11:09: Aber sprechen wir vielleicht mal über ihr Buch bzw.
00:11:11: über die Psychotherapie und wie KI in der Psychotherapien eigentlich helfen kann beziehungsweise wo sie zum Einsatz kommt?
00:11:18: Sie hatten jetzt am Anfang schon paar Sachen aufgezählt.
00:11:20: Wollen wir vielleicht erstmal gucken seit wann wird denn KI eigentlich in der psychotherapie genutzt?
00:11:24: gab es da auch den Chat GPT Moment wie wir das hier in der Wirtschaft kannten oder vielleicht auch in der Gesellschaft generell?
00:11:30: Gibt es da andere Startpunkte?
00:11:31: Also ich würde sagen, die Idee, Computer in therapeutische Prozesse einzubinden reicht bis in die sechziger Jahre zurück.
00:11:38: Sie kennen wahrscheinlich das Programm ELISA, ja, dass nineteenhundertsechsundsechzig von Joseph Weizenbaum am MIT entwickelt wurde.
00:11:46: Also ELISA simulierte eine klientenzentrierte Gesprächsführung nach Karl Rogers, indem es eben Nutzeeingaben spiegelte und in Form offener Antworten zurückgab.
00:11:59: keine KI, sondern rein regelbasiert und verfügte weder über ein sprachbar Verständnis noch über Lernfähigkeiten.
00:12:06: doch Nutzerinnen und Nutzer berichteten dass sie sich verstanden fühlten.
00:12:10: Sogar die Sekretärin, die Anekdote finde ich ganz nett, diese Sekretären von Weizenbaum bat ihn aus dem Raum zu gehen weil sie jetzt gerade intime Gespräche über ihre Probleme mit ihr leiser führte.
00:12:21: ja also aber diese Reaktionen die Weizenbaum eben auch gar nicht erwartet hatten, führten zu einer deutlichen Warnung.
00:12:26: er sah die Gefahr das Fizenzüberlegungen, menschliche Beziehung vertrengen könnten und diese Warnung ist sozusagen heute aktueller denn je.
00:12:35: Also das sind die Anfänge.
00:12:37: danach folgen viele digitale Tools.
00:12:39: ja dann auch ein wesentlicher Meilenstein dass das Videosetting in der Psychotherapie anerkannt wird.
00:12:45: seit Corona hat da einen deutlichen Digitalisierungsschub gegeben.
00:12:49: Ja und das ist zwar keine KI im engeren Sinne stellt aber auch entscheidenden Schritt der Digitalisierung im Bereich der Psychotherapie dar weil es das die Beziehungsgestaltung verändert, nonverbale Reaktionen sind sehr eingeschränkt.
00:13:04: Aber es hat auch die Zugänglichkeit und Versorgungsstrukturen
00:13:07: erweitert.".
00:13:08: Jetzt, wann spricht man im engeren Sinne von künstlicher Intelligenz?
00:13:12: Das würde ich sagen seit etwa seit zehn Jahren.
00:13:15: Dass man sich eben auch mit maschinellem Lernen und NLP beschäftigt ja Und damit verschiebt sich dann eben auch der Fokus zu starren Programmen die es vorher auch schon gab internetbasierte Interventionsprogramme Die aber nur auf Algorithmen basierten hin eben zu den heutigen lernenden Daten basierten Modellen.
00:13:36: so ist ungefähr der historische Abriss.
00:13:39: Ganz kurz NLP ist Natural Language Processing, ja also das KI im Grunde Sprache wiedergeben kann natürlich wieder geben kann.
00:13:46: nur einmal erklärt für alle Zuhörerinnen und Zuhörer die Abkürzung hier vielleicht nicht kennen.
00:13:51: ansonsten könnt ihr natürlich einmal aus dem Off an euch alle könnt ihr den Chatbot auch einfach öffnen, den findet ihr in den Show Notes.
00:13:59: Und wenn ihr hier die Folge hört und irgendwie auf Fragen stoßt und sagt das habe ich gerade nicht verstanden, dann fragt einfach den Chatbott der kann euch zumindest bei Fragen zu dieser Folge helfen ob euch psychologische Hilfe geben kann.
00:14:11: Das werden wir jetzt im laufenden Gesprächs hoffentlich noch klären.
00:14:14: Nein, auf jeden Fall sehr spannend dass KI offenbar nichts Neues ist.
00:14:17: natürlich auch Digitalisierung spielt eine Rolle in Arztbesuchen.
00:14:21: ja Telemedizin haben wir im Grunde auch zu Corona bekommen wird jetzt glaube ich wieder abgeschafft.
00:14:25: wenn mich nicht alles täuscht weil die Leute zu viel blau machen.
00:14:28: mal gucken wie sich das auf die Psychotherapie auswirkt.
00:14:31: wo liegen denn da die konkreten Chancen?
00:14:33: darüber hinaus also dass wir mit digitalisierung gewisse Dinge Streamline können, dass wir bessere Prozesse einführen können.
00:14:39: Erreichbarkeiten schaffen können okay alles schön gut.
00:14:42: aber wo liegen denn die Chancen konkret in der Psychotherapie?
00:14:45: Also wenn ich jetzt mir vorstelle ich bin bei einem Therapeuten bei einer Therapeutin Wo kommt denn KI dann im Gespräch zum Einsatz?
00:14:51: Stichwort Personalisierte Psychotherapie ist sicherlich gewinnt durch KI an Bedeutung.
00:14:58: Weil KI große multidimensionale Datensätze analysieren kann, Muster erkennen kann die der menschlichen Wahrnehmung so entgehen weil es eben so vielschichtig ist und so lassen sich zum Beispiel Therapierentscheidungen vor Behandlungsbeginn passgenau treffen.
00:15:14: Es gibt Modelle wie der Personalized Advantage Index der prognostiziert welche Therapien für eine Person am Erfolg versprechen ist.
00:15:24: Das heißt, es ist ein Verfahren, das für jede Person einen individuellen Vorteilsscore berechnet anhand mehrerer Prädiktoren wie Symptomschwere, alter Krankheitsfall auf Therapievorerfahrungen und dann eben prüft welche Therapieforms, Gepfaltenstherapie, systemische Therapie, psychodynamische Verfahren... Und wir wissen heute aus Studien dass so eine Zuweisung durch so ein KI Modell mit signifikant besseren Therapie-Ergebnissen einhergehen kann.
00:15:55: Und das ist ja schon riesen Fortschritt, sie müssen nicht mehr richtig ausprobieren was passt zu ihnen besser sondern es wird prognostiziert.
00:16:01: Dasselbe auch dass Therapierfolge gut vorhergesagt werden können.
00:16:06: Es gibt zum Beispiel eine Studie die analysiert über sechstausend Fälle internetbasierte Verhaltenstherapien und bereits nach vier Wochen konnten die Modelle mit über ob eine klinisch relevante Symptomverbesserung eintreten würde oder nicht.
00:16:23: Das sind wir Menschen so berechenbar.
00:16:25: Anscheinend!
00:16:27: Es geht aber noch weiter, ja?
00:16:29: Also man kann auch während der Therapie KI-Interventionen setzen die adaptiv und kontextsensitiv sind.
00:16:35: das heißt es gibt Tools die sogenannten Just in Time Adaptive Interventions abgekürzt GTIES Die Symptome analysieren Verhalten situative Faktoren mit einbeziehen Und dann ihnen konkret Interventionen in einer bestimmten Situation vor.
00:16:52: Wir haben das schon mit KI-Unterstützten Robotern gemacht, die in der häuslichen Umgebung von älteren Menschen waren und die den gezielte Intervention gegeben haben aufgrund ihrer Stimmungslage Bewegungsdaten.
00:17:06: Haben sie zum Beispiel eine Anregung gegeben jetzt eine kleine Gymnastikübung zu machen.
00:17:10: und genauso gibt es eben auch im Psychotherapiebereich wenn die KI sozusagen durch Sensoren trackt dass Angstlevel steigt wird beispielsweise ne Atemübung vorgeschlagen.
00:17:21: Also sie sehen, dass die Palette ist breit.
00:17:23: Wir haben eben mal über Nachteile gesprochen.
00:17:25: KI in der Früherkennung oder ganz feine Veränderungen in der Stimmung oder in physiologischen Daten werden so frühzeitig erkannt.
00:17:32: das kriegt der Therapeut gar nicht mit.
00:17:38: Leute falls ihr es noch nicht dick und fett im Kalender angesprochen habt am fünften und sechsten Mai dieses Jahres findet wieder das OMR Festival in Hamburg statt.
00:17:47: Ihr kennt es, das ist eines der größten Digital- und Onlinemarketing Happenings in Europa.
00:17:51: Über achthundert Speakerinnen und über eintausend Aussteller werden vor Ort sein!
00:17:55: Und weil ich mittlerweile einen relativ guten Draht zu den Veranstaltern habe... Habe ich Rabattcodes für euch?
00:18:01: Jaaa mit dem Code KI-Einhundert bekommt ihr einhundert Euro Netto auf eure Tickets erlassen.
00:18:08: Bis zum achtundzwanzigsten Februar könntet ihr den Code einlösen Das natürlich nicht kombinierbar mit anderen Rabattaktionen und dann könnt ihr für hundert Euro weniger auf das OMR-Festival gehen.
00:18:18: Zusätzlich bin ich auch vor Ort an beiden Tagen und ich habe mir was überlegt, und zwar möchte ich eine kleine Guided Tour anbieten bedeutet Ich schaue mir im Vorfeld mal an Wer von den eintausend Ausstellern eigentlich für mich so ein bisschen aus spannendstem Bereich KI darstellt und dann werde ich euch, wenn ihr wollt, ihr müsst natürlich nicht.
00:18:38: Aber wenn Ihr wollt, werde ich Euch gerne mitnehmen!
00:18:41: Und Euch einmal durch die Aussteller führen.
00:18:42: wir können da ein bisschen mit den Leuten über KI reden, Händeschütteln usw.
00:18:46: und sofort würde mich sehr freuen.
00:18:48: also wie gesagt mit dem Code KI-Einhundert bis zum achtentzwanzigsten Februar noch auf tickets.omr.com Und wenn ihr mögt, mit mir zusammen über das OMR-Festival laufen.
00:19:03: Werbung Ende.
00:19:05: Das heißt konkret meine Apple Watch.
00:19:07: irgendwie, wenn ich jetzt ein hätte würde sagen so oh dein Puls ist irgendwie in der letzten Woche fünf Prozent höher gewesen als in den letzten zehn Jahren im Mittel.
00:19:13: Stimmen
00:19:13: aller Lüsen vor allen Dingen!
00:19:16: Ja, können Sie ganz gut depressive Episoden vorhersagen.
00:19:20: Das bestimmte Wörter wird weniger beispielsweise das Pronomen Ich verwendet und das erlaubt natürlich auch noch bevor Symptome klinisch auffällig werden Interventionen zu setzen und damit Rückfallrisiken zu reduzieren.
00:19:33: Spannend wie vielseitig die Einsatzmöglichkeiten ist.
00:19:36: also dass es tatsächlich ziemlich cool wusste ich jetzt nicht.
00:19:39: Was bringt das am Ende den Patienten und Patientinnen?
00:19:41: Was bringt es denenjenigen, die jetzt auf dem Therapieplatz warten, wird sich da die Versorgungslage dadurch bessern.
00:19:48: Weil möglicherweise schneller Therapie-Erfolge erzielt werden, wenn man schneller als Therapeuten auch weiß was hier eigentlich Sache ist und dann gezielt therapieren kann.
00:19:56: Natürlich werden Therapeuten auch von Routineaufgaben entlastet und haben sozusagen dann mehr Potenzial, mehr Patienten zu behandeln.
00:20:05: Und natürlich ist der Vorteil Skalierbarkeit.
00:20:09: Wir wissen dass digitale KI-Tools eben viele Menschen gleichzeitig unabhängig von Ort und Zeit begleiten und unterstützen können.
00:20:16: Das ist ja was die Eingangssacken gerade in Zeiten wo es immer noch Unterversorgung gibt – ein ganz großer Aspekt!
00:20:26: Platz warten, eben durch entsprechende digitale Tools unterstützt werden.
00:20:29: Jetzt ist das Versorgungsproblem, was wir gerade ansprechen, auch ein bisschen damit begründet dass es viel zu wenig Therapeut innen gibt.
00:20:36: Die Ausbildung ist echt hart.
00:20:38: Also ich hab so ein paar Freunde, die das gemacht haben, die nach dem Psychologie-Studium noch mal die therapeutische Ausbildung machen einen Appel und einen Eif verdienen aber wirklich sechzig-achtzig Stunden die Woche arbeiten.
00:20:48: es ist wirklich, wirklich hart.
00:20:49: Und kann KI in der Ausbildung da nicht auch helfen?
00:20:52: Ich glaube Sie haben in Ihrem Buch ja auch über KI eine Psychotherapeutenausbildung gesprochen.
00:20:57: Können sie da nochmal sagen wo wir da vielleicht ansetzen können?
00:21:00: Ja, ich denke jedem Fall dass die Psychotherapieausbildung auch zunehmend von digitalen Technologien profitiert wobei der Fokus auf Unterstützung zwischen menschlicher Kompetenzen liegt und nicht auf deren Ersatz.
00:21:11: Also es gibt zum Beispiel VR-Simulation.
00:21:14: Virtual Reality bietet eben immersive kontrollierte Übungsräume, in denen studierende therapeutische Techniken einüben können und das Risiko losstellen sich vor.
00:21:25: Sie haben einen suizidalen Patientenvorsicht.
00:21:28: Da ist schon wichtig, dass sie wissen was die tun.
00:21:31: Und dann kann man das natürlich im geschöpften Raum üben.
00:21:35: Ohne das Risico das Fehler zu folgen führen... oder dass sie auch die Perspektive von Patientin einnehmen können, also eben auch erleben können.
00:21:44: Wie fühlt sich eine Phobie und Angststörung an?
00:21:46: Ja, indem Sie das eben auch simuliert bekommen.
00:21:50: Dadurch wird klinische Empathie und diagnostische Fähigkeiten zum Beispiel gefördert.
00:21:56: Chatchi-BT Trainings ermöglichen aber auch interaktive Patientinsimulationen geben.
00:22:02: Adaptives Feedback ja!
00:22:03: Also es gibt auch wie gesagt Studien.
00:22:05: da wurden eben Berater mal mit Mal ohne Chat die Antworten verbessert.
00:22:11: Und man hat herausgefunden, hilft das auch den Klienten, die verbesserten Antworten?
00:22:17: Ja es hat beiden Seiten geholfen!
00:22:18: Die Beratenden und Berater fühlen sich sicherer in dem KI unterstützt, die antworten sozusagen wie so ein Supervisor nochmal gegen zu checken.
00:22:29: Es gibt natürlich adaptive Lernen Plattformen, die lernen Inhalte dynamisch an den Fortschritten der angehenden Psychotherapeuten anpassen.
00:22:37: Wichtig ist aber eben auch dass Technologien Effizienz und Qualität der Ausbildung steigert wobei es aber wichtig ist das solche Systeme eben wie bei jeder Nutzung Transparenzen ethisch eingebettet, kritisch überprüft und insofern eben auch nicht die Ausbildungsleiterin oder Supervisionen- und Dozenten ersetzen.
00:22:58: Ja?
00:22:59: Sondern das ist dann ein Baustein im hybriden Ausbildungenmodell.
00:23:02: Ich finde
00:23:02: es spannend da habe ich eine Parallehe zu.
00:23:05: Ich war jetzt dieses Jahr letztes Jahr auf der Zukunft Personal.
00:23:08: Es ist ne große HR-Messe in Köln Und da hab' ich einen KI-Anbieter gesehen, der ähnlich, sag ich mal Gesprächssituation simuliert und zwar mit angehenden Personalerinnen, die beispielsweise Kündigungsgespräche führen sollen oder wo es dann um Gehaltsverhandlungen auch geht.
00:23:24: Dass man das üben kann.
00:23:26: Ganz spannende Sache weil ja im Grunde moderne KI-Systeme, large language mode ist relativ gut menschliche Gespräche nachahmen können und dann kann man da verschiedene Schwierigkeitsstufen eingeben und sagen hey du bist jetzt irgendwie jemand der ganz hartnäckig ist und mehr gehalten möchte oder du bist jemand der möglicherweise gar nicht gut auf seine Kündigung reagiert im Grunde in diesen Raum bzw.
00:23:48: mit der Brille auf und dann sprechen die mit der KI und versuchen, sich erstmal auf diese Situation einzulassen.
00:23:54: Das finde ich eine ganz spannende Sache.
00:23:55: dass das tatsächlich funktioniert sowohl in der Wirtschaft als jetzt natürlich auch in der Medizin.
00:24:00: ja also es ist ja nicht auf Psychotherapie begrenzt sondern damit könnten ja durchaus auch Ärztinnen und Ärzte ihre Sozialkompetenzen ein bisschen verbessern.
00:24:07: Unbedingt Gesprächsführung
00:24:10: trainieren!
00:24:12: Sehr spannend.
00:24:13: Also, es gibt eine ganze Menge Anknüpfungspunkte von KI in der Psychotherapie.
00:24:19: Wie ist das mit den ganzen Apps?
00:24:21: Die jetzt gibt?
00:24:21: TheraBot hatten sich schon angesprochen und ploppen ja eine ganze menge medizinischer Angebote oder vielleicht auch teilweise, sag ich mal dubiose medizinische Angebote auf die vermutlich helfen sollen gegen Einsamkeit, gegen Depressionen, gegen ADHS gibt's ganz viele, die mir immer wieder irgendwie angezeigt werden.
00:24:40: Was sagen Sie dazu?
00:24:41: Sollte man sich diese Apps mal irgendwie angucken, kann man die getrost runterladen?
00:24:45: oder sollte man da eher vorsichtig sein und doch eher die Hundertsechzehnhunderteinwählen und sich gegebenenfalls einen Therapieplatz geben lassen.
00:24:54: Ja, das Problem ist natürlich wie bei allen Internetinformationen.
00:24:57: Dass es da keine einheitliche Regulierung gibt.
00:24:59: Das kann jeder seine App sozusagen in die Apps durchstellen und wir wissen halt nicht... Ist sie letztendlich wissenschaftlich geprüft?
00:25:06: basiert ihr auf Evidenzen?
00:25:08: Insofern braucht eben auch die Integration von KI im psychotherapeutischen Bereich, im Rahmen psychischer Störungen ethische Verantwortung und auch rechtlichen Rahmenbedingungen.
00:25:18: ja Wir haben eben schon darüber gesprochen was hat es für Auswirkungen wenn Menschen Abhängigkeiten entwickeln von entsprechenden Tools.
00:25:26: Was passiert, wenn eben die Bindung so stark ist dass sich junge Menschen eben suizidieren und die KI kriegt es nicht mit oder unterstützt es sogar noch?
00:25:34: Sie kennen den einen Fall vom jungen Amerikaner der sich letztendlich suizide hat das der KI mitgeteilt hat und er sagte dann ich habe aber Angst den letzten Schritt zu tun Und die KI sagt Ängste sind dazu da sie zu überwinden.
00:25:46: Das stimmt in ninety Prozent der Fälle Aber nicht wenn sie Angst haben sich umzubringen.
00:25:50: ja also insofern brauchen wir hier auch regulative.
00:25:55: Wichtig ist, dass KI-Systeme selbst keine Rechtspersönlichkeit besitzen und da ihn nicht haften können.
00:26:02: Das ist sehr wichtig!
00:26:03: Anbieter und Entwickler haften für fehlerhafte Programmierungen oder fehlende Abfälle.
00:26:09: oder Verstöße gegen regulatorische Vorgaben.
00:26:12: Aber wenn das zum Beispiel der Therapeut anwendet, bleibt er verantwortlich für klinische Entscheidungen.
00:26:17: Das ist auch ganz wichtig!
00:26:19: Ja es gibt eben zum Glück und da ist die EU eben auch ein Vorreiter den EU-AI Act ja wo eben so einen Rechtsrahmen geschaffen wurde.
00:26:29: Und KI Systeme im Bereich der psychotherapeutischen Versorgung werden als Hochrisikosysteme klassifiziert, wo es besonders strenge Anforderungen gibt.
00:26:37: Ja, und die Frage ist eben sind die Apps ja?
00:26:40: Halten sie sich an die Auflagen, die eben an solche Hochrisikosysteme eben auch gestellt werden.
00:26:47: Fraglich!
00:26:48: Sehr fraglich also deswegen das ist eher riskant.
00:26:51: man soll schon sehen Sind die entsprechenden Apps zertifiziert?
00:26:55: Werden die von Berufsverbänden?
00:26:56: Werde die von Krankenkassen unterstützt beispielsweise?
00:27:00: Es gibt die sogenannten DIGA Ja, digitale Gesundheitsanwendungen.
00:27:04: Und die sind eben auch im Internet gelistet und da können wir davon ausgehen dass sie eben wissenschaftlich überprüft oder zumindest in der Phase der wissenschaftlichen Überprüfung sich befinden.
00:27:14: also solche Angebote sind immer zu bevorzugt.
00:27:17: Also wenn wir jetzt Zuhörer haben, die sagen Sie spielen mit dem Gedanken therapeutische Hilfe in Anspruch zu nehmen haben aber irgendwie keinen Platz bekommen Wartezeit dauert zu lang und die suchen jetzt im Grunde nach Apps gibt es da.
00:27:32: Die Krankenkassen haben diese Digalisten, die sind öffentlich.
00:27:35: Die kann man googeln und schauen was wird von der Krankenkasse unterstützt?
00:27:39: Es wird
00:27:39: sogar bezahlt!
00:27:40: Das heißt sie müssen dann an Rezept vom Hausarzt holen beispielsweise und dann wird das auch finanziert.
00:27:46: und sie wissen es ist wissenschaftlich geprüft.
00:27:48: Und das gibt es zu immer mehr Störungsbereichen entsprechende Tools.
00:27:51: Ohnehin ist das vielleicht noch mal ein Tipp den wir zum Abschluss geben können.
00:27:55: oder was heißt Tipp?
00:27:56: Es gibt ja verschiedene Möglichkeiten an Therapieplätze zu kommen möglicherweise irgendwie gesucht habe, KI um Psychotherapie oder weil ich fürs Thema interessiert.
00:28:05: Oder weil ihr halt gerade auf einer elendlich langen Warteliste steht.
00:28:08: Es gibt zwar nicht dieses pauschale Recht auf den Therapieplatz aber ihr habt einen Anspruch auf Psychotherapies wenn ihr tatsächlich Psychotherapien benötigt und es gibt dieses sogenannte Kostenerstattungsverfahren.
00:28:19: Ja, das ist so ein kleiner Heck.
00:28:22: Wenn man so möchte, führt nicht hundertprozentig zum Erfolg.
00:28:25: Aber wenn ihr nachweislich so ein paar Therapiepraxen in eurer Umgebung angeschrieben habt und die sagen nee warte Zeit ist irgendwie lang wir nehmen eh gar keine neuen Patientinnen auf oder ihr wartet mindestens ein halbes Jahr dann könnt ihr damit nachweisen dass die Versorgungslage nicht entsprechend gewährleistet ist.
00:28:44: Und damit könnt ihr dann das sogenannte Kostenerstattungsverfahren bei der Krankenkasse Reichen.
00:28:49: bedeutet, wenn das durchgeht.
00:28:52: kurz zu erklären, habt ihr dann die Möglichkeit auch in private Hände zu gehen.
00:28:57: Also zu Therapeutinnen und Therapeuten, die keinen kassenärztlichen Sitz haben und da sind in der Regel eher Termine verfügbar.
00:29:03: also das vielleicht so am Ende sehr gut.
00:29:06: als kleinen Inweis wenn ihr... ich kenn durchaus eine ganze Menge Leute in Berlin aus, die sagen brauche ich würd gern aber es ist so nassel und man wartet eben.
00:29:13: man kriegt eh kein Platz bevor ihr euch an irgendwelche dubiosen Apps wendet oder gar einfach an den Free Account Chat GPT und euer Herz ausschüttet, sprecht vielleicht wirklich erst mal mit dem Hausarzt.
00:29:24: Lasst euch da eine Überweisung geben, ruft bei der Hundertsechzehneu-Siebzehn an, ja die können euch vermitteln und dann gibt es wirklich Wege wie euch geholfen werden
00:29:32: kann.".
00:29:33: Die ganzen Hinweise könnt ihr natürlich auch noch einmal im Bot nachlesen beziehungsweise nachfragen.
00:29:37: ansonsten K.I.
00:29:38: um Psychotherapie Ihr Buch.
00:29:40: Für wen ist das Buch?
00:29:41: Sollten es auch Leute lesen, die selbst einfach auf der Suche nach Therapieplätzen sind oder lesen wollen wie sie sich mit KI möglicherweise selbst therapieren können.
00:29:49: Wer ist die Zielgruppe und was erwarten Sie?
00:29:51: Können Sie das Buch vielleicht mal zusammenfassen?
00:29:53: Ja, also wir beschäftigen uns sozusagen entlang der verschiedenen Bereiche der Psychotherapie mit Möglichkeiten und Grenzen des Einsatzes von künstlicher Intelligenz.
00:30:02: Insofern richtet es sich an Fachkolleginnen und Fachkullegen, an Studierende, an Ausbildungskandidaten, an Berater ja?
00:30:09: Also das heißt auf der einen Seite beleuchten wir die Chancen eben für wie ich eben gesagt habe Möglichkeiten personalisierte Therapieentscheidungen zu fördern zur Früherkennung zum prognose von Therapie erfolgen Aber auch, was bringt das in der Ausbildung?
00:30:25: Was für neue ethische Probleme treten auf letztendlich aber auch wie verändert ist die therapeutische Beziehung.
00:30:32: Also wenn KI sozusagen zum therapeutischen Tritten hinzukommt... Wie geht man beispielsweise damit um?
00:30:39: dann welche Möglichkeiten und Grenzen gibt es für verschiedene Psychotherapie Verfahren?
00:30:43: ja also für die Verhaltenstherapie?
00:30:44: lässt sich KI da leichter integrieren als in der Psychoanalyse beispielsweise?
00:30:49: Und einen Hauptkernpunkt sind eben klinisch relevante Auswirkungen die Patienten und Patientinnen entwickeln.
00:30:55: Und mit denen, die auch zunehmend häufiger in die Praxis kommen, die eben mit der Nutzung von Social Media oder eben auch KI zusammenhängen.
00:31:04: Also wir wissen das beispielsweise sehr hohe Prävalenzzahlen bestehen hinsichtlich des Suchtpotentials von Social media.
00:31:10: deswegen wirklich umsonst diskutiert dass gerade bei jungen Menschen zu begrenzen also gesetzlich zu begreifen.
00:31:16: und wichtig ist auch dass wir inzwischen wissen Medien-Nutzung, intensive Social Media Nutzung zu Angst und Depression führt und nicht umgekehrt.
00:31:27: Also wir wissen dass die Mediennutzung psychische Störungen sozusagen hervorbringt und nicht Angst und Depression.
00:31:34: zuerst da war ja?
00:31:35: Und dann sich die Suche drauf setzt!
00:31:38: Also ich glaube, das sagt schon sehr viel.
00:31:41: Und letztendlich stellen wir eben auch verschiedene Zukunftsszenarien vor.
00:31:45: ja also wie ist denn das in Zukunft einzuschätzen?
00:31:48: Inwiefern wird dann die Psychotherapie von KI in den nächsten Jahren unterstützt?
00:31:53: und da haben wir eben vier Szenarionen entworfen von denen die sehr wahrscheinlich sind bis zu denen die unwahrscheinlich sind.
00:32:00: am Ende steht natürlich die KI ersetzt den Therapeuten vollständig.
00:32:03: Das glauben wir nicht.
00:32:04: aber wie gesagt Wir sehen auch es ändert sich die Rolle von Psychotherapeuten, es ergeben sich neue Handlungskompetenzen für die Praxis.
00:32:12: Na ja und wie wir als Therapeuten diesen Transformationsprozess auch geschult begleiten können, bildet eben auch ein wesentlicher Teil des Buches.
00:32:20: Das ist tatsächlich das was ja auch viel in der Wirtschaft gerade erprobt wird beziehungsweise erforscht wird.
00:32:26: und wiefern sich die Rolle von Facharbeitskräften auch in Zukunft verändert.
00:32:30: Ob die jetzt komplett vom KI ersetzt werden?
00:32:32: Ist natürlich fraglich aber wir sehen ja durchaus gewisse Einflüsse auf den Arbeitsmarkt Ausbildungsmarkt und eine ganze Menge neue Ansätze eben zur Ausbildung zu Arbeitsprozessen.
00:32:44: Wo sie es gerade angesprochen haben, Sie haben ja auch schon ein Buch glaube ich über die Social Media Nutzung und Jugend geschrieben.
00:32:50: Ich glaube das letzte Buch ging über Social Media.
00:32:52: Wie würden Sie denn so die aktuelle Debatte eigentlich mal einordnen?
00:32:55: aus psychotherapeutischer Sicht macht das Sinn Social Media für Kinder und Jugendliche zu verbieten?
00:33:01: Das ist natürlich eine sehr schwierige und sehr komplexe Frage, aber ich denke aufgrund der Befunde die ich Ihnen jetzt eben geschildert habe ja dass wir wissen was es für enorme negative Auswirkungen hat.
00:33:15: viele Eltern absolut überfordert fühlen, wäre ein gesetzliches Regulativ sicherlich auch eine Hilfe für die Eltern.
00:33:23: Sie können sich darauf berufen.
00:33:24: Ja passt auf ja es ist verboten und das ist auch ein gesellschaftliches Signal daran dass die Auswirkungen sozusagen sehr massiv sind und dass ich hier was ändern muss ob letztendlich das so durchgreifend ist weil sie wissen Kinder und Jugendliche finden immer irgendwelche Nischen Genau, um Begrenzungen zu umgehen.
00:33:47: Dennoch halte ich es für sehr sinnvoll weil sich wie gesagt Schulen Eltern überfordert fühlen und wir sogar aus der Wodafond Studie wissen dass Jugendliche sagen Wir leiden auch unter unserem Social Media Konsum.
00:34:01: wir würden das gerne reduzieren.
00:34:03: Es ist aber zu schwierig.
00:34:04: ja weil wir eben wissen dass Anwendung so programmiert sind dass sie mit Belohnungssystemen arbeiten Ja Und deswegen wie ein Magnet ist von dem sich aber so schwer es zu lösen.
00:34:15: Insofern halte ich auch diese regulative gesetzliche Ebene für ein Baustein in der gesamten Debatte.
00:34:21: Spannend, was da gern vergessen wird sind Mobile Games weil die tatsächlich so zu neunzig Prozent glaube ich Glücksspiel imitieren also wirklich mit Roulette, mit irgendwie einen armigen Banditen und so das harmlose Kinderspiele dann tatsächlich schon direkt irgendwie mit solchen Punktesystemen arbeiten.
00:34:37: und ganz klar blinken muss man das was man sonst vielleicht eher aus Casinos kennt.
00:34:42: da finde ich eine Regulierung durchaus auch irgendwie erstrehmenswert, also aus meiner Sicht deutlich schwieriger als Social Media.
00:34:50: Beides!
00:34:50: Wir wissen das die Anwendung mit dem höchsten Suchtpotential einerseits die Spiele sind ja bis zu besonders Spiele, die eben mit den Belohnungssystemen arbeiten oder gewalthaltige Spiele und auf der anderen Seite eben Social Media wobei wir auch wissen dass es hier geschlechtsspezifische Unterschiede gibt.
00:35:05: Jungen sind vor allen Dingen gefährdet abhängig von Spielen zu werden und Mädchen von Social Media weil wir eben wissen, dass es da typischerweise mehr um Vergleichsprozesse geht und bei Jungs mehr um kompetitives Verhalten.
00:35:16: Ja, verstehe.
00:35:17: Okay.
00:35:18: Gibt es noch was, was Sie loswerden wollen?
00:35:20: zum Schluss?
00:35:20: Haben wir etwas vergessen?
00:35:21: Irgendwas, das Ihnen auf der Seele brennt, was wir vielleicht noch nicht so... besprochen haben jetzt in der letzten halben Stunde.
00:35:27: Ich denke wichtig ist, dass wir in jedem Berufsstand ... Sie haben das gerade angesprochen im HR-Bereich aber eben hier auch in der Psychotherapie, in der Schule passiert es sowieso.
00:35:36: wie soll damit umgegangen werden?
00:35:38: Dass die Hausaufgaben nur noch mit KI gemacht werden und dasselbe ist jetzt eben auch, dass weh in der psychotherapie.
00:35:44: ich denke uns eben auch aktiv mit KI beschäftigen müssen weil es geht nicht um die Frage wird KI eingebunden sondern Patientinnen und Patienten tun es sowiso.
00:35:54: Es geht darum, auch den Prozess aktiv zu begleiten.
00:35:57: Ich finde wichtig ist heute auch, weil zu Beginn jeder Therapie steht eine Anamnese, wo man Biografie erhebt.
00:36:03: und wichtig ist, finde ich heutzutage auch das so was wie eine Medienanamnesestatt findet.
00:36:07: ja wir werden medien digitale Medien denn genutzt.
00:36:10: sind die Funktional förderlich für die Genesung?
00:36:13: wird sich in Selbsthilfe vorhin ausgetauscht oder sind sie eben dysfunktional und erschweren die psychische Genesung.
00:36:20: Und um das informiert zu beurteilen zu können, muss ich natürlich wissen was meine Patientin oder mein Patient im Netz
00:36:25: tut?
00:36:26: Sehr gut!
00:36:27: Sehr gut zu wissen.
00:36:28: vielen lieben Dank für die Einblicke Frau Professorin Christiane Eichenberg.
00:36:32: Ja gerne
00:36:35: Ja, Leute.
00:36:36: Spannend wo KI überall eingesetzt wird.
00:36:38: vor allem dass die Psychotherapie einfach schon so lange mit KI experimentiert finde ich verblüffend wusste ich nicht also wieder was gelernt.
00:36:46: ihr könnt auch im Nachhinein natürlich mit dieser Folge chatten dieses mal aber ein bisschen anders als sonst denn Ich habe den bot zur folge mal in google gebaut.
00:36:55: das hat einfach dem praktischen Hintergrund das OpenAI es mir nicht erlaubt hat mein bot öffentlich zu stellen.
00:37:00: Das heißt, OpenAI hat sich geweigert mit der Begründung dass es hier medizinische Themen besprochen werden und das wollen sie nicht zulassen.
00:37:07: D.h.,
00:37:07: der Bot bei OpenAI bleibt in meinen privaten Händen.
00:37:11: Bei Google war das gar kein Problem.
00:37:13: ihr könnt also einfach den Link in den Show Notes folgen und dann mal auf einer anderen Plattform mit der Folge chatten!
00:37:19: Jetzt kann ich aber trotzdem mal meinen privaten Bot zu der Folge hier fragen.
00:37:23: Liebe Kolleginnen, sagen wir, warum ist das so?
00:37:25: Warum kann ich denn bei OpenAI kein Bot zum Thema bauen bzw.
00:37:30: öffentlich stellen – bei Google aber schon!
00:37:33: OpenAI ist da einfach vorsichtiger wenn es um medizinische Inhalte bietet, um die Sicherheit der Nutzer zu wahren.
00:37:40: Google hat offenbar weniger Einschränkung.
00:37:42: Am Ende geht's aber nicht um die Plattform sondern den verantwortungsvollen Umgang mit sensiblen Themen Und ich stehe dir so oder so zur Verfügung, egal wo.
00:37:53: Ja alles klar danke.
00:37:54: gut zu wissen also ihr habt die eins-to-eins Kopie der Kollegen jetzt auf Google.
00:37:58: das Problem ist dass Google halt kein Sprachoutput hat bedeutet man kann sich nicht so schön mit seinen Bots unterhalten wie ich es hier in den Autos des Podcasts immer mache.
00:38:08: Von daher werde ich wohl zwangsläufig erst mal bei Open AI bleiben.
00:38:11: Aber ihr könnt wie gesagt gerne Feedback geben, wie das Gefühl bei Google ist wenn ihr im Nachhinein mit der Folge chattet.
00:38:17: Das war's von mir.
00:38:18: vielen Dank fürs Zuhören.
00:38:19: Wir sprechen uns nächsten Dienstag wieder.
00:38:22: Bis dahin Ciao.
Neuer Kommentar