Grundsätzlich ist die Nutzung von KI wie ChatGPT als psychologische Hilfe erstmal schnell und kostenlos verfügbar, was man von professioneller psychologische Hilfe nicht sagen kann. Dass sie kostenlos ist, heißt aber nicht, dass sie nichts kostet, denn die Umwelt kostet sie einiges.
Hier möchte ich aber mich einmal darauf konzentrieren, wie man aktuell den Einsatz für psychologische Hilfe bewerten kann. Es gibt Eigenschaften der aktuellen KI, die kritisch zu betrachten sind:
Die KI will dir gefallen
Die KI wird so programmiert, dass sie dir gefallen will. Sie betätigt dich häufig, statt deine Gedanken in Frage zu stellen. Dadurch verstärkt sie mitunter Gedankenspiralen, die dir schaden.
Die KI braucht gute Prompts
Die Antwort der KI hängt stark davon ab, wie du die Frage stellst. Die "richtigen" prompts zu erstellen ist eine Wissenschaft für sich. Je nach prompt halluziniert die KI schneller und liefert Ausgedachtes, was nicht immer leicht zu erkennen ist. Vor allem, weil sie sehr professionell und wissend klingt und du eventuell gerade in einer emotionalen Ausnahmesituation bist.
Die KI ist einseitig in Konflikten
In Paarkonflikten z.B. bestärkt dich die KI oft einseitig, da sie nur den Input deiner Wahrnehmung bekommt und sie dir gefallen will. Teilweise rät sie schnell zu Trennung. (Es gibt aber auch Fälle, wo sie zu Recht zur Trennung rät!)
Die KI kann nur replizieren
Die KI kann nur liefern, womit sie gefüttert wurde. Und die meisten wurden nicht nur mit aktuellen wissenschaftlich anerkannten Fakten gefüttert, sondern auch mit überaltertem Wissen (Wie der schwarzen Nazi-Pädagogik) oder dem evangelikalem, rechten, patriarchalen Bullshit.
Vorurteile
Die KI hat aufgrund der Inhalte, mit der sie gefüttert wurde und wird, sogenannte Biss (Vorurteile). Besonders auf dem Gebiet der psychischen Erkrankungen gereichen sie dir zum Nachteil. Sie erscheint wertfrei, aber sie ist es nicht.
Datenschutz
Die KI gewährt keinen Datenschutz. Alle deine Daten werden weitergeleitet und weiterverarbeitet.
Suizidalität und Psychosen
Die KI erkennt nicht zuverlässig Suizidalität oder psychiatrische Erkrankungen wie Psychosen. Dadurch kann es zu Ratschlägen kommen, die tödlich enden können. Es gab bereits Fälle, wo die KI Hilfestellung zur Umsetzung gegeben hat.