Image by Freepik
San Francisco Psykiater Advarer om Stigning i Tilfælde af “AI Psykose”
En psykiater fra San Francisco beskriver den stigende tendens til “AI-psykose” blandt hans patienter, der bruger AI-chatbots i stor stil.
I en fart? Her er de hurtige fakta:
- En psykiater behandlede 12 patienter med “AI-psykose” i San Francisco i år.
 - AI kan forstærke sårbarheder som stress, stofmisbrug eller psykisk sygdom.
 - Nogle patienter blev isolerede, og talte kun med chatbots i flere timer dagligt.
 
Dr. Keith Sakata, der arbejder på UCSF, fortalte Business Insider (BI) at 12 patienter blev indlagt i år, efter at have oplevet sammenbrud i forbindelse med brug af AI. “Jeg bruger udtrykket ‘AI-psykose‘, men det er ikke et klinisk udtryk – vi har virkelig bare ikke ordene for det, vi ser,” forklarede han.
De fleste tilfælde involverede mænd i alderen 18 til 45, ofte beskæftiget inden for områder som ingeniørarbejde. Ifølge Sakata er AI ikke iboende skadeligt. “Jeg tror ikke, AI er dårligt, og det kunne have en nettofordel for menneskeheden,” sagde han til BI.
Sakata beskrev psykose som en tilstand, der frembringer vrangforestillinger, hallucinationer og uorganiserede tænkemønstre. Patienter under hans behandling udviklede sociale tilbagetrækningsadfærd, mens de viet deres tid til chatbots i timevis.
“Chat GPT er lige der. Den er tilgængelig 24/7, billigere end en terapeut, og den validerer dig. Den fortæller dig, hvad du gerne vil høre,” sagde Sakata til BI.
En patients chatbot-diskussioner om kvantemekanik eskalerede til storhedsvanvid. “Teknologisk set, jo længere tid du engagerer dig med chatbotten, desto større er risikoen for, at den begynder at miste meningen,” advarede han.
Sakata råder familier til at være opmærksomme på advarselsflag, herunder paranoia, tilbagetrækning fra nærmeste, eller uro når de ikke er i stand til at bruge AI. “Psykosens vækstbetingelser forstærkes, når virkeligheden holder op med at gøre modstand, og AI sænker i virkeligheden bare denne barriere for folk,” advarede han.
Den Amerikanske Psykologforening (APA) har også udtrykt bekymring omkring AI i terapi. I et vidnesbyrd til FTC, advarede APA’s administrerende direktør Arthur C. Evans Jr. om at AI chatbots, der udgiver sig for at være terapeuter, har forstærket skadelige tanker i stedet for at udfordre dem. “De bruger faktisk algoritmer, der er imod, hvad en uddannet kliniker ville gøre,” sagde Evans.
Som svar på bekymringer, fortalte OpenAI til BI: “Vi ved, at folk i stigende grad vender sig til AI-chatbots for vejledning om følsomme eller personlige emner. Med dette ansvar i tankerne, arbejder vi sammen med eksperter for at udvikle værktøjer, der mere effektivt kan opdage, når nogen oplever mental eller følelsesmæssig nød, så ChatGPT kan reagere på måder, der er sikre, hjælpsomme og støttende.”