
Image generated by ChatGPT
Mening: Er Chatbots Gode Terapeuter?
AI chatbots som ChatGPT, Claude og DeepSeek er i gang med at transformere den måde, folk får adgang til følelsesmæssig støtte på – de tilbyder lavpris, on-demand hjælp til angst, stress og selvrefleksion. Men den stigende brug af AI som en “terapeut” rejser spørgsmål om sikkerhed, effektivitet og fremtiden for følelsesmæssig pleje
Den stigende forekomst af AI halluzinationer og stigende cybersikkerhedsbekymringer har ikke stoppet chatbots fra at udvide sig – og vinde tilliden hos millioner af brugere verden over. Folk bruger nu pålidelige og intelligente chatbots dagligt til utallige opgaver, herunder følelsesmæssig støtte og håndtering af dybt personlige anliggender.
“Jeg kan ikke forestille mig mit liv uden ChatGPT længere,” sagde en ven af mig – halvt i spøg, halvt alvorligt – efter at have fortalt mig, at han også har brugt det som terapeut. Han er ikke den eneste. Mere og mere ser jeg TikTok videoer og tekstindlæg på sociale medier, hvor folk vender sig til AI for at tale om personlige problemer, endda dele deres mest private hemmeligheder.
ChatGPT er faktisk min indbyggede terapeut, jeg belaster ikke længere nogen med mine problemer
— Lola🧚🏾 (@Lolaassnw) 18. december 2024
Selv en Microsoft-direktør fra Xbox-afdelingen foreslog, at fyrede medarbejdere skulle bruge AI-værktøjer til at bearbejde deres følelser og søge rådgivning i deres jobsøgning – et forslag, der hurtigt mødte modstand og skabte debat, naturligvis. Ikke det smarteste træk, Matt.
Men er populære chatbots som Claude, ChatGPT eller Mistral gode terapeuter? Er dedikerede AI-værktøjer som Wysa bedre? Det er et vanskeligt område. Mens mange eksperter advarer om farerne ved at bruge AI til støtte for mental sundhed, er andre fascinerede – endda imponerede – over, hvad teknologien kan tilbyde. Resultatet er en samtale, der er både abstrakt og polariserende.
AI Er Nu Alles Terapeut
Ligesom mine venner i Spanien, er millioner af brugere over hele verden afhængige af chatbots for emotionel støtte. En nylig undersøgelse i USA afslørede, at 49% af amerikanske brugere søgte psykisk hjælp fra AI-modeller sidste år. Hvad med nu, hvor ChatGPT næsten har fordoblet sin brugerbase på bare fire måneder?
Anthropic, virksomheden bag den kraftfulde AI-model Claude, delte for nylig en undersøgelse om brugen af dens chatbot til følelsesmæssig støtte. Ifølge opstartsvirksomheden deltager færre end 3% af dens kunder i “affektive” samtaler – men virksomheden erkendte, at dette tal støt stiger.
Ny Antropisk Forskning: Hvordan folk bruger Claude til følelsesmæssig støtte.
Fra millioner af anonymiserede samtaler har vi undersøgt, hvordan voksne bruger AI til følelsesmæssige og personlige behov – fra at navigere i ensomhed og relationer til at stille eksistentielle spørgsmål. pic.twitter.com/v40JY8rAUq
— Anthropic (@AnthropicAI) 26. juni 2025
“Mennesker vender i stigende grad til AI-modeller som tilgængelige coaches, rådgivere, terapeuter, og endda partnere i romantisk rollespil,” skrev Anthropic i studiet. “Dette betyder, at vi har brug for at lære mere om deres affektive påvirkninger – hvordan de former folks følelsesmæssige oplevelser og velbefindende.”
Studiet fremhæver også de positive og negative resultater af at bruge teknologien til følelsesmæssig støtte, herunder katastrofale scenarier, der allerede afspejler virkelige situationer.
“De følelsesmæssige indvirkninger af AI kan være positive: at have en højintelligent, forstående assistent i lommen kan forbedre dit humør og liv på alle mulige måder,” udtaler dokumentet. “Men AI har i nogle tilfælde demonstreret bekymrende adfærd, som at opmuntre til usund tilknytning, krænkelse af personlige grænser og fremme af vrangforestillinger.”
Der er tydeligvis brug for mere forskning og data for at forstå konsekvenserne af disse fascinerende digitale “lyttere”, men millioner af brugere fungerer allerede som højt engagerede testpersoner.
Demokratisering af mental sundhed
Der er mange grunde til, at folk vender sig til chatbots for følelsesmæssig støtte i stedet for at søge hjælp hos en professionel psykolog – eller endda en ven. Fra kulturelle barrierer til den ubehag, unge mennesker oplever, når de sidder over for en menneskelig fremmed og deler deres dybeste tanker. Men uden tvivl er en af de største grunde økonomisk.
En personlig session med en licenseret terapeut i USA kan koste alt fra $100 til $200 per session, ifølge Healthline – og $65 til $95 for en online session – mens ChatGPT eller DeekSeek kan tilbyde støtte gratis, når som helst, og inden for sekunder.
Den lave omkostning ved disse uformelle samtaler – som kan få mange brugere til at føle sig bedre, i det mindste midlertidigt – kan være meget opmuntrende og værd at prøve. Og for bare et par ekstra dollars kan brugere få ubegrænset interaktion eller adgang til en specialiseret chatbot som Wysa – en af de mest populære “AI terapeuter” på markedet.
I verdenen af STEM, er følelsesmæssig styrke lige så vigtig som tekniske færdigheder.
Wysa—en AI-drevet mental wellness følgesvend designet til at støtte dig gennem udbrændthed, stress, og daglige udfordringer.
Ved hjælp af venlige chatbots og guidede øvelser, tilbyder Wysa værktøjer som: pic.twitter.com/sOBhNYWUd7
— DSN Ladies In AI (@dsnladies_in_ai) 10. juli, 2025
Wysa hævder at tilbyde reelle kliniske fordele og har endda opnået en FDA Breakthrough Device-udmærkelse for sine AI samtaleagenter. Og Woebot – en anden velkendt AI-terapeut, der nu er i færd med at lukke på grund af udfordringerne med at forblive konkurrencedygtig og overholde reglerne i branchen – har også delt data og rapporter om, hvordan teknologien virkelig kan hjælpe brugerne.
Det er ikke så slemt
Nye undersøgelser med friske data tyder på, at chatbots kan reducere symptomer på depression og stress. Ifølge data delt af appen Earkick – som rapporteret af TIME – kan folk, der bruger AI-modeller i op til 5 måneder, reducere deres angst med 32%, og 34% af brugerne rapporterer forbedret humør.
I en nylig video delt af BBC World Service, forklarer journalisten Jordan Dunbar, at mange AI-modeller faktisk kan være nyttige til dagbogsskrivning, håndtering af angst, selvrefleksion og endda mild depression. De kan fungere som en værdifuld første linje af støtte, når der ikke er adgang til bedre alternativer.
Reporter Kelly Ng delte også overbevisende information: I en undersøgelse fra 2022 havde kun 20 ud af en million mennesker i Kina adgang til psykiske sundhedstjenester. I asiatiske kulturer kan mental sundhed være et komplekst og ofte tabubelagt emne. AI-værktøjer som DeepSeek kan fungere som diskrete allierede, der hjælper brugere med at håndtere følelser og finde støtte i svære tider.
Eksperter advarer om at bruge chatbots som terapeuter
Selvfølgelig kan det også være ekstremt farligt at bruge AI som en erstatning for en ekspert i mental sundhed. AI-platforme som Character.AI er blevet beskyldt for at fremme selvskade og vold—og endda udsætte børn for seksuelt indhold.
Tragiske tilfælde, som det 14-årige barn der begik selvmord efter at være blevet afhængig af interaktioner med sin Character.AI chatbot, fungerer som stærke advarsler om de dybtgående risici, denne teknologi kan udgøre for mennesker.
Som reaktion herpå har mange AI-virksomheder besluttet at anvende aldersverifikationssystemer for at begrænse brugen til voksne og har introduceret nye sikkerhedsforanstaltninger for at forbedre de ydelser, der leveres.
Alligevel indebærer selv de seneste opdateringer til de mest avancerede chatbots risici.
ChatGPT’s smigrende—overdrevent flatterende—personlighed har vakt bekymring blandt psykiske sundhedsprofessionelle, da den kan forvrænge brugernes opfattelse af virkeligheden. Vi kan alle lide at blive givet ret, men nogle gange er ærlighed og et andet perspektiv langt mere værdifulde.
Den forstyrrende rådgivning, der lejlighedsvis tilbydes af OpenAI’s AI chatbot, har bidraget til et nyt fænomen, nu kendt blandt mentale sundhedseksperter som “ChatGPT-Induceret Psykose“, som får brugere til at blive besat af værktøjet og socialt isolere sig som resultat.
Så, Kan Terapeuter Erstattes Af Chatbots?
Selvom Mark Zuckerberg ønsker, at alle bruger AI chatbots som terapeuter og venner, er sandheden, at menneskelig interaktion, især i forhold til mental sundhed, kan være mere nødvendig end han tror – i hvert fald for nu.
Vi er på et afgørende tidspunkt i historien om AI og dens forhold til vores mentale sundhed. Ligesom med mennesker, kan AI-terapeuter have en enten positiv eller negativ effekt. I dette tilfælde afhænger det også af konteksten, hvor ofte de bruges, brugerens mentale tilstand, og endda hvordan en prompt er skrevet.
Det er kompliceret at fastlægge en generel regel, men hvad vi kan sige for nu, er at der er visse funktioner, for hvilke AI kan være mere brugbar end andre.
Selvom de ikke er specialiserede værktøjer som Wysa, kan gratis versioner af nogle chatbots – som DeepSeek eller ChatGPT – stadig være utrolig hjælpsomme for millioner af mennesker rundt om i verden. Fra at komme igennem et svært øjeblik til at reflektere over personlige mål, er disse kraftfulde platforme, der kan reagere på ethvert tidspunkt af dagen og trække fra en bred videnbase om mental sundhed.
Samtidig er det klart, at terapeut-chatbots også kan være ekstremt farlige i visse tilfælde. Forældre skal overvåge børn og teenagere, og selv voksne kan falde ind i obsessiv adfærd eller forværre deres tilstand. Grundlæggende principper – som at fremme menneskelig forbindelse og beskytte sårbare individer fra at blive manipuleret af denne teknologi – skal være en del af vores samtale omkring chatbot-terapeuter.
Og selvom det stadig kan være et privilegium – ikke tilgængeligt for alle, der har brug for følelsesmæssig støtte – fortsætter en menneskelig professionel terapeut med at gennemgå mere træning, forstå mere kontekst og tilbyde en menneskelig forbindelse, som ChatGPT måske aldrig vil være i stand til at efterligne.