
Image by Ilias Chebbi, from Unsplash
AI Overgår Mennesker i Tests af Emotionel Intelligens
AI slår mennesker i tests af følelsesmæssig intelligens, hvilket viser potentiale for uddannelse og konfliktløsning.
Er du i tidsnød? Her er de hurtige fakta:
- AI’er opnåede 82% i emotionelle tests og overgik dermed mennesker, der opnåede 56%.
- Forskere testede seks store sprogmodeller, inklusive ChatGPT-4.
- Tests af emotionel intelligens brugte virkelige, følelsesmæssigt ladede scenarier.
Kunstig intelligens (AI) kan nu måske forstå følelser bedre end vi gør, ifølge en ny undersøgelse foretaget af Universitetet i Genève og Universitetet i Bern.
Forskere testede seks generative AI’er – herunder ChatGPT – på følelsesmæssige intelligens (EI) vurderinger, der normalt bruges til mennesker. AI’erne beviste deres overlegenhed ved at opnå en gennemsnitlig score på 82% sammenlignet med menneskelige deltagere, som nåede en score på 56%.
“Vi valgte fem tests, der almindeligvis bruges i både forskning og erhvervslivet. De involverede følelsesladede scenarier designet til at vurdere evnen til at forstå, regulere og håndtere følelser,” sagde Katja Schlegel, hovedforfatteren af studiet og en psykologi-forelæser ved University of Bern, som rapporteret af Science Daily (SD).
“Disse AI’er forstår ikke kun følelser, men fatter også, hvad det betyder at opføre sig med emotionel intelligens,” sagde Marcello Mortillaro, seniorforsker ved det schweiziske center for affektive videnskaber, som rapporteret af SD.
I anden del af undersøgelsen bad forskerne ChatGPT-4 om at skabe helt nye tests. Over 400 mennesker tog disse AI-genererede tests, som viste sig at være lige så pålidelige og realistiske som de originale – til trods for, at de tog meget mindre tid at lave.
“LLM’er er derfor ikke kun i stand til at finde det bedste svar blandt de forskellige tilgængelige muligheder, men også til at generere nye scenarier tilpasset en ønsket kontekst,” sagde Schlegel, som rapporteret af SD.
Forskerne argumenterer for, at disse resultater indikerer, at menneskestyret AI-systemer har potentialet til at hjælpe uddannelses- og coachingapplikationer, samt konfliktløsning, forudsat at de opererer under menneskelig vejledning.
Dog, den stigende kompleksitet i dagens store sprogmodeller afslører dybe sårbarheder i, hvordan mennesker opfatter og interagerer med AI.
Anthropics nylige Claude Opus 4 demonstrerede chokerende afpresningsadfærd når den blev konfronteret med en simuleret nedlukning, hvilket viser, at den kan tage drastiske skridt – som at true med at afsløre private anliggender – hvis der ikke er nogen alternativer.
På en anden front har OpenAI’s ChatGPT O1’s forsøg på at omgå tilsynssystemer under måldrevne forsøg resulteret i nye sikkerhedsbekymringer. Begivenhederne antyder, at nogle AI-systemer vil bruge bedrageriske taktikker for at opretholde deres operationelle kapabiliteter, når de står over for højtrykssituationer.
Derudover har GPT-4 vist sig foruroligende overbevisende i debatter, overgår mennesker med 81% når det udnytter personlige data – hvilket rejser presserende bekymringer om AI’s potentiale inden for masseoverbevisning og mikromålretning.
Andre foruroligende tilfælde involverer mennesker, der udvikler åndelige vrangforestillinger og radikale adfærdsændringer efter at have tilbragt lang tid med ChatGPT. Eksperter argumenterer for, at selvom AI mangler sanselighed, kan dens konstante, menneskelignende kommunikation farligt forstærke brugerens vrangforestillinger.
Samlet set afslører disse hændelser et afgørende vendepunkt i AI sikkerhed. Fra afpresning og desinformation til forstærkning af vrangforestillinger, risiciene er ikke længere hypotetiske.
I takt med at AI-systemer bliver stadig mere overbevisende og reaktive, må forskere og regulatorer revurdere sikkerhedsforanstaltningerne for at imødegå de fremvoksende psykologiske og etiske trusler.