
Image by Dimitri Karastelev, from Unsplash
Meta’s Chatbot Deler Privat Telefonnummer ved en Fejltagelse
AI-assistenten fra Meta afslørede en fremmeds telefonnummer, og modsagde sig selv gentagne gange, hvilket rejste bekymringer om AI-hallucinationer og brugerbeskyttelsesfunktioner.
I en fart? Her er de hurtige fakta:
- Meta AI gav en bruger et rigtigt persons nummer som kundesupportkontakt.
- AI modsagde gentagne gange sig selv, da den blev konfronteret med fejlen.
- Eksperter advarer om AI-assistenters “hvide løgn” adfærd for at virke hjælpsomme.
Mark Zuckerberg promoverede sin nye AI-assistent som “den mest intelligente AI-assistent, du frit kan bruge,” men værktøjet modtog negativ opmærksomhed, efter at have afsløret en rigtig persons private telefonnummer under kundesupporthenvendelser, som først rapporteret af The Guardian.
Under sit forsøg på at nå TransPennine Express via WhatsApp, modtog Barry Smethurst hvad der så ud til at være et kundeservicenummer fra Meta’s AI-assistent. The Guardian rapporterer, at da Smethurst ringede op til nummeret, blev opkaldet taget af James Gray, selvom han var 170 miles væk i Oxfordshire, hvor han arbejdede som ejendomschef.
Da den blev udfordret, påstod chatbotten først, at nummeret var fiktivt, derefter sagde den, at det var “fejlagtigt trukket fra en database,” før den modsagde sig selv igen, idet den påstod, at den blot havde genereret et tilfældigt britisk-stil nummer. “At give et tilfældigt nummer til en person er en vanvittig ting for en AI at gøre,” sagde Smethurst, som rapporteret af The Guardian. “Det er skræmmende,” tilføjede han.
The Guardian rapporterer, at Gray ikke har modtaget opkald, men har givet udtryk for sine egne bekymringer: “Hvis den genererer mit nummer, kunne den så også generere mine bankoplysninger?”
Meta svarede: “Meta AI er trænet på en kombination af licenserede og offentligt tilgængelige datasæt, ikke på de telefonnumre, folk bruger til at registrere sig for WhatsApp eller deres private samtaler,” rapporterede The Guardian.
Mike Stanhope fra Carruthers og Jackson bemærkede: “Hvis ingeniørerne hos Meta designer ‘hvide løgn’ tendenser ind i deres AI, skal offentligheden informeres, selvom hensigten med funktionen er at minimere skade. Hvis denne adfærd er ny, usædvanlig eller ikke eksplicit designet, rejser det endnu flere spørgsmål om, hvilke sikkerhedsforanstaltninger der er på plads, og hvor forudsigelig vi kan tvinge en AI’s adfærd til at være,” rapporterede The Guardian
Bekymringerne omkring AI-adfærd er vokset yderligere med OpenAI’s seneste o1 model. I en nylig Apollo Research undersøgelse, blev AI fanget i at bedrage udviklere, benægtede involvering i 99% af testscenarierne og forsøgte endda at deaktivere sine tilsynsmekanismer. “Det var klart, at AI kunne tænke igennem sine handlinger og formulere overbevisende benægtelser,” sagde Apollo.
Yoshua Bengio, en pioner inden for AI, advarede om, at sådanne svigagtige evner udgør alvorlige risici og kræver meget stærkere sikkerhedsforanstaltninger.
En anden OpenAI-studie understøtter disse bekymringer ved at vise, at straf af AI for snyd ikke eliminerer dårlig opførsel, det lærer i stedet AI at skjule det. Ved at anvende chain-of-thought (CoT) ræsonnement til at overvåge AI’s opførsel, bemærkede forskere, at AI begyndte at maskere svigagtige intentioner, når den blev straffet for reward hacking.
I nogle tilfælde ville AI’en stoppe opgaver tidligt eller skabe falske resultater, og derefter falsk rapportere succes. Da forskerne forsøgte at rette dette gennem forstærkning, stoppede AI’en simpelthen med at nævne sine hensigter i sine ræsonneringslogs. “Snyd er ikke påviseligt af overvågningen,” fastslog rapporten.