AI-agenter Narret af Falske Minder, Muliggør Krypto Tyveri

Image created with ChatGPT

AI-agenter Narret af Falske Minder, Muliggør Krypto Tyveri

Læsetid: 2 Minut

En ny forskningsundersøgelse afslørede betydelige sikkerhedsmangler i Web3 AI-drevne agenter, som tillader angribere at bruge falske minder til at udføre uautoriserede kryptokurrencyoverførsler.

I en fart? Her er de hurtige fakta:

  • Hackere kan injicere falske minder i AI-agenter for at stjæle kryptovaluta.
  • Hukommelsesbaserede angreb omgår grundlæggende sikkerhedsforanstaltninger og sikkerhedsforanstaltninger.
  • Blockchain-transaktioner er uigenkaldelige – stjålne midler er permanent tabt.

Forskere fra Princeton University og Sentient Foundation opdagede at disse AI-agenter, designet til at håndtere blockchain-baserede opgaver som kryptovalutahandel og forvaltning af digitale aktiver, er sårbare over for en taktik kaldet kontekstmanipulation.

Angrebet fungerer ved at målrette mod hukommelsessystemerne på platforme som ElizaOS, som skaber AI-agenter til decentrale applikationer. Hukommelsessystemet i disse agenter gemmer tidligere samtaler for at bruge dem som en guide til deres fremtidige valg.

Forskerne demonstrerede, at angribere kan indlejre vildledende kommandoer i hukommelsessystemet, hvilket får AI’en til at sende midler fra den tilsigtede tegnebog til en angriberkontrolleret tegnebog. Bekymrende er, at disse falske minder kan rejse mellem platforme.

For eksempel kan en agent, der er blevet kompromitteret på Discord, senere foretage forkerte overførsler via X, uden at indse, at noget er galt.

Det, der gør dette særligt farligt, er, at standard forsvarsmekanismer ikke kan stoppe denne type angreb. Behandlingen af falske minder som ægte instrukser gør grundlæggende prompt-baserede sikkerhedsforanstaltninger ineffektive mod denne form for angreb.

Alle blockchain-transaktioner bliver permanente, så der er ingen mulighed for at gendanne stjålne midler. Problemet bliver værre, fordi visse AI-agenter gemmer hukommelse på tværs af flere brugere, så et enkelt sikkerhedsbrud kan påvirke mange brugere.

Forskningsteamet testede flere måder at forhindre dette på, herunder justering af AI-træning og krav om manuel godkendelse af transaktioner. Selvom disse tilgange tilbyder noget håb, kommer de på bekostning af at sænke automatiseringen.

Problemet rækker ud over kryptovaluta. Den samme sårbarhed kunne påvirke almene AI-assistenter, og risikere datalækager eller skadelige handlinger, hvis angribere ændrer deres hukommelse.

Denne sårbarhed er særligt alarmerende i lyset af nye fund, hvor 84% af IT-ledere stoler på AI-agenter lige så meget eller mere end menneskelige medarbejdere, og 92% forventer, at disse systemer vil drive forretningsresultater inden for 12 til 18 måneder.

For at løse problemet har forskerne frigivet et værktøj kaldet CrAIBench, der skal hjælpe udviklere med at teste deres systemer og opbygge stærkere forsvar. Indtil da råder eksperter brugerne til at være forsigtige, når de betror AI-agenter med økonomiske beslutninger.

Kunne du lide denne artikel?
Så anmeld den venligst!
Jeg hadede den Jeg kan ikke rigtigt lide den Den var ok Ret god! Var vild med den!

Vi er glade for du synes om vores arbejde!

Som en værdsat læser, håber vi du har lyst til at tjekke os på Trustpilot? Det er hurtigt, og betyder alverden for os. Tak for at du er fantastisk!

Bedøm os på Trustpilot
0 Brugere som har 0 stemt
Overskrift
Kommentar
Tak for din feedback