Studie advarer: AI kan forstærke polarisering på sociale medier

Studie advarer: AI kan forstærke polarisering på sociale medier

Læsetid: 3 Minut

Kunstig intelligens kan superoplade polarisering på sociale medier, advarer forskere og studerende fra Concordia, hvilket rejser bekymringer over ytringsfrihed og misinformation.

Har du travlt? Her er de hurtige fakta:

  • AI algoritmer kan skabe splittelse ved kun at bruge følgerantal og nylige opslag.
  • Reinforcement-læring bots tilpasser sig hurtigt for at udnytte sårbarheder på sociale medier.
  • Eksperter advarer om, at platforme risikerer enten censur eller ukontrolleret manipulation.

Selvom polarisering på sociale medier ikke er noget nyt, advarer forskere og studenteraktivister ved Concordia University om, at kunstig intelligens kunne gøre problemet meget værre.

“I stedet for at blive vist optagelser af, hvad der sker, eller indhold fra de journalister, der rapporterer om det, ser vi i stedet overdramatiseret AI-kunst af ting, vi politisk bør bekymre os om […] Det distancerer virkelig folk og fjerner ansvarlighed,” sagde Danna Ballantyne, koordinator for eksterne anliggender og mobilisering ved Concordia Student Union, som rapporteret af The Link.

Hendes bekymringer genlyder ny forskning fra Concordia, hvor professor Rastko R. Selmic og ph.d.-studerende Mohamed N. Zareer viste, hvordan forstærkningslæringsbots kan forstærke splittelse online. “Vores mål var at forstå, hvilken tærskel kunstig intelligens kan have på polarisering og sociale medienetværk, og simulere det […] for at måle, hvordan denne polarisering og uenighed kan opstå,” sagde Zareer som rapporteret af The Link.

Undersøgelserne antyder, at algoritmer ikke behøver privat data for at skabe splid, hvor grundlæggende signaler som antallet af følgere og nylige opslag er nok. “Det er bekymrende, fordi [selvom] det ikke er en simpel robot, er det stadig en algoritme, du kan skabe på din computer […] Og når du har nok computerkraft, kan du påvirke flere og flere netværk,” forklarede Zareer til The Link.

Dette afspejler en større mængde forskning, der viser, hvordan forstærkende læring kan anvendes til at skubbe samfund fra hinanden. Studiet fra Concordia brugte Double-Deep Q-learning og viste, at fjendtlige AI-agenter kan “fleksibelt tilpasse sig ændringer inden for netværket, hvilket gør det i stand til effektivt at udnytte strukturelle sårbarheder og forstærke splittelser blandt brugere,” som forskningen bemærkede.

Faktisk er Double-Deep Q-learning en AI-teknik, hvor en bot lærer optimale handlinger gennem forsøg og fejltagelser. Den bruger dybe neurale netværk til at håndtere komplekse problemer og to værdianslag for at undgå overvurdering af belønninger. På sociale medier kan den strategisk sprede indhold for at øge polariseringen med minimal data.

Zareer advarede om, at politikere står over for en vanskelig balance. “Der er en fin linje mellem overvågning og censur og forsøg på at kontrollere netværket,” sagde han til The Link. For lidt tilsyn lader bots manipulere samtaler, mens for meget kan risikere at undertrykke ytringsfriheden.

Imens frygter studerende som Ballantyne, at AI sletter levede oplevelser. “AI skrotter fuldstændigt det,” sagde hun til The Link.

Kunne du lide denne artikel?
Så anmeld den venligst!
Jeg hadede den Jeg kan ikke rigtigt lide den Den var ok Ret god! Var vild med den!

Vi er glade for du synes om vores arbejde!

Som en værdsat læser, håber vi du har lyst til at tjekke os på Trustpilot? Det er hurtigt, og betyder alverden for os. Tak for at du er fantastisk!

Bedøm os på Trustpilot
0 Brugere som har 0 stemt
Overskrift
Kommentar
Tak for din feedback