
Image generated using ChatGPT
Meninger: AI i krigsførelse—Teknologiindustriens stille skift mod slagmarken
Debatten om autonome våben, teknologisikkerhedspolitikker og AI-etik i militæret har været igangværende, men de seneste dage har budt på store fremskridt. Ledere fra OpenAI, DeepSeek, og endda Spotifys grundlægger, har annonceret nye aftaler om at arbejde med regeringer om forsvarsteknologier og strategisk AI
Spændingerne omkring brugen af kunstig intelligens i krigsførelse er intensiveret i de sidste par dage. Denne måned har adskillige tech-virksomheder annonceret nye strategiske partnerskaber med regeringer for at udvikle forsvarsprojekter. Og, som det ofte er tilfældet inden for AI-området, har der været en markant skift i de seneste måneder i hvordan AI bliver tilganget for militær og våbenudvikling.
For bare få dage siden, meddelte OpenAI og den amerikanske regering en aftale på 200 millioner dollars til udvikling af AI-drevne forsvarsredskaber. Detaljer forbliver få, med embedsmænd der fremhæver “administrative operationer” som den primære anvendelse.
Imens har den svenske iværksætter og grundlægger af Spotify, Daniel Ek, støttet det tyske firma Helsing ved at lede en investering på 600 millioner euro. Helsing, som oprindeligt fokuserede på softwareteknologi, bevæger sig nu ind i udvikling af droner, ubåde og fly.
Reuters afslørede for nylig, at DeepSeek hjælper Kinas militær og efterretningstjeneste. En højtstående amerikansk embedsmand sagde, at AI-startup-virksomheden har hjulpet med at løse udfordringerne i handelskrigen mellem USA og Kina, og at dens open-source model hjælper den kinesiske regering med overvågningsoperationer.
Tech-giganter samarbejder med regeringer på måder, vi ikke er vant til at se – i det mindste ikke så offentligt – og de involverer sig i aktiviteter, der traditionelt set ikke har været en del af deres rolle, som for eksempel top-tech-ledere, der indtræder i den amerikanske hær-reserve.
Hærens Afdeling 201: Executive Innovation Corps er et forsøg på at rekruttere senior tech-ledere til at tjene deltid i hærreserven som seniorrådgivere for at hjælpe med at styre hurtige og skalerbare tech-løsninger til komplekse problemer. ⤵️ https://t.co/95LjcCmbYe
— U.S. Army Reserve (@USArmyReserve) 24. juni 2025
Hvad foregår der?
En ændring i tale
Teknologivirksomheder gik fra “Vi ville aldrig bruge AI til militære formål” til “Måske fjerner vi stille og roligt denne klausul fra vores politikker” til “Fantastiske nyheder, vi bygger nu AI-drevne våben for regeringen!”
I hvert fald er det sådan, det ser ud for den opmærksomme iagttager.
For ikke så længe siden, syntes AI-giganter at være stolte over at erklære, at de aldrig ville støtte militære applikationer, men noget ændrede sig. Google er et godt eksempel.
I 2017, lancerede det amerikanske forsvarsministerium Project Maven, Algorithmic Warfare Cross-Functional Team, en initiativ til at integrere AI i militære operationer. Google var oprindeligt involveret, men interne protester – drevet af medarbejdernes bekymringer over etik – fik virksomheden til midlertidigt at trække sig.
Sidste år opstod der endnu et skub mod militære aktiviteter, og næsten 200 Google DeepMind-medarbejdere opfordrede virksomheden til at droppe de militære kontrakter.
“Enhver involvering med militæret og våbenproduktion påvirker vores position som ledere inden for etisk og ansvarlig AI, og strider imod vores missionserklæring og erklærede AI-principper,” skrev de bekymrede medarbejdere.
Denne gang var Googles respons at vente og stille opdatere deres AI-etiske retningslinjer ved at fjerne den del, hvor de sagde, at de aldrig ville udvikle AI-teknologi, der kunne forårsage skade. Demis Hassabis, Googles AI-chef, forklarede, at de blot tilpassede sig forandringerne i verden.
Mens Googles sag illustrerer det udviklende forhold mellem AI og militær brug, er det bare et eksempel på en bredere brancheforskydning mod at tjene forsvarsformål.
AI omformer militær- og forsvarssektoren
Lanceringen af Project Maven, eller som nogle måske vil kalde det, “da den amerikanske regering indser, at store sprogmodeller kan være ekstremt nyttige i krigsførelse,” afslørede en af grundene til, at den amerikanske regering er interesseret i AI.
AI-systemers evner til at behandle massive mængder data, identificere objekter på slagmarken og analysere billeder er særligt attraktive i forsvarssektoren.
Forbedrede analyser, udover menneskelige evner
Siden 2022 har både Ukraine og Rusland integreret AI-systemer i deres militære operationer.
Den ukrainske regering har indgået partnerskaber med teknologivirksomheder og anvendt flere strategier for at udnytte store sprogmodeller optimalt. Den har for nylig behandlet 2 millioner timer af slagmarksoptagelser—svarende til 228 års video—for at træne AI-modeller til militære processer. Hvor mange mennesker ville de have brug for at analysere så mange data?
“Dette er føde for AI: Hvis du vil undervise en AI, giver du den 2 millioner timer (af video), så bliver det noget overnaturligt,” forklarede grundlæggeren af det non-profit digitale system OCHI, Oleksandr Dmitriev. Optagelserne kan optimere våbens ydeevne og hjælpe med at forbedre kamp taktikker.
Et andet AI-system, Avengers, er den AI-drevne efterretningsplatform udviklet af Ukraine’s Forsvarsministeriets Innovationscenter, som behandler livevideoer fra droner og identificerer op til 12.000 fjendtlige enheder ugentligt.
Droner: En Hot Vare På Slagmarken
Droner på slagmarken – ofte omtalt som “dræbermaskiner” – er i øjeblikket blandt de mest værdifulde teknologier i moderne krigsførelse på grund af deres autonomi, præcision og lave omkostninger. Disse robotter giver krigsførende nationer mulighed for at udføre høj-effekt angreb uden at risikere menneskelige piloter og til en brøkdel af de traditionelle udgifter.
Inden maj i år havde Rusland udstationeret over 3,000 Veter kamikaze droner i Ukraine. Disse systemer er i stand til at identificere mål og udføre angreb autonomt.
For bare få dage siden indsatte ukrainske soldater Gogol-M dronen, en “moderskibs” drone, der kan rejse op til 300 kilometer, bære andre droner, undgå radar ved at flyve i lave højder, og scanne jorden under den for at opdage og angribe fjendtlige tropper.
Ifølge The Guardian, koster hver angreb ved hjælp af denne kraftfulde drone omkring $10,000, mens et missilsystem, der bruger lidt ældre teknologi, ville have kostet mellem $3 og $5 millioner.
Det helt nye opstartsfirma Theseus rejste hurtigt $4.3 millioner efter at dets unge grundlæggere delte et opslag på det sociale medie-platform X sidste år, hvor de sagde, at de havde bygget en drone til mindre end $500, der kunne flyve uden et GPS signal.
vi designede, 3d printede og byggede en <$500 drone, der beregner GPS-koordinater uden signal ved hjælp af et kamera + google maps
på 24 timer pic.twitter.com/8P2QoQMNbW
— Ian Laffey (@ilaffey2) 18. februar 2024
Selvom droneteknologi endnu ikke er så præcis, som nogle udviklere håber – især når den påvirkes af vejrforhold, der reducerer dens “synlighed” – har den vist stort potentiale i sektoren.
En svær-tilgængelig global konsensus
Det er ikke kun lande i krig eller verdens største magter, der udvikler nye AI-drevne teknologier til forsvar. Mange nationer har i årevis integreret AI i bestræbelserne på cybersikkerhed og udvikling af autonome våben. Dette er ikke kun et fænomen for 2025.
Siden 2014 har FN forsøgt at blive enige om regulative rammer med flere nationer, uden succes.
Over 90 nationer samledes for nylig ved FN’s Generalforsamling i New York for at diskutere fremtiden for AI-kontrollerede autonome våben og deres reguleringer. De nåede ikke til enighed, og Generalforsamlingen har kun vedtaget en ikke-bindende resolution fra 2023, som advarer om behovet for at adressere dødbringende autonome våbensystemer (LAWS).
Den store debat nu er, om man skal implementere en global ramme eller ej. Mange lande er enige om behovet for nye globale retningslinjer, der kan regulere private AI-virksomheder og nationer. Andre lande, som USA, Kina, Rusland og Indien, foretrækker at beholde de nuværende internationale love og skabe, uafhængigt, nye for hver nation i henhold til deres lokale behov – eller interesser. Og vi har netop set, hvor kaotisk processen med at skabe nye AI-reguleringer var, selv på statsniveau i Californien.
Teknologivirksomheder mere og mere involverede
Aktivister som Laura Nolan fra Stop Killer Robots bekymrer sig om manglen på sikkerhedsforanstaltninger og juridiske rammer, der kontrollerer teknologivirksomheders fremdrift i udviklingen af autonome våben og AI-software til militæret.
“Vi stoler generelt ikke på, at industrier kan regulere sig selv … Der er ingen grund til, at forsvars- eller teknologivirksomheder skulle være mere tillidsvækkende,” sagde Nolan til Reuters.
I 2024 afslørede forskere, at kinesiske institutioner har brugt Meta’s open-source stor sprogmodel Llama til militære formål. Pentagon indgik en aftale med Scale AI om at udvikle Thunderforge—et AI-projekt til modernisering af militære beslutningstagning. Og OpenAI indgik partnerskab med militærkontraktør Anduril—en forsvarsallieret til det amerikanske militær, Storbritannien, Ukraine og Australien.
Forsvarsstartups er også vokset i Europa, og har vundet terræn ikke kun i udviklingen af nye teknologier og projekter, men også i tiltrækning af top talent.
En Kompleks Udvikling
En anden faktor, der er tæt knyttet til teknologivirksomheders involvering i nationale forsvarsstrategier, er nationalisme. Flere og flere softwareudviklere og AI-eksperter vælger at arbejde på projekter, der stemmer overens med deres idealer og kulturelle rødder, snarere end bare at jagte højere lønninger. Nogle har endda afvist job i USA, der tilbød dobbelt så høj løn – som for eksempel Google eller OpenAI – for at slutte sig til europæiske virksomheder som Helsing, for eksempel.
Trådene af politik, teknologi, nationalisme og ideologiske kampe bliver mere og mere sammenfiltrede – ofte uden hensyntagen til etik, moral, og humanisme.
Seneste udviklinger gør det klart, at tech-giganter spiller en enorm rolle i militære og nationale forsvarsindsatser over hele verden. Udviklingen af autonome våben og krigsrelaterede teknologier skrider frem i et ultra-hurtigt tempo, mens bestræbelser fra De Forenede Nationer på at etablere internationale aftaler og regulativer for menneskehedens fremtid synes mere og mere minimale.
Uden internationale aftaler – og med ambitiøse tech-virksomheder, der er støttet af regeringer til at udvikle verdens mest kraftfulde våben ved hjælp af AI – hvad indebærer fremtiden for menneskeheden i de kommende år?