Vi sparar data i cookies, genom att använda våra tjänster godkänner du det.

Riktig journalistik gör skillnad.

Tjøme 20180602. Drone i luften med et passasjerfly passerende i god høyde på himmelen. Foto: Erik Johansen / NTB scanpix / TT / kod 20520 Bild: Johansen, Erik

Joakim Broman: Det är inte för sent att stoppa mördarrobotarna

Autonoma vapensystem är inte längre science fiction utan kan snart vara en högst påtaglig verklighet.

Det här är en ledarartikel. HP:s ledarredaktion är oberoende liberal. Här kan du läsa fler ledarartiklar.

HP Ledare 30/7. Tusentals miniatyrdrönare med sprängmedel susar in över staden. De flygs av en artificiell intelligens som reagerar betydligt snabbare än en människa, och är utrustade med ansiktsigenkänning och algoritmer som gör att de kan känna igen de egenskaper som deras ägare vill eliminera.

Kortfilmen “Slaughterbots”, en del av en internationell kampanj mot autonoma vapensystem, är en riktig dystopi. Men som Stuart Russell, professor i datavetenskap vid amerikanska Berkeley, påpekar i slutet av filmen är mördarrobotarna tyvärr inte science fiction, utan resultatet av att miniatyrisera och kombinera tekniker som redan finns.

Vissa debattörer menar till och med att det är för sent att stoppa dem. Det skrev exempelvis Peteris Timofejevs i Enköpings-Posten i vintras (4/1). Han menar att när stater som Ryssland redan kommit långt i utvecklingen av vapensystem med inslag av artificiell intelligens vore det farligt för länder som Sverige att avstå.

Ett liknande resonemang förde Expressens Linda Nordlund i våras (15/4), som också gick igenom andra risker med tekniken. AI-vapnen sänker både det ekonomiska och det politiska priset för krigsföring, exempelvis genom förarlösa stridsvagnar och flygplan, ansiktsigenkänning och algoritmer som ska fatta beslut om vem som är fiende. Till det kan man addera risken för att fortsatt utveckling driver upp tillgången och sänker priset så mycket att vapensystemen hamnar i händerna även på terroristgrupper.

Precis som Timofejevs menar Nordlund att utvecklingen inte går att stoppa. “Mänsklighetens bästa hopp är att mördarrobotarna omfattas av en doktrin [i likhet med den kring kärnvapen] om ömsesidigt garanterad förstörelse.”

Det är möjligt att de båda har rätt. Men just eftersom artificiell intelligens i kombination med miniatyriserade och autonoma vapensystem kan liknas vid en slags massförstörelsevapen, är det värt att göra ett försök att få till stånd ett globalt förbud. Frågan drivs av såväl stora människorättsorganisationer som av breda nätverk av AI-forskare.

Det vore naturligtvis naivt av Sverige att ensidigt införa ett sådant stopp för egen del, och hoppas att andra länder ska följa efter. Ska ett förbud vara verksamt måste det finnas en samsyn i världssamfundet.

Det kan vid en första anblick verka orealistiskt. Men konventionerna om biologisk respektive kemisk krigsföring visar att det inte är omöjligt att få bred uppslutning kring förbud av vissa vapentyper. Precis som i fallet med autonoma vapensystem hade biologiska eller kemiska vapen kunnat ge enskilda stater ett övertag i en konflikt. Det stoppades genom framgångsrikt diplomatiskt arbete i bland annat FN, och har i enskilda fall där förbudet överträtts även backats upp med militära medel. Exempelvis har USA med hjälp av Storbritannien och Frankrike svarat med bombningar när Assad-regimen använt kemiska vapen.

Tiden håller på att rinna ut. Frågan behöver få mer uppmärksamhet och drivas på fler nivåer och av fler partier än Miljöpartiet. Men än är det faktiskt inte för sent att stoppa de autonoma vapensystemen.