Vi sparar data i cookies, genom att använda våra tjänster godkänner du det.

Riktig journalistik gör skillnad.Nyheter med närvärde

    Drönarteknik i kombination med artificiell intelligens kan bli en farlig teknik, varnar forskare. Bild: Henrik Holmberg / TT

    Joakim Broman: Nu sjunker priset på politiska mord

    Hotet från autonoma vapensystem är betydligt större än det kan verka. På sikt kan det handla om vilken sorts samhälle vi får.

    Det här är en ledarartikel. HP:s ledarredaktion är oberoende liberal.

    Minidrönaren är bara 10 cm i diameter. Den artificiella intelligensen som agerar pilot reagerar 100 gånger snabbare än en normal person och har ansiktsigenkänning, tillsammans med en algoritm som avgör vem som är fienden. Inuti finns tillräckligt mycket sprängmedel för att döda en människa.

    I en film som spriddes på sociala medier under slutet på 2017 målas denna dystopi upp: mördarrobotar, inte i Arnold Schwarzeneggers gestalt, utan i form av små drönare, används såväl för politiska mord och terrorism som för att krossa dissidenter i diktaturer. Allt man behöver göra är att mata in vilka personer – eller vilka egenskaper, exempelvis kön, ålder, etnicitet – man vill ha bort. Sedan gör robotarna resten. De är små, billiga, och praktiskt taget omöjliga att stoppa.

    Den artificiella intelligensen kommer utan tvekan att uträtta storverk för människan. Redan finns exempel på hur datorer blivit bättre än läkare på att diagnostisera ovanliga sjukdomar. Själv-körande bilar kommer någon gång i framtiden att kunna rädda mer än en miljon liv om året. Med tiden tyder det mesta på att tekniken kan bistå nästan varje del av samhället och näringslivet med förbättringar och produktivitetsökningar.

    Det är sådana förbättringar som i sammanhanget militär teknik riskerar att få förödande konsekvenser. Det behöver inte gå så långt som i kortfilmen, som togs fram av ett antal människorättsorganisationer i en kampanj mot autonoma vapen, där tusentals minidrönare utför koordinerade attacker på hela städer.

    Som Stuart Russell, professor i datavetenskap vid det amerikanska universitetet Berkeley, säger som ett slags post-scriptum till kortfilmen, finns stora delar av tekniken redan på plats. Drönare, ansiktsigenkänning, AI som pilot, sprängmedel. Det är kombinationen och miniatyriseringen av teknikerna som är den stora faran.

    När tekniken väl utvecklats är risken stor att den sprids till alla tänkbara sammanhang. Att ta fram en artificiell intelligens är visserligen inte lätt – men att kopiera den behöver inte vara svårt. Ryssland behöver inte använda egna agenter och gift för att mörda sina fiender, som de gjorde i fallet Sergej Skripal, utan kan helt enkelt skicka en anonym drönare. Terroristgrupper som vill utföra politiska mord kan göra det betydligt enklare och billigare. Krigsföring i andra länder riskerar överlag att kosta mindre, både i termer av ekonomi och risk, vilket kan öka konfliktytorna.

    I somras tog fyra miljöpartister i Europaparlamentet ställning mot de autonoma vapensystemen (Aftonbladet 22/6). De vill att Sverige ska verka för ett globalt förbud. Det är ett initiativ som fler politiker borde ställa sig bakom. Den internationella forskargemenskapen inom datavetenskap och artificiell intelligens gör det redan. Tiotusentals av dem har skrivit på uppropet på autonomousweapons.org.

    Frågan om autonoma vapensystem är betydligt större än den kan verka. På sikt kan det till och med handla om vilken sorts samhälle vi får. Men även om konsekvenserna inte är så allvarliga, så bör löftet som den artificiella intelligensen ger användas i goda syften.