”OpenAI råder uttryckligen sina utvecklare att skala upp snarare än att pausa och utvärdera om tveksamheter skulle uppstå.”
”OpenAI råder uttryckligen sina utvecklare att skala upp snarare än att pausa och utvärdera om tveksamheter skulle uppstå.” Bild: Michael Dwyer

Pontus Wärnestål: AI – framtidens hot eller dagens möjlighet?

En framtid där AI-teknologin är en allierad i stället för en motståndare kan säkerställas genom att uppmuntra ett ständigt nyfiket sinne rotat i kompetens och samarbete. Faktum är att Halland ligger bra till. Högskolan i Halmstad gör stora satsningar på livslångt lärande inom AI. En framgångsfaktor är vårt sätt att knyta forskare från högskolan till både företag och offentlig sektor i regionen. Det skriver Pontus Wärnestål, biträdande professor i informationsteknologi vid Högskolan i Halmstad. På tisdag den 7 november håller han en lunchföreläsning (12.00–12.45) på Stadsbiblioteket i Halmstad om artificiell intelligens.

HP:s ledarredaktion är oberoende liberal. Fristående gästkrönikörer representerar ett bredare politiskt spektrum.

ANNONS
|

De snabba framstegen inom artificiell intelligens (AI) är kantat av många fagra löften. Med hjälp av enorma databearbetningsmöjligheter och förmågan att göra kraftfulla förutsägelser har AI potentialen att revolutionera många branscher. Trots att det ligger något av science fiction över själva begreppet AI så är det inte frågan om en avlägsen framtid. Datadrivna förutsägelser, eller prediktion, har redan använts inom en rad områden i flera årtionden.

Men i stället för de vanliga science fiction-historierna om illasinnade robotar och världsdominerande nätverk som i filmerna Terminator och The Matrix, handlar verklighetens AI mer om algoritmer som sållar igenom data för att hitta mönster. Dessa mönster kan hjälpa till med allt från att sortera bort skräppost i din e-brevlåda, förutsäga väderförändringar till att rekommendera nästa låt på din spellista. Gott så. Men vi hör ju ibland också kritik och ängslan när det gäller AI. Vad kommer det sig av? Borde inte förutsägelser baserat på ”objektiva data” enbart vara av godo? Dessvärre är det inte så enkelt.

ANNONS

Faktum är att sociala medier redan har utsatt oss för ett nästan två decennier långt experiment av algoritmiskt sorterat innehåll. Detta har som bekant fått enorma effekter. Många av dem positiva – men vi har också fått utstå många både oönskade och oförutsedda effekter. Sociala medietjänster använder just datadrivna förutsägelser för att optimera ”engagemang” från sina användare. Algoritmerna avgör vilka poster och annonser som visas utifrån målet att maximera uppmärksamhet spenderad i tjänsten.

Ju längre tid vi tittar på skärmen, desto fler annonser kan säljas. Det har dessutom visat sig vara ganska enkelt att optimera för detta. Ett mycket enkelt sätt är att visa innehåll som upprör. Detta leder till snedvridningar och polarisering i vårt informationsekosystem. Denna obalans har blivit som speglarna i lustiga huset, som förvränger verkligheten och förstärker extremt innehåll på bekostnad av de mer nyanserade och välinformerade rösterna.

De senaste AI-modellerna, där det mest kända exemplet just nu är ChatGPT, tar nu detta redan invecklade medielandskap och gör komplexitetskurvan ännu brantare. Generativ AI har förmågan att skapa nya syntetiska data i form av texter, bilder, ljud och video. Med generativ AI exploderar potentialen för desinformation. AI-genererade bilder och filmer och förfalskade nyheter kan genereras med extrem realism och hastighet, vilket i förlängningen kan destabilisera politiska, ekonomiska och sociala strukturer. Vi har redan passerat gränsen där vi som människor inte längre kan skilja på innehåll skapat av människor respektive generativ AI.

ANNONS

När AI utvecklas ökar dess komplexitet exponentiellt. Detta överträffar vår individuella och institutionella kapacitet att förstå och reglera dess effekter effektivt. OpenAI, företaget bakom ChatGPT, har fasat ut värdeordet ”eftertänksam” (thoughtful) från sin företagsvision och använder nu i stället paroller som ”intensiv och hoprafsad” (intense and scrappy). OpenAI råder uttryckligen sina utvecklare att skala upp snarare än att pausa och utvärdera om tveksamheter skulle uppstå. (”When in doubt – scale it up.”)

Nyligen utfördes en stor genomlysning av transparensen kring hur de nya AI-modellerna från techbolagen är beskaffad. Transparens är ett viktigt begrepp inom AI-modellering eftersom vårt enda sätt att förstå, utvärdera och kontrollera AI-tjänsterna är genom att ”öppna på huven” och se vilken data som samlats in, hur den modellerats och på vilket sätt förutsägelserna görs. Men låg transparens blir det omöjligt. Genomlysningen visade dessvärre att de tio största modellerna i världen låg mellan 12 procent och 54 procent transparens, vilket förstås är bedrövligt dåligt om man siktar på 100 procent. (OpenAI:s modell GPT-4 ligger på 48 procent.)

Låg transparens i kombination med mottot ”intensiv och hoprafsad” utveckling är inte rätt väg att gå om vi vill ha ansvarsfull AI i vårt samhälle. Om vårt decennielånga experiment med sociala medier lärde oss någonting så är det ju att även om intentionerna är goda så för kraftfulla algoritmiska verktyg med sig omfattande biverkningar.

ANNONS

Dagens AI-modeller bygger på analys av historiska data, ofta från texter på nätet och digitaliserade böcker. Eftersom människans skriftliga historia är lång och brokig innebär detta att föråldrade, och ibland direkt skadliga, värderingar kan finna sin väg in i modellerna och stärka negativa stereotyper om kön, etnicitet och annat som upprätthåller en förlegad status quo.

Att träna och använda AI-modeller kräver enorma mängder energi. Detta är dock, tro det eller ej, ett av de ”lättare” problemen att lösa om vi accelererar övergången till fossilfri och förnybar energi. Dessutom används redan AI för att reducera energiåtgång i fler och fler verksamheter. Icke desto mindre är det i nuläget minst 10 gånger mer energikrävande att använda generativ AI jämfört med en vanlig sökmotor.

Men när vi nu går in i en AI-driven framtid är det nödvändigt att komma ihåg de inneboende styrkor vi har till vårt förfogande. AI har potentialen att vara mänsklighetens mest kraftfulla verktyg. Men med stor kraft kommer, som bekant, ett ännu större ansvar. Och vi råkar faktiskt förfoga över flera superkrafter som kommer att hjälpa oss navigera riskerna med AI.

I hjärtat av varje utmaning människan någonsin har ställts inför ligger den obestridliga sanningen att människor faktiskt är i grunden goda till sin natur. Och om du som läser detta inte håller med så kanske du är offer för algoritmiskt kurerat innehåll i ditt polariserande sociala medieflöde? Vetenskapliga studier bekräftar om och om igen att vår anpassningsförmåga och motståndskraft bygger på samarbete och en i grunden välvillig inställning till varandra. Dessa egenskaper är inte bara evolutionära egenskaper utan grunden för våra samhällsbyggen.

ANNONS

Det är denna kärna, anpassningsförmåga och motståndskraft som behöver bli tydlig i våra val och säkerställa att teknologin tjänar oss, snarare än tvärtom. Men det kräver förstås att vi aktivt reglerar och avkräver ansvar av algoritmiskt innehåll som styr oss mot polarisering. Genom att ta hänsyn till människors behov, värderingar och förmågor i varje skede av design och utveckling av AI-drivna tjänster säkerställer vi att AI förstärker mänskliga förmågor snarare än att minska eller automatisera bort dem.

I denna snabbt föränderliga värld är statiska utbildningssystem otillräckliga. Om vi främjar en miljö av kontinuerligt lärande, betonar kritiskt tänkande, tvärvetenskaplig forskning och samarbete, kan vi rusta inte bara den yngre generationen utan också redan yrkesverksamma med färdigheter att navigera i en AI-driven värld. Det handlar inte bara om att förstå tekniken i sig, utan om att överbrygga klyftan mellan våra stenåldershjärnor och den avancerade teknologi vi nu sjösätter i samhället. Genom att uppmuntra ett ständigt nyfiket sinne rotat i kompetens och samarbete, kan vi säkerställa en framtid där AI-teknologin är en allierad i stället för en motståndare.

Faktum är att Halland ligger bra till. Högskolan i Halmstad gör stora satsningar på livslångt lärande inom AI, med en stor mängd kurser speciellt utformade för redan yrkesverksamma som vill öka sin förståelse för hur man använder AI för ansvarsfullt värdeskapande. Det är också värt att uppmärksamma att Halland ligger långt fram – och tjänar som inspiration för andra regioner och länder – när det gäller att kombinera människocentrerad design med AI-driven tjänsteutveckling.

ANNONS

En framgångsfaktor är vårt sätt att knyta forskare från högskolan till både företag och offentlig sektor i regionen via innovationsarenor som HighFive och Leap For Life. Det pågår också spännande forskning inom AI vid högskolan inom till exempel informationsdriven vård, robotik och prediktivt underhåll inom fordonsindustrin.

Om vi navigerar med klok försiktighet och välvilja har vi större möjlighet att använda oss av den enorma kraft som finns i dagens artificiella intelligens på ett värdefullt sätt. Kombinerat med det mod som krävs för att samtidigt utveckla den i en riktning som passar oss alla kommer vi att vara väl rustade att möta framtidens många utmaningar.

Skribenten är biträdande professor i informationsteknologi vid Högskolan i Halmstad

design- och innovationschef på eghed

ANNONS