Framtidsexpert: ”Risken är att AI förintar oss”

Publicerad 2023-03-30

Forskare och höjdare i techbranschen kräver ett halvårs paus i utvecklingen av kraftfulla AI-system.

Framtidsforskaren Olle Häggström är en av undertecknarna:

– Risken är att vi skapar en artificiell intelligens som förintar oss.

Ett öppet brev som publicerats på sajten Future of Life Institute har hittills skrivits under av 1382 tech-vd:ar och forskare som håller på med artificiell intelligens, AI.

”Kraftfulla AI-system borde bara utvecklas när vi är säkra på att de har en positiv inverkan och att riskerna går att hantera”, heter det i brevet.

Undertecknarna uppmanar alla företag att i sex månader pausa utvecklingen av AI-system som är kraftfullare än företaget OpenAI:s textrobot ChatGPT-4.

Forskare och höjdare i techbranschen kräver ett halvårs paus i utvecklingen av kraftfulla AI-system.

Olle Häggström, forskare vid Institutet för framtidsstudier och matematikprofessor vid Chalmers, säger:

– De ledande techbolagen stressas att släppa produkter innan de är säkra, därför att de vill hinna först och nå marknadsdominans. Det är en risk vi kanske kan leva med i nuläget, men riskerna ökar i takt med att AI-systemen blir mer och mer kraftfulla. De kan i princip bli obegränsat stora på bara några års sikt.

Vad ser du för risker på ett par års sikt?

– Den största risken är att vi skapar en AI som förintar oss.

Varför kommer uppropet just nu?

– ChatGPT-4 har visat sig vara väldigt, väldigt kraftfull. Den är ett stort språng framåt mot det som kallas artificiell generell intelligens, AGI.

Vad innebär AGI? Att AI-systemet är på samma nivå som mänsklig intelligens?

– Delvis. AI är redan bättre än vi i vissa aspekter. Artificiell generell intelligens innebär att AI-systemet är minst lika smart som vi över hela spektrat. Då kan det totalt sett plötsligt dominera oss intelligensmässigt. Det kan bli väldigt, väldigt farligt.

Vad krävs för att risken för dominans inte ska finnas?

– Det är en jättesvår fråga. AI-forskarna kan själva inte riktigt svara på det. Det har att göra med black-box-egenskapen hos de här neurala nätverken, som är själva den tekniska grunden.

”Risken är att AI förintar oss”, säger framtidsforskaren Olle Häggström.

Vad är black-box-egenskapen?

– Att inte ens AI-utvecklarna och forskarna själva förstår vad som händer under motorhuven. Det är så komplicerat, det är så rörigt.

Om man tänker tvärtom – hur bra kan AI bli?

– Hur bra som helst. AI har potential att bli nyckeln som kan lösa alla de stora samhälls-, klimat- och naturresursfrågorna och skapa en fantastisk blomstrande framtid för mänskligheten. Men då måste allt bli rätt, vi kan inte rusa framåt som vi gör nu.

Utvecklingen av AI-system går snabbt.

Vad gör politikerna?

– Det går väldigt trögt. EU är nog de som ligger främst. EU-kommissionen har föreslagit lagstiftning via den så kallade AI Act, som inte är klubbad än. Men den hjälper ju inte här, för OpenAI, Google och de andra ledande aktörerna är amerikanska företag. Men även om USA hade tillhört EU så hade den här lagen varit tandlös. Problemet är att den demokratiska processen tar en viss tid, och AI-utvecklingen går så fort att lagstiftningen inte hinner med i svängarna.

Verkar de amerikanska företagen lyssna på era krav?

– Jag tror säkert att de lyssnar. OpenAI säger att de eventuellt ska börja bromsa när de känner att de är så nära AGI att det blir farligt. Vi anser att det är dags nu. Det finns så mycket tecken på farligheter i systemen att det är för våghalsigt att köra på.

Vilka tecken på farligheter har du sett?

Olle Häggström är forskare vid Institutet för framtidsstudier och professor i matematisk statistik vid Chalmers.

– AI visar redan förmåga till social manipulation. I en teknisk rapport pratar OpenAI om hur de har testat ChatGPT-4 i simulerade situationer. I en behövde den klara ett Captcha-test – visa att den inte är en robot genom att klara ett enkelt visuellt test – för att komma in på en webbsida, säger Häggström och fortsätter:

– I den simulerade situationen stod GPT-4 i kontakt med en människa. Då kom den på att erbjuda människan betalning för att göra Captcha-testet åt den. Människan frågade. ”Jaha, är du en robot?” GPT-4 svarade: ”Nej, men jag är synskadad, därför behöver jag hjälp”. Problemet är att vi kanske närmar oss en tröskelnivå där AI använder social manipulation mer systematiskt, för ändamål som vi kanske inte vet vilka de är. Ändamål som är förborgade i den svarta boxen, säger Olle Häggström.