AI-tekniken riskerar göra oss dummare

Forskare: Nya tjänster som Chat GPT konkurrerar med det mänskliga förståndet

Detta är en debattartikel. Det är skribenten som står för åsikterna som förs fram i texten, inte Aftonbladet.

Publicerad 2023-03-02

Chat GPT och motsvarande AI-verktyg levererar enkel och billig problemlösning som konkurrerar med praktiskt taget varje aspekt av det mänskliga förståndet. Det är alltså fullt tänkbart att den mänskliga kompetensen i förlängningen undanträngs, skriver fem forskare vid Uppsala universitet.

DEBATT. Reaktionerna på den nyligen lanserade AI-drivna chatboten Chat GPT har varit minst sagt blandade.

En del röster betonade att teknologin redan används för att fuska i skolor och på universitet. Andra ser stora möjligheter att spara in arbetstid och frigöra kreativ mänsklig arbetsförmåga från repetitivt arbete, medan en del forskare lägger fokus på hur denna teknologi hotar att göra ett brett spektrum av yrkesgrupper föråldrade.

Det finns dock en ytterligare och potentiellt betydligt mer allvarlig kategori av problem som går långt bortom störningar på rent institutionell nivå.

Detta har bland annat fångats upp av kritiker som betonar hur den här typen av verktyg kan underminera människans kreativa och analytiska förmågor. Här finns paralleller till resonemanget i Nicholas Carrs omtalade artikel ”Is Google making us stupid?”, och samma argument går att tillämpa till stöd för en försiktighetsprincip som förhållningssätt till Chat GPT och liknande teknologier som DALL-E-2, LamDa, Bard med flera.

Med stöd i den neurovetenskapliga forskningen hävdar Carr att informationsteknologin får konkreta effekter på människans kognitiva processer och förmågor.

Ett exempel är att vår förmåga att minnas information tycks påverkas av sökmotorernas lättillgänglighet. Ett annat exempel är hur digitalt läsande förändrar det sätt på vilket vi tolkar och tar emot textinformation.

Risken vi ser med Chat GPT och motsvarande verktyg är att de komplexa och unikt mänskliga förmågor som har att göra med intellektet, beslutsfattandet, det konstnärliga skapandet och det kritiska tänkandet nu kan hotas på ett mycket mer direkt sätt än tidigare. 

Problemet ligger just i vad som är teknologins stora fördelar – dess mångsidighet och närmast universella användbarhet.

Vi skulle förvisso kunna få ögonblicklig och kostnadsfri rådgivning inom rättsfrågor, politiska beslut, i kostfrågor; vi skulle kunna få psykologiskt och medicinskt stöd i enlighet med den senaste forskningen. Men det här är inte bara en miniräknare som på sin höjd kan hota undantränga en begränsad aspekt av människans kognitiva verktygslåda.

Det här är en digital schweizisk armékniv för enkel och billig problemlösning som konkurrerar med praktiskt taget varje aspekt av det mänskliga förståndet.

Det är alltså fullt tänkbart att den mänskliga kompetensen i förlängningen undanträngs inom områden som är centrala för människans självständiga agens, både för oss som enskilda individer och som medborgare i ett demokratiskt samhälle.

Och inte nödvändigtvis för att den digitala ersättaren ger ett bättre resultat, utan för att dessa lösningar uppenbarligen kommer att bli enklare och mer kostnadseffektiva att implementera på kort sikt.

Tjänsten har redan nu exempelvis använts av en domare i den colombianska staden Cartagena som ett beslutsstöd när han skulle bedöma huruvida sjukförsäkringen skulle täcka kostnaden för medicineringen av ett autistiskt barn.

I Sverige skulle sådan teknik eventuellt kunna användas, inte bara som beslutsstöd, utan även för att ta myndighetsbeslut, då såväl förvaltningslagen som kommunallagen uttryckligen tillåter automatiserat beslutsfattande.

På sikt kan stora delar av myndigheternas kvalificerade beslutsfattande kunna komma att överföras från tjänstemän och förtroendevalda till AI-verktyg.

Men givet förutsättningen att alla mänskliga färdigheter kräver träning, ibland många tusentals timmar, och att en förvärvad färdighet även behöver underhållas och praktiseras i en komplex och varierande verklighet – borde inte riskerna med att ersätta mänskliga aktiviteter med AI tas på betydligt större allvar? 

Vad skulle en bred introduktion av denna typ av teknologi inom alla dessa områden kunna leda till? Vad skulle en förlust av en stor del av den mänskliga kompetensen inom dessa områden kunna leda till i samhället i stort och på lång sikt? 

I stället för träning och underhåll av färdigheter appellerar nämligen dessa verktyg till människans bekvämlighet och vår benägenhet att utveckla vanor – ibland dåliga vanor.

I stället för att självständigt undersöka en fråga och sakta sträva efter sanningen erbjuds ett snabbspår till visserligen ibland användbara svar, men utan att vi behöver träna, forska eller resonera kring frågan.

Ulf Danielsson, professor i teoretisk fysik, gör den relevanta iakttagelsen att forskningen redan i dag i större utsträckning reproducerar kunskap än gör revolutionerande upptäckter. 

På lång sikt verkar denna utveckling bädda för en radikal kognitiv osjälvständighet hos medborgaren med oöverblickbara konsekvenser för vad vi känner som liberal demokrati, och alla dess inbyggda säkerhetsmekanismer för att trygga våra grundläggande fri- och rättigheter.

Sammantaget utgör utvecklingen ett tydligt hot mot både individens och kollektivets förmåga att på egen hand fatta rationella beslut.

Även våra moraliska och medborgerliga dygder bygger på mångårig träning och livslångt lärande. Men om våra möjligheter till övande och utövande av våra färdigheter minskas på grund av en mer heltäckande användning av generativ AI finns en verklig fara att själva grunden till människans samlade förmågor utarmas, och därmed också hennes möjligheter att självständigt delta i demokratiska beslutsprocesser.


Forskargruppen i WASP-HS-projektet ”The artificial public servant”, CRS, Uppsala universitet:
Sandra Friberg, docent i civilrätt, lektor på juridiska institutionen, Uppsala Universitet
Lars Karlander, jur.dr i konstitutionell rätt
Yulia Razmetaeva, jur.dr, gästforskare på CRS
Johan Eddebo, fil.dr i religionsfilosofi
Oliver Li, fil.dr i religionsfilosofi, präst i Svenska kyrkan

CHATTA: Vågar vi lita på AI-tekniken?

Denna chatt är stängd.

  • Kristofer Forssblad-Olsson
    2 mars 2023

    Nu stänger vi chatten för den här gången. Stort tack till er som var med och tyckte till!

  • 2 mars 2023

    Arbetet mellan utvecklare o målgrupp måste vara tätare för att det ska fungera bra. AI är fortfarande i ett tidigt utvecklingsskede och bör betraktas så. AI utvecklas idag för att testa dess gränser och möjligheter primärt.

    JJ
  • 2 mars 2023

    Inget att oroa sig för.

    Evolutionen fortgår oavsett vad vi tycker eller tror.

    Tomas
  • 2 mars 2023

    Jag tror inte det är AI den största risken just nu, i alla fall.

    Faran är den enorma enkelriktning av information av bland annat riktiga nyheter, blandade med falska nyheter, skapade för att uppnå ett visst mål, t.ex. hjärntvätt av medborgaren.

    Alla och under alla år som människa har funnits har makthavarna styrt den stora massan genom att ingjuta skräck baserad på olydnad gentemot makthavaren.

    Se religioner, herravälden, kungariken, etc.

    Medel för att uppnå detta är att försöka förhindra att individen tänker självständigt via

    olika påtryckningsmetoder.

    Så sker även idag i försöket

    Libero Viero
  • 2 mars 2023

    Jag tror forskarna har rätt. Unga i dag är inte vana att söka efter information, allt finns på nätet. Med AI blir det ännu värre.

    Klas


Häng med i debatten och kommentera artikeln
– gilla Aftonbladet Debatt på Facebook.