Riskerna med artificiell intelligens kan verka skrämmande. Vad händer med människor som förlorar sina jobb till en intelligent maskin? Kan AI påverka utgången av ett val? Vad händer om en framtida AI bestämmer sig för att den inte längre behöver människor och vill göra sig av med oss?
Alla dessa frågor är berättigade och måste tas på allvar. Men det finns goda skäl att tro att vi kan stå emot dem: Det här är inte första gången som en stor innovation introducerar nya hot som måste kontrolleras. Vi har gjort det förut.
Oavsett om det handlade om introduktionen av bilar eller uppkomsten av persondatorer och Internet, har människor genomlevt andra tider av omvandling och, trots mycket turbulens, kommit bättre ut i slutändan. Strax efter att de första bilarna dök upp inträffade den första trafikolyckan. Men vi förbjöd inte bilar: vi införde hastighetsbegränsningar, säkerhetsregler, körkortskrav, lagar om rattfylleri och andra trafikregler.
Vi befinner oss nu i den första fasen av en annan djupgående förändring, den artificiella intelligensens era. Den är analog med de osäkra tiderna före hastighetsbegränsningar och säkerhetsbälten. AI förändras så snabbt att det är oklart vad som kommer att hända härnäst. Vi står inför stora frågor som väcks av hur dagens teknik fungerar, hur människor kommer att använda den med dåliga avsikter och på vilket sätt AI kommer att förändra oss som samhälle och som individer.
I en tid som denna är det naturligt att känna sig orolig. Men historien visar att det är möjligt att lösa de utmaningar som ny teknik skapar.
Jag har tidigare skrivit om hur AI kommer att revolutionera våra liv. Den kommer att bidra till att lösa problem – inom hälsovård, utbildning, klimatförändringar och andra områden – som tidigare verkade olösliga. Gates Foundation prioriterar AI, och vår vd Mark Suzman berättade nyligen hur han ser på AI:s roll när det gäller att minska ojämlikheten.
Jag kommer att prata mer om fördelarna med AI i framtiden, men i det här inlägget vill jag ta upp de farhågor som jag oftast hör och läser om, varav många delas av mig, och förklara hur jag tänker kring dem.
En sak som framgår tydligt av allt som hittills har skrivits om riskerna med AI – och mycket har skrivits – är att ingen har alla svar. En annan sak som är tydlig för mig är att framtiden för AI inte är så dyster som vissa människor tror, och inte heller så rosenröd som andra. Riskerna är verkliga, men jag är optimistisk om att de kan hanteras. När jag tittar på varje problem kommer jag att återkomma till några av frågorna:
Många av de problem som AI orsakar har ett historiskt prejudikat. Den kommer till exempel att ha en stor inverkan på utbildningen, men det hade även handhållna miniräknare för några decennier sedan, och på senare tid har datorer tillåtits i klassrummen. Vi kan lära oss av vad som har fungerat tidigare.
Många av de problem som AI orsakar kan också hanteras med dess hjälp.
Vi kommer att behöva anpassa gamla lagar och anta nya, precis som befintliga bedrägeribekämpningslagar måste anpassas till onlinevärlden.
I det här inlägget kommer jag att fokusera på de risker som redan finns, eller snart kommer att finnas. Jag tänker inte prata om vad som kommer att hända när vi utvecklar en artificiell intelligens som kan lära sig vilket ämne eller vilken uppgift som helst, till skillnad från dagens artificiella intelligenser. Oavsett om vi når den punkten om ett decennium eller ett århundrade kommer samhället att ställas inför djupgående frågor: Vad händer om en super-AI sätter upp sina egna mål? Vad händer om de står i konflikt med mänsklighetens mål? Bör vi skapa en super-AI?
Men att tänka på dessa långsiktiga risker bör inte ske på bekostnad av de mer omedelbara riskerna. Jag kommer att ta upp dem nu.
AI-genererade förfalskningar och felaktig information kan undergräva val och demokrati.
Tanken att teknik kan användas för att sprida lögner och osanningar är inte ny. Människor har gjort det i århundraden med böcker och pamfletter. Det blev mycket enklare med ordbehandlare, laserskrivare, e-post och sociala medier.
AI tar detta problem med falsk text och utvidgar det, så att praktiskt taget vem som helst kan skapa falska ljud- och videoinspelningar, så kallade deepfakes. Om du får ett röstmeddelande som låter som om ditt barn säger “Jag har blivit kidnappad, skicka 1 000 dollar till det här bankkontot inom 10 minuter och ring inte polisen”, kommer det att ha en fruktansvärd känslomässig inverkan som är långt större än effekten av ett e-postmeddelande som säger samma sak.
I större skala skulle AI-genererade deepfakes kunna användas för att försöka påverka ett val. Det krävs naturligtvis inte sofistikerad teknik för att ifrågasätta den legitima vinnaren av ett val, men AI kommer att göra det enklare.
Falska videor med fabricerade bilder av välkända politiker finns redan. Tänk dig att det på morgonen efter ett stort val sprids en video som visar hur en av kandidaterna rånar en bank. Den är falsk, men det tar flera timmar för medierna och kampanjen att bevisa det. Hur många människor kommer att se den och ändra sin röst i sista minuten? Det kan vara avgörande, särskilt i ett jämnt val.
När OpenAI:s medgrundare Sam Altman nyligen vittnade inför ett utskott i den amerikanska senaten fokuserade senatorer från båda partierna på AI:s inverkan på val och demokrati. Jag hoppas att den här frågan fortsätter att hamna högt upp på allas agendor.
Vi har verkligen inte löst problemet med desinformation och deepfakes. Men det finns två saker som gör mig försiktigt optimistisk. Den ena är att människor kan lära sig att inte ta allting för vad det är. Under flera år gick e-postanvändare på bedrägerier där någon utgav sig för att vara en nigeriansk prins och utlovade en stor belöning i utbyte mot att man lämnade sitt kreditkortsnummer. Men med tiden lärde sig de flesta att titta två gånger på dessa e-postmeddelanden. I takt med att bedrägerierna blev mer sofistikerade blev också många av deras måltavlor det. Vi måste göra samma sak med deepfakes.
En annan sak som ger mig hopp är att AI kan hjälpa till att identifiera deepfakes, och även skapa dem. Intel har till exempel utvecklat en deepfake-detektor, och den statliga myndigheten DARPA arbetar med teknik för att identifiera om video eller ljud har manipulerats.
Det kommer att vara en cyklisk process: Någon hittar ett sätt att upptäcka deepfakes, någon annan kommer på hur man kan motverka dem, någon annan utvecklar motåtgärder och så vidare. Det kommer inte att bli en perfekt framgång, men vi kommer inte heller att vara försvarslösa.
AI gör det lättare att genomföra attacker mot människor och regeringar.
När hackare idag vill hitta exploaterbara buggar i programvara gör de det med brute force, genom att skriva kod som träffar potentiella svagheter tills de upptäcker en väg in. Detta kräver en hel del återvändsgränder, vilket kräver tid och tålamod.
Säkerhetsexperter som vill motverka hackare måste göra samma sak. Varje programuppdatering som du installerar på din telefon eller laptop representerar många timmars sökande, av människor med både goda och dåliga avsikter.
AI-modeller kommer att påskynda denna process genom att hjälpa hackare att skriva mer effektiv kod. De kommer också att kunna använda offentlig information om människor, t.ex. var de arbetar och vilka deras vänner är, för att utveckla mer avancerade nätfiskeattacker än vad de gör idag.
Den goda nyheten är att AI kan användas för både bra och dåliga syften. Säkerhetsteam inom den offentliga och privata sektorn måste ha de senaste verktygen för att hitta och åtgärda säkerhetsbrister innan brottslingar kan utnyttja dem. Jag hoppas att programvarusäkerhetsbranschen kommer att utöka det arbete som den redan gör på den här fronten: det borde vara en av dess viktigaste frågor.
Det är också därför vi inte bör försöka att tillfälligt hindra människor från att genomföra nya utvecklingar inom AI, som vissa har föreslagit. Cyberbrottslingar kommer inte att sluta skapa nya verktyg. Inte heller människor som vill använda AI för att utforma kärnvapen och bioterroristattacker. Arbetet med att stoppa dem måste fortsätta i oförminskad takt.
Det finns en relaterad risk på global nivå: en kapprustning om AI som kan användas för att utforma och genomföra cyberattacker mot andra länder. Alla regeringar vill ha den mest kraftfulla tekniken så att de kan avskräcka attacker från sina motståndare. Detta incitament att inte låta någon komma före dem kan utlösa en kapplöpning för att skapa allt farligare cybervapen. Alla skulle bli förlorare.
Det är en skrämmande tanke, men vi har historien att luta oss mot. Även om det globala systemet för icke-spridning av kärnvapen har sina brister, har det förhindrat det totala kärnvapenkrig som min generation fruktade när de växte upp. Regeringarna bör överväga att skapa en global myndighet för AI, liknande Internationella atomenergiorganet.
AI kommer att ta människors jobb.
Under de kommande åren kommer den främsta effekten av AI på jobbet att vara att hjälpa människor att utföra sina jobb mer effektivt. Det gäller oavsett om man arbetar i en fabrik eller på ett kontor med säljsamtal och leverantörsreskontra. Så småningom kommer AI att vara så bra på att uttrycka idéer att den kan skriva dina e-postmeddelanden och hantera din inkorg åt dig. Den kommer att kunna skriva en ansökan på enkel engelska, eller något annat språk, och generera en innehållsrik presentation om ditt arbete.
Som jag sa i mitt inlägg i februari är det bra för samhället att produktiviteten ökar. Människor har mer tid att göra andra saker, både på jobbet och hemma. Och efterfrågan på människor som hjälper andra – undervisar, vårdar patienter och hjälper äldre, till exempel – kommer aldrig att försvinna. Men det är säkert att vissa arbetstagare kommer att behöva stöd och omskolning när vi övergår till en AI-driven arbetsplats. Det är en uppgift för regeringar och företag, och de kommer att behöva hantera detta på ett bra sätt så att arbetstagarna inte lämnas efter, för att undvika den typ av störningar i människors liv som har inträffat under nedgången av tillverkningsjobb i USA.
Tänk också på att detta inte är första gången som en ny teknik har orsakat en stor förändring på arbetsmarknaden. Jag tror inte att AI kommer att få lika dramatiska effekter som den industriella revolutionen, men det kommer säkert att bli lika stort som när datorn introducerades. Ordbehandlingsprogram dödade inte kontorsarbetet, men de förändrade det för alltid. Arbetsgivare och anställda var tvungna att anpassa sig, och det gjorde de. Den förändring som AI för med sig kommer att bli en skakig övergång, men det finns all anledning att tro att vi kan minska störningarna i människors liv och försörjning.
AI ärver våra fördomar och uppfinner saker.
Hallucinationer – en term som används när en AI självsäkert påstår något som inte är sant – uppstår ofta för att maskinen inte förstår sammanhanget för begäran. Om du ber en AI att skriva en novell om en semester på månen kan den ge dig ett mycket fantasifullt svar. Men om du ber den hjälpa dig att planera en resa till Tanzania kan den försöka skicka dig till ett hotell som inte existerar.
En annan risk med artificiell intelligens är att den kan återspegla eller till och med förvärra befintliga fördomar mot personer med vissa könsidentiteter, raser, etniciteter och så vidare.
För att förstå varför hallucinationer och fördomar uppstår är det viktigt att veta hur de vanligaste AI-modellerna fungerar idag. I grund och botten är de mycket sofistikerade versioner av den kod som gör att ditt e-postprogram kan förutse nästa ord du kommer att skriva: De skannar enorma mängder text – i vissa fall nästan allt som finns tillgängligt på internet – och analyserar den för att hitta mönster i det mänskliga språket.
När du ställer en fråga till en AI undersöker den vilka ord du har använt och letar efter textstycken som ofta förknippas med dessa ord. Om du skriver “lista ingredienserna i pannkakor” kommer den att märka att orden “mjöl, socker, salt, bakpulver, mjölk och ägg” ofta förekommer i den meningen. Sedan genererar den ett svar baserat på vad den vet om i vilken ordning dessa ord vanligtvis förekommer. (AI-modeller som arbetar på detta sätt använder vad som kallas en transformator. GPT-4 är en sådan modell).
) Denna process förklarar varför en AI kan uppleva hallucinationer eller verka partisk. Den har inget sammanhang för de frågor du ställer till den eller de saker du säger till den. Om du säger till den att den har gjort ett misstag kommer den att säga: “Förlåt, jag stavade fel”. Men det är en hallucination: han har inte skrivit någonting. Han säger det bara för att han har skannat tillräckligt med text för att veta att “Förlåt, jag stavade fel” är en fras som människor ofta skriver efter att någon har rättat dem.
På samma sätt ärver modeller för artificiell intelligens fördomarna i den text de har tränats på. Om du läser mycket om t.ex. läkare och texten nämner flest manliga läkare kommer dina svar att utgå från att de flesta läkare är män.
Även om vissa forskare anser att hallucinationer är ett inneboende problem, håller jag inte med. Jag är optimist och tror att AI-modeller med tiden kan läras att skilja fakta från fiktion. OpenAI gör till exempel ett lovande arbete på den här fronten.
Andra organisationer, som Alan Turing Institute och National Institute of Standards and Technology, arbetar med problemet med partiskhet. Ett tillvägagångssätt är att införliva mänskliga värderingar och resonemang på hög nivå i AI. Det är analogt med hur en självmedveten människa fungerar: Han kanske tar för givet att de flesta läkare är män, men han är tillräckligt medveten för att veta att han måste bekämpa det avsiktligt. Artificiell intelligens kan fungera på ett liknande sätt, särskilt om modellerna utformas av människor med olika bakgrund.
Slutligen måste alla som använder AI vara medvetna om problemet med partiskhet och bli informerade användare. De formuleringar som du ber en AI att skriva kan vara lika fulla av fördomar som av faktafel. Du måste kontrollera både AI:ns och dina egna fördomar.
Eleverna kommer inte att lära sig skriva eftersom AI:n kommer att göra jobbet åt dem.
Många lärare oroar sig för hur AI kommer att underminera deras arbete med eleverna. I en tid då alla med tillgång till internet kan använda AI för att skriva ett respektabelt första utkast till en uppsats, vad hindrar då eleverna från att lämna in det som sitt eget arbete?
Det finns redan AI-verktyg som lär sig att skilja på om något har skrivits av en person eller en dator, så att lärare kan se när deras elever inte gör sitt eget arbete. Men vissa lärare försöker inte hindra sina elever från att använda AI i sitt skrivande, de uppmuntrar det snarare.
I januari skrev den erfarna engelskläraren Cherie Shields en artikel i Education Week om hur hon använder ChatGPT i sitt klassrum. Hon har hjälpt sina elever med allt från att starta en uppsats till att skriva dispositioner och till och med ge dem feedback på deras arbete.
“Lärare kommer att behöva se AI-tekniken som ännu ett verktyg som eleverna har tillgång till”, skrev han. “Precis som vi brukade lära eleverna hur man gör en korrekt Google-sökning bör lärarna utforma tydliga lektioner om hur ChatGPT-boten kan hjälpa till med uppsatsskrivandet.” Att erkänna förekomsten av AI och hjälpa eleverna att arbeta med den kan revolutionera vårt sätt att undervisa.” Alla lärare har inte tid att lära sig och använda ett nytt verktyg, men lärare som Cherie Shields menar att de som har det kommer att ha stor nytta av det.
Det påminner mig om den tid då elektroniska miniräknare blev vanliga på 1970- och 1980-talet. Vissa matematiklärare var oroliga för att eleverna skulle sluta lära sig grundläggande aritmetik, men andra välkomnade den nya tekniken och fokuserade på tankeförmågan bakom aritmetiken.
Det finns ett annat sätt som AI kan hjälpa till med skrivande och kritiskt tänkande. Särskilt i början, när vanföreställningar och fördomar fortfarande är ett problem, kan lärare låta AI generera artiklar och sedan arbeta med sina elever för att faktagranska dem. Ideella utbildningsorganisationer som Khan Academy och OER Project, som jag finansierar, erbjuder kostnadsfria onlineverktyg för lärare och elever som lägger stor vikt vid faktagranskning av påståenden. Få färdigheter är viktigare än att veta vad som är sant och vad som är falskt.
Vi måste se till att programvara för utbildning bidrar till att minska klyftan mellan elevernas prestationer, snarare än att förvärra den. Dagens programvara är främst inriktad på att stärka elever som redan är motiverade. Den kan ta fram en studieplan åt dig, hänvisa dig till bra resurser och bedöma dina kunskaper. Men den vet fortfarande inte hur man lockar in dig i ett ämne som inte intresserar dig. Det är ett problem som utvecklarna måste lösa så att alla typer av elever kan dra nytta av AI.
Vad är framtiden?
Jag tycker att det finns mer än tillräckligt med skäl att vara optimistisk och tro att vi kan hantera riskerna med AI och samtidigt maximera dess fördelar. Men vi måste agera snabbt.
Regeringarna måste bygga upp expertis inom artificiell intelligens så att de kan ta fram välgrundade lagar och förordningar som svarar mot den nya tekniken. De kommer att behöva hantera felaktig information och förfalskningar, säkerhetshot, förändringar på arbetsmarknaden och effekterna på utbildningen. För att bara nämna ett exempel: Lagen måste vara tydlig när det gäller vilken användning av förfalskningar som är laglig och hur de ska märkas så att alla förstår när något de ser eller hör inte är äkta.
Politiska ledare måste vara beredda att föra en informerad och genomtänkt dialog med sina väljare. De måste också besluta i vilken utsträckning de ska samarbeta med andra länder i dessa frågor och i vilken utsträckning de ska gå vidare på egen hand.
Inom den privata sektorn måste företagen inom artificiell intelligens arbeta på ett säkert och ansvarsfullt sätt. Detta innefattar att skydda människors integritet, se till att deras AI-modeller återspeglar grundläggande mänskliga värderingar, minimera partiskhet, utvidga fördelarna till så många människor som möjligt och förhindra att tekniken används av brottslingar eller terrorister. Företag inom många sektorer av ekonomin kommer att behöva hjälpa sina anställda att övergå till en AI-centrerad arbetsplats så att ingen lämnas på efterkälken. Och kunderna ska alltid veta när de interagerar med en AI och inte med en människa.
Slutligen uppmuntrar jag alla att följa AI-utvecklingen så mycket som möjligt. Det är den mest omvälvande innovation vi kommer att se under vår livstid, och en sund offentlig debatt kommer att vara beroende av att alla känner till tekniken, dess fördelar och dess risker. Fördelarna kommer att vara enorma, och det bästa skälet att tro att vi kan hantera riskerna är att vi har gjort det förut.
Bill Gates
Ursprungligen publicerad på Bill Gates blogg, Gates Notes
Mer om artificiell intelligens på LQSTV