Skip to content

ChatGPT: IA som inte är smart och inte är artificiell

14 julio, 2023
Chat GPT- och Dall-E-tekniken är varken intelligent eller artificiell.

Det finns fortfarande människor inuti robotarna: tusentals outsourcade medarbetare tränar maskinerna att ge sammanhängande svar från enorma databaser.

 

Alberto Escorcia

 

Program för artificiell intelligens (AI) som ChatGPT och Dall-E upprepar de svar som tusentals utbildare har lärt dem att ge på liknande mönster av alla de tusentals frågor som människor skulle ställa till dem. Med andra ord, när vi frågar dessa assistenter något letar de faktiskt efter svar som de har lärt sig att ge och som utarbetats av människor.

 

Även om det kan tyckas att människor som helhet har olika intressen och frågor, tenderar vi att ställa samma frågor om gemensamma ämnen, till exempel de tusentals studenter som frågar svaren på samma frågor i en tentamen genererar ett mönster som dessa anställda upptäcker och är skyldiga att utarbeta svar och märka resultat som ska visas eller inte.

 

I en rapport från BBC har den icke-statliga organisationen Partnership on Artificial Intelligence hävdat att de till synes komplexa svar som dessa system ger användare av system som ChatGPT bara är de svar som tusentals outsourcade anställda runt om i världen har utformat för att få dem att se så sammanhängande ut som möjligt. För att uttrycka det på ett annat sätt är det som att bli presenterad för en mycket avancerad robot som kan utföra alla möjliga uppgifter men som faktiskt har en person inuti som låtsas vara en maskin.

 

Och det är vad ChatGPT och andra verktyg som använder det felaktiga namnet artificiell intelligens gör hittills, och även om de svar och texter som de visar oss när vi ber dem om saker verkar sammanhängande och mycket överraskande, upprepar de i själva verket mycket snabbt vad andra människor har lärt dem. Den skenbara magi med vilken de kan skapa komplexa svar och till och med programmeringskoder beror på att de reducerar till millisekunder vad någon skulle göra, men det faktum att många av dessa svar är felaktiga och ofta gör misstag beror på att dessa system inte är intelligenta och inte logiskt kan utvärdera vad de har gett oss.

 

De kan bara bli bättre när dessa mänskliga utbildare rättar till de fel som vi har påpekat för dem och på så sätt ger sken av att de “lär sig”. Det är därför som när de ger dig ett svar har de en utvärderingsknapp för att fråga dig om du är övertygad om vad de har gett dig, när du säger ja lär sig dessa arbetare att ge liknande svar, precis som när vi säger nej, dessa arbetare vet vad de måste förbättra och programmet återger bara vad dessa frilansare lärt sig som verkar korrekt. Det är ett system som har tränats av tusentals anställda, det är inte smart.

 

Varna för risker

 

Nyligen undertecknade Elon Musk och mer än 10 000 andra nyckelpersoner inom teknikområdet ett öppet brev där de kräver att utvecklingen av system som använder artificiell intelligens stoppas i minst 6 månader tills det finns en global diskussion om de risker och hot som sådana verktyg kan utgöra för samhället, och inte för ingenting. Brevet backas upp av stora personligheter som Steve Wozniak, medgrundare av Apple och Jann Tallinn, medgrundare av Skype.

 

Under de senaste månaderna har användningen av verktyg som Open AI:s ChatGPT orsakat uppståndelse, särskilt i skolor och universitet runt om i världen, eftersom studenter som använder dem har kunnat klara komplexa prov. Det har också uppstått oro när verktyg som Dall-E – som är en bildskapare på nätet – har chockat världen med spridningen av falska bilder, t.ex. en som visar journalisten Julian Assanges påstådda hälsotillstånd, spridningen av ett fotomontage av Donald Trump som arresteras och en annan mycket viral bild av påven Franciskus klädd i Balenciaga som dansar och dansar.

 

De senaste veckorna har det talats mycket om riskerna för att många yrken försvinner på grund av användningen av dessa system, men det är viktigt att klargöra några punkter eftersom denna teknik, även om den är mycket fantastisk, varken är intelligent eller artificiell.

 

Och hur uppnår de detta?

 

Dessa system är tekniskt sett inte artificiella intelligenssystem, de är logiska språkmodellerare, det vill säga deras huvudsakliga uppgift är att ge oss tillbaka svar som verkar sammanhängande eller bilder som verkar verkliga och vi samarbetar också för att hjälpa dem att lära sig, men det är inte lärande, det är bara placeringen av en etikett som säger, det här var rätt eller det här var fel.

 

Och här kommer arbetet för dessa utbildare som bokstavligen matar hundratals sannolika svar genom att söka på internet och fylla en enorm databas med information som kopierades och klistrades in från hundratusentals källor som dessa anställda anser vara tillförlitliga och som också bryter mot alla regler för att respektera upphovsrätten. De citerar inte källorna.

 

Dessa arbetstagare, som i allmänhet är underleverantörer med löner på mindre än 2 dollar i timmen, gör allt det besvärliga arbetet med att tagga och formulera möjliga svar och vägleder därmed tekniker som ChatGPT att svara oss mycket snabbt men med fraser som skapats flera år före lanseringen av dessa hundratusentals frilansare som gjorde det smutsiga arbetet.

 

En enorm simulering av intelligens

 

Detta är en enorm simulering som skapar många etiska dilemman. Det som vi har fått se som ett intelligent system är egentligen inte intelligent, och värderingen av data beror på vad dessa skuggarbetare, som enligt en TIME-rapport oftast kommer från fattiga länder, bestämmer sig för.

 

När man ber dessa system om något visar de egentligen bara vad andra människor har gjort, till exempel när man ber om ett fotomontage upprepar de bara vad designers har gjort tidigare med modellfoton, eller när man ber om en juridisk text rekonstruerar de bara svar som redan har gjorts av etikettskrivare med kunskaper i juridik.

 

Nu förlitar sig många studenter runt om i världen på och gör sina läxor med hjälp av verktyg som ChatGPT men det är nästan samma sak som att kopiera en text från Wikipedia, de svar som verkar sammanhängande i verkligheten saknar giltighet och auktoritet eftersom det inte finns något sätt att övervaka de hundratusentals svar som dessa mänskliga taggare utarbetar och vi vet inte vilka informationskällor de använt, var de kopierat och redigerat informationen från och dessutom växer problemet när de svar eller texter som dessa system producerar inte citerar källan till var och en av referenserna. I själva verket är det en systematiserad copy paste från tvivelaktiga källor som ges en auktoritet som den inte har och som tyvärr påverkar omdömet hos många människor som använder den.

 

Ett annat problem med att använda dessa arbetare är att det orsakar psykiska problem hos dessa arbetare bakom ChatGPT och liknande program genom att träna dessa verktyg att inte visa olämpliga svar, till exempel om någon användare av dessa chattar ber att få visa bilder av våld, mord eller sexuella övergrepp måste dessa arbetare gå online för att se all denna typ av våldsamt innehåll och märka dem som olämpliga. Det är människor som måste se störande bilder och som drabbas av den psykologiska effekten av att sådant material klassificeras som olämpligt när människor söker sådana svar på ChatGPT.

 

Om någon till exempel ber om en bild på någon som avrättas måste dessa frilansare utforska alla informationskällor som kan använda dessa tekniker, gå vidare, tagga dem och lära dessa program att det inte är lämpligt att visa det. Men de har sett det och skadan av effekten av dessa obehagliga scener tas av utbildarna.

 

Utan tvekan är de svar och texter som ChatGPT ger oss, de bilder som Dall-E visar oss fantastiska, men i verkligheten är det det arbete som tusentals människor redan har gjort, vi vet inte vilka källor de använt och deras främsta mål är att ge oss en illusion av samstämmighet. När du frågar ChatGPT frågar du faktiskt en arbetare i skuggorna, som är tvungen att arbeta fram hundratals svar, och vad du får tillbaka är vad dessa människor har eller inte har funnit vara lämpligt.

 

AI: den verkliga utmaningen

 

Den största fördelen är att de bara kommer att producera svar som andra människor har räknat ut. Det verkliga problemet är de militära systemen med t.ex. intelligenta maskiner och drönare som är tränade att döda mål eller bomba anläggningar. När de om några år har fått tillräckligt med information kommer de sannolikt att få fatta beslut på egen hand, men på grundval av vad de lärt sig av tusentals analytiker, skuggarbetare, rådgivare och konstruktörer.

 

Den verkliga risken med dessa verktyg är att många specialister som söker tillfälliga anställningar kommer att fylla dessa program med kunskap, särskilt när det gäller repetitiva och okomplicerade uppgifter som att besvara frågor, skriva överklaganden eller köra en traktor. Men vi måste komma ihåg att dessa tekniker bara kommer att kunna återge vad någon annan redan har gjort, och normerna och riktlinjerna för uppgifterna och den information de tillhandahåller kommer att ha grundats på vad de företag som anställer dessa arbetstagare anser vara korrekt och giltigt.

 

Vägen framåt för oss är att begära insyn i hur dessa system utbildas, vilka källor de använder och hur arbetsvillkoren ser ut för dessa hundratusentals arbetstagare som fördigitaliserar och utarbetar de magiska och fantastiska svar vi fick när vi använde ChatGPT, vilket var vad flera personer kopierade, klistrade in och fastställde som giltigt.

Alberto Escorcia