Genom Future of Life Institute lanserade Elon Musk och andra medlemspersonligheter ett öppet brev som uppmanade till en paus i stora experiment och utvecklingar inom artificiell intelligens. I texten pratar de om farorna med den snabba takt som dessa projekt utvecklas med, till exempel ChatGPT, som har börjat orsaka problem i skolorna eftersom det kan lösa fullständiga tentor. Tja, de hävdar att denna teknik kan användas i utvecklingen av stora oupptäckbara desinformationsoperationer.
Brevet, som kan undertecknas av vem som helst, fokuserar på hur farlig artificiell intelligens kan vara för samhället och efterlyser mer transparens i marknadsföringen. Nedan sammanfattar vi brevet i 10 punkter:
Avancerade artificiella intelligenssystem utgör ett enormt hot mot människors säkerhet och integritet.
Storskaliga AI-experiment kan få oförutsägbara konsekvenser och vara farliga för samhället.
Avancerad AI kan ha oönskade och oförutsedda biverkningar.
AI:s komplexitet och osäkerhet gör det svårt att bedöma dess risker.
AI ska inte ses som en kapprustning där länder tävlar om att utveckla allt mer avancerade system.
AI-experter måste vidta åtgärder för att säkerställa säkerheten för avancerade AI-system.
Avancerade AI-experiment måste utvärderas och regleras på ett ansvarsfullt sätt för att minimera riskerna.
AI-experiment måste vara transparenta och tillgängliga
AI-forskning bör fokusera på att utveckla system som är säkra och fördelaktiga för samhället.
AI-experter måste arbeta tillsammans för att säkerställa att det utvecklas ansvarsfullt och säkert.