Genom Future of Life Institute ett öppet brevtill exempel ChatGPT, som har börjat orsaka problem i skolorna eftersom det kan lösa fullständiga tentor. Tja, de hävdar att denna teknik kan användas i utvecklingen av stora oupptäckbara desinformationsoperationer. lanserade Elon Musk och andra medlemspersonligheter som uppmanade till en paus i stora experiment och utvecklingar inom artificiell intelligens. I texten pratar de om farorna med den snabba takt som dessa projekt utvecklas med,
Brevet, som kan undertecknas av vem som helst, fokuserar på hur farlig artificiell intelligens kan vara för samhället och efterlyser mer transparens i marknadsföringen. Nedan sammanfattar vi brevet i 10 punkter:
Avancerade artificiella intelligenssystem utgör ett enormt hot mot människors säkerhet och integritet.
Storskaliga AI-experiment kan få oförutsägbara konsekvenser och vara farliga för samhället.
Avancerad AI kan ha oönskade och oförutsedda biverkningar.
AI:s komplexitet och osäkerhet gör det svårt att bedöma dess risker.
AI ska inte ses som en kapprustning där länder tävlar om att utveckla allt mer avancerade system.
AI-experter måste vidta åtgärder för att säkerställa säkerheten för avancerade AI-system.
Avancerade AI-experiment måste utvärderas och regleras på ett ansvarsfullt sätt för att minimera riskerna.
AI-experiment måste vara transparenta och tillgängliga
AI-forskning bör fokusera på att utveckla system som är säkra och fördelaktiga för samhället.
AI-experter måste arbeta tillsammans för att säkerställa att det utvecklas ansvarsfullt och säkert.
