OpenAI un Google DeepMind darbinieki brīdina par MI riskiem

Gan bijušie, gan esošie MI uzņēmumu, piemēram, Google DeepMind darbinieki brīdina par strauji augošās tehnoloģijas riskiem.

Atvērto vēstuli izveidojusi grupa ar 11 esošiem un bijušiem OpenAI, vienu esošu un vienu bijušu Google DeepMind darbinieku. Tajā ziņots, ka mākslīgā intelekta (MI) uzņēmumu finansiālajos mērķos iztrūkst efektīva uzraudzība.

“Mēs uzskatām, ka korporatīvas pārvaldības struktūras nav pietiekami, lai to mainītu,” tika minēts vēstulē. Tālāk tiek pieminēti neuzraudzīta MI iespējamie riski, kas sākas no dezinformācijas izplatības līdz neatkarīgu MI sistēmu zaudēšanai. Kā arī risks attīstīt eksistējošas nevienlīdzības, kas varētu rezultēties “cilvēces izmiršanā”.

Pētnieki ir atraduši piemērus ar attēlu ģeneratoriem no uzņēmumiem kā OpenAI un Microsoft, kas, neskatoties uz likumiem pret šādām darbībām, veido ar balsošanu saistītas dezinformācijas saturu. 

MI uzņēmumiem ir “vājas obligācijas” kopīgot informāciju ar valdību par savu sistēmu spējām un ierobežojumiem. Vēstulē arī minēts, ka nevar paļauties, ka šādi uzņēmumi brīvprātīgi dalīsies ar tāda veida informāciju. 

Atvērtā vēstule ir pēdējais, kas aktualizē bažas par drošību. Tiek apspriestas ģeneratīvā MI tehnoloģijas, kas spēj lēti radīt cilvēkam līdzīgi rakstītu tekstu, attēlus un audio. 

Grupa mudina MI uzņēmumus atvieglot procesu, lai gan esošie, gan bijušie darbinieki varētu izvirzīt ar risku saistītās bažas un nepiemērot konfidencialitātes līgumus, kas liedz izteikt kritiku. 

Atstatus – Sema Altmana vadītā firma ceturtdien sacīja, ka ir pārtraukusi piecas slepenas ietekmes operācijas, ko mērķis bija izmantot mākslīgā intelekta modeļus “maldinošai darbībai” visā internetā. 

Avots: TheStar

Dalies :

Facebook
Twitter
LinkedIn
Pinterest

Atbildēt

Jaunākie apskati
Tev varētu interesēt