OpenAI, uzsākot nākamā MI modeļa apmācības, ir izveidojuši Safety and Security Committee, ko vadīs Sems Altmens un citi.
Microsoft pārstāvētie OpenAI tērzēšanas roboti ar ģeneratīvā mākslīgā intelekta (MI) spējām, piemēram, dalība cilvēkiem tipiskās sarunās vai attēlu izveidošana, ir sacēluši bažu vētru. Modeļi kļuvuši tik jaudīgi, ka liek uztraukties par drošību.
Jaunā komitejas atbildība būs ieteikumu izvirzīšana par drošību un ar to saistītiem lēmumiem priekš OpenAI projektiem un darbībām. “Jauna drošības komiteja norāda uz OpenAI kļūšanu par komerciālu vienību no vairāk nedefinētas bezpeļņas organizācijas,” saka D.A Davidson rīkotājdirektors Gils Lurija. “Tam vajadzētu palīdzēt racionalizēt produktu izstrādi, vienlaikus saglabājot atbildību.”
Bijušais galvenais zinātnieks Iļja Sutskevers un Džans Leike, kuri bija OpenAI Superalignment komandas līderi, firmu pameta jau šomēnes. Komandas darbs bija nodrošināt, ka MI saglabā savus iecerētos mērķus.
Uzņēmums izjauca Superalignment komandu maija sākumā, tas ir, mazāk kā gadu pēc tās izveidošanas. Daži no komandas dalībniekiem tika piesaistīti citām grupām.
Komitejas pirmais uzdevums būs nākamo 90 dienu laikā izpētīt un turpināt attīstīt OpenAI esošās drošības prakses, tālāk novirzot ieteikumus valdei. Pēc valdes apskates uzņēmums publiski paziņos par pieņemtajiem jauninājumiem.
Uzņēmums konsultēs arī citus ekspertus, piemēram, Robu Džoisu, bijušo ASV Nacionālās drošības aģentūras kiberdrošības direktoru. Kā arī Džonu Karlinu, bijušo Tieslietu departamenta ierēdni.
Uzņēmums nedalījās ar detaļām par jauno modeli, kas šobrīd tiek apmācīts. Vienīgais zināmais pavediens ir tas, ka modelis aizvedīs sistēmas uz “nākamo līmeni mūsu ceļā uz AGI (Artificial general intelligence).”
Avots: Reuters