OpenAI robotam ChatGPT juridiskas problēmas nav svešas. Taču tagad lieta ir nopietna: robots izdomā informāciju un pasniedz to kā patiesu.
Aiz šīs sūdzības stāv privātuma tiesību grupa noyb. Tiek izcelta situācija, kad nenosaukta publiska persona pajautāja ChatGPT par savu dzimšanas dienas datumu un pretī saņēma nepatiesu atbildi.
Jau gadiem ChatGPT un citi līdzīgi ģeneratīvā mākslīgā intelekta (MI) rīki nav pratuši apstādināt savu tieksmi melot pat vienkāršu sarunu laikā. Ar jauno sūdzību ir risks saskarties ar juridiskām sekām par neprecīzu personas datu saglabāšanu.
Par ko ChatGPT tiek apsūdzēts?
Termins “AI hallucination” jeb “MI halucinācija” norāda uz jebkāda veida nepatiesu vai maldinošu rezultātu, ko MI var ģenerēt. Tā kā tie visi ir lielo valodu modeļi, tie ir trenēti, izmantojot lielus datu apjomus, ko tālāk var replicēt vai pārkārtot it kā autentiskos veidos. Tiesa, modeļu prioritāte bieži vien ir ticamība, nevis fakti.
Vienā no spilgtākajiem piemēriem, Google tērzēšanas robots – Bard – sniedza nepatiesu atbildi savas pirmizrādes laikā, kas notika 2023. gada februārī. Robots nepatiesi apgalvoja, ka Džeimsa Veba kosmiskais teleskops ir uzņēmis pirmos foto ar planētu, kas atrodas ārpus mūsu saules sistēmas.
Šīs halucinācijas var būt tik pat primitīvas kā ChatGPT nevēlēšanās atzīt, ka tas nezina publiskas personības dzimšanas dienu. Tā ir liela problēma rīkam, kas it kā spēj tikt galā ar vienkāršiem uzdevumiem. Tiek cerēts ar sūdzību vērsties tiesā pret uzņēmumu, lai atrisinātu problēmu.
“Ir skaidrs, ka uzņēmumi šobrīd nespēj panākt, ka roboti kā ChatGPT ievēro ES likumu, apstrādājot indivīdu datus. Ja sistēma nevar izstrādāt precīzus un patiesus rezultātus, to nevar izmantot, lai ģenerētu datus par indivīdiem. Tehnoloģijai ir jāatbilst juridiskajām prasībām, nevis otrādāk,” saka Martjē de Grāfs, noyb datu aizsardzības jurists.
Kāpēc šis ir svarīgi?
Noyb projekts – kā nosaukums ir abreviatūra “none of your business” (nav tava darīšana) – ir bezpeļņas organizācija vērsta uz komerciālā privātuma problēmām Eiropas līmenī, tas ir, privātpersonas digitālo tiesību pārkāpumiem no uzņēmumu un korporāciju puses.
Sakarā ar 2018. gadā pieņemto ES GDPR (Vispārīgā datu aizsardzības regula), aktīvisti kā noyb var izcelt lielākos privātuma pārkāpumus, kas spēj ietekmēt Eiropas iedzīvotājus.
Nespēja pakļauties GDPR var rezultēties sodā, kas mērāms līdz pat 4% no globālā gada apgrozījuma. Pareizs GDPR nolēmums var kalpot kā vadlīnija visu ģeneratīvā MI robotu pielietojumam, ne tikai standarta ChatGPT.
Vai MI un citām tehnoloģijām jāpievērš vairāk uzmanības?
Protams, pastāv neskaitāmi daudz citu stāstu ar daudz bēdīgākām sekām kā nepareizs minējums par dzimšanas dienu. Piemēram, daži negodīgi e-grāmatu autori ir izmantojuši MI, lai ģenerētu ceļvežus par sēņu meklēšanu. Tomēr pat sīkākā kļūme var sekmēties ar saindēšanos, ja cilvēks saturu uztver par patiesu.
Jaunajai sūdzībai ir viens īpaši izceļams ieguvums, salīdzinot ar citām šokējošākām MI problēmām: tā parāda, ka ļaunuma sakne ir OpenAI ChatGPT, nevis e-grāmatu censoņi. Sūdzības mērķis ir izcelt gaismā ChatGPT tieksmi uz nepatiesību, jo īpaši, lai spētu noteiktu juridiskos standartus.
Vai regulas ir labvēlīgas tehnoloģiju pasaulei? Zināma pretregulācijas ētika ir liela daļa no Silīcija ielejas ētikas vairāk kā pusgadsimtu, pateicoties libertāriešiem, tehno-racionālistiem un “move fast and break things” (pārvietojieties ātri un lauziet lietas) moto atbalstītājiem.
Ja runa ir par MI uzņēmumiem, tad secinājums ir viens – viss notiek pārāk ātri. Drīz vien pēc Google Bard pirmizrādes izgāšanās, uzpeldēja ziņas, ka Google atcēla riska novērtējumu, kas pieķēra rīku pie meliem.
Avots: Tech.co