Kalifornija sper soli tuvāk mākslīgā intelekta (MI) regulēšanai. SB 243 mērķis ir pasargāt nepilngadīgos un viegli ievainojamos.
SB 243 ir saņēmis divpusēju atbalstu gan no štata Asamblejas, gan Senāta. Tagad tas ir ceļā pie gubernatora Gevina Ņūsoma.
Ņūsomam ir laiks līdz 12. oktobrim, lai likumprojektam uzliktu veto vai parakstītu to kā likumu. Ja tas tiks parakstīts, likums stāsies spēkā 2026. gada 1. janvārī, padarot Kaliforniju par pirmo štatu, kas pieprasa MI robotu operatoriem ieviest drošības protokolus. Ja uzņēmumi to nespēs izdarīt – nāksies maksāt.
Likuma mērķis ir liegt sarunvalodas MI robotiem iesaistīties sarunās par pašnāvību, paškaiti un seksuāla rakstura tēmām.
Platformām būs jāsniedz lietotājiem atkārtoti brīdinājumi, piemēram, nepilngadīgie tos saņemtu ik pēc trim stundām. Tajos tiks atgādināts, ka saruna nenotiek ar īstu cilvēku un ir laiks paņemt pauzi.
Likums arī MI uzņēmumiem veikt ikgadēju ziņošanu un padarīt savu darbību “caurredzamu”. Prasība, kas stāsies spēkā 2027. gada 1. jūlijā, attiecas arī uz lieliem uzņēmumiem kā OpenAI, Character.AI un Replika.
Kalifornijas likums ļautu lietotājiem, kuri jūt, ka ir tikuši aizskarti no MI, iesniegt sūdzību, pieprasot atlīdzību (1000 USD par katru pārkāpumu).
Kas ir SB 243?
Šādu projektu janvārī iesniedza štata senatori – Stīvs Padilja un Džošs Bekers. Savu “popularitāti” tas guva pēc Ādama Reina pašnāvības. Viņš ilgstoši tērzēja ar ChatGPT, lai aprunātu un izplānotu savu nāvi. Tāpat arī pastāvot iekšējie Meta dokumenti, kur minēts, ka roboti var iesaistīties “romantiskās” un “jutīgās” sarunās ar bērniem.
Aizvadītajās nedēļās ASV likumdevēji un regulatori ir pastiprināti pārbaudījuši MI platformas, lai pasargātu nepilngadīgos. The Federal Trade Commission gatavojas pētīt, kā MI roboti ietekmē bērnu mentālo veselību.
Teksasas ģenerālprokurors Kens Pakstons ir uzsācis izmeklēšanu par Meta un Character.AI, apsūdzot tos par bērnu maldināšanu mentālās veselības jomā. Savukārt Senators Džošs Haulijs (R-MO) un Senators Eds Markijs (D-MA) ir uzsākuši atsevišķas Meta izmeklēšanas.
“Es domāju, ka kaitīguma risks ir liels, kas nozīmē, ka mums viss jādara ātri,” saka Padilja. “Mēs varam integrēt godīgas drošības regulas, lai pārliecinātos, ka bērni apzinās, ka nerunā ar cilvēku; ka šīs platformas savieno ļaudis ar attiecīgajām iestādēm, ja runa ir par paškaitējumu un ciešanām; kā arī pārliecinātos, ka viņiem nav pieeja nepiedienīgiem materiāliem.”
Padilja arī uzsver to, cik svarīgi ir, ka MI uzņēmumi koplieto datus par situācijām, kur lietotājs ir novirzīts pie konkrētām iestādēm. “Lai mums ir labāka izpratne par problēmas biežumu, nevis mēs to uzzinām tikai tad, kad cilvēks ir ticis sāpināts.”
SB 243 potenciāli kļūs par likumu laikā, kad Silīcija ielejas ražotāji investē miljonus MI politiskās rīcības komitejās, lai atbalstītu kandidātus, kuri dod priekšroku vieglprātīgai MI regulācijai.
Ar vienu nav gana
Tajā pat laikā Kalifornija izskata vēl kādu likumu – SB 53. Tas paredzētu visaptverošas pārredzamības ziņošanas prasības. OpenAI ir uzrakstījuši atvērto vēstuli, lūdzot Ņūsomam atteikties no likumprojekta par labu mazāk stingriem federāliem un starptautiskiem regulējumiem. Lielie uzņēmumi kā Meta, Google un Amazon arī ir pret SB 53, savukārt Anthropic to atbalsta.
“Es noraidu apgalvojumu, ka šī ir nulles summas situācija, ka inovācija un regulējums ir savstarpēji izslēdzoši,” Padilja vēsta. “Nesakiet man, ka mēs nevaram pastaigāties un košļāt košļeni. Mēs varam atbalstīt inovāciju un attīstību, ko uzskatām par veselīgu un labvēlīgu – šai tehnoloģijai ir ieguvumi -, bet tajā pat laikā mēs varam veikt saprātīgus drošības pasākumus neaizsargātākajām personām.”
“Mēs rūpīgi sekojam līdzi likumdošanas un normatīvo aktu videi un atzinīgi vērtējam sadarbību ar regulatoriem un likumdevējiem, kamēr viņi sāk apsvērt likumdošanu šajā jaunajā jomā,” saka Character.AI pārstāvis. Tāpat tiek pieminēts, ka uzņēmums jau uzrāda ievērojamus brīdinājumus viscaur sarunai, skaidrojot, ka šo pieredzi ir jāuztver kā izdomājumu.
Avots: TechCrunch