Mākslīgā intelekta (MI) tehnoloģiju straujā izaugsme pēdējos gados ir veicinājusi arī nopietnas diskusijas par tās drošību un ietekmi uz sabiedrību. Šo diskusiju priekšplānā nonākusi Future of Life Institute (FLI) oktobrī publiskotā atklātā vēstule, kurā tās autori brīdina, ka MI izstrādes sacensība kļuvusi nekontrolējama, un uzņēmumi steidz radīt arvien jaudīgākus “digitālos prātus”, kurus vairs nespēj pilnībā saprast vai kontrolēt pat to radītāji. FLI ir starptautisks bezpeļņas pētniecības institūts, kura mērķis ir panākt, lai jaunās tehnoloģijas kalpotu cilvēces labā un neradītu globālus riskus, īpašu uzmanību pievēršot progresīva MI potenciālajiem draudiem. Jau 2023. gada martā FLI publicēja plašu rezonansi izraisījušu atklāto vēstuli, kurā aicināja visas pasaules MI laboratorijas uzreiz noteikt vismaz sešus mēnešus ilgu pauzi tādu MI sistēmu izstrādē, kas jaudas ziņā pārspēj tajā brīdī esošo GPT-4 modeli.
Tagad FLI aicina izmantot pauzi, lai izstrādātu drošības standartu sistēmu un aizsardzības mehānismus, pretējā gadījumā būtu jāiejaucas valdībām, īstenojot moratoriju uz šādu bīstami spēcīgu MI izstrādi. Vēstulē uzsvērts, ka nekontrolēta MI attīstība var izraisīt “dziļu lūzumu cilvēces vēsturē” un tiek uzskaitīti iespējamie riski kā MI ģenerēta dezinformācija un propaganda, masveida darbvietu automatizācija, cilvēku “aizstājamība” un sabiedrības mēroga kontroles zaudēšana pār notikumiem.
Vēstuli īsā laikā parakstīja daudzi tehnoloģiju eksperti, pētnieki un uzņēmēji, un kopējais parakstu skaits vēlāk pārsniedza 50 tūkstošus. Starp redzamākajiem parakstītājiem ir, piemēram, Nobela prēmijas laureāti Džefrijs Hintons un Darons Ačemoglu, MI pētnieks Jošuā Benžio, datorzinātnieks Stjuarts Rasels, uzņēmēji Ričards Brensons un Stīvs Vozņaks, vēsturnieks Juvals Noa Harari, pāvesta MI padomnieks Paolo Benanti un citi. Šāda plaša koalīcija no inženieriem un akadēmiķiem līdz uzņēmumu vadītājiem un domātājiem skaidri parāda, ka bažas par MI nekontrolētas attīstības riskiem vairs nav tikai šaura pesimistu loka fantāzijas. Tās ir kļuvušas par nopietnu dienaskārtības jautājumu tehnoloģiju nozarē un sabiedrībā kopumā.
Kaut arī aicinātā faktiska pauze MI “sacensībā” pagaidām nav ieviesta un visdrīzāk tas arī nenotiks, FLI paziņojums jau ir izraisījis plašākas diskusijas par MI drošību. Tas strauji iegūst publicitāti globālajos medijos (Latvijas medijos šis notikums gan paslīdējis garām nepamanīts) un rosina politikas veidotājus steidzamāk pievērsties MI pārvaldības jautājumiem. Vienlaikus MI attīstība nav apstājusies, jo uzņēmumi turpina ieguldīt ievērojamus resursus arvien jaudīgāku modeļu izstrādē, kas tikai pastiprina nepieciešamību pēc drošības standartiem. FLI iniciatīva šobrīd palīdz radīt “steidzamības sajūtu” valdībās un atspoguļo sabiedrībā pieaugošās bažas par MI radītajiem riskiem. Citiem vārdiem, paziņojums jau tagad aktualizē politikas dienaskārtībā jautājumu: kā nodrošināt, lai MI attīstība notiek sabiedrības interesēs un drošā veidā.
Šo piesardzības aicinājumu vēl sarežģītāku padara šodienas tirgus dinamika, vērojot bezprecedenta investīcijas “superintelekta” attīstībā. Globālo tehnoloģiju uzņēmumu sacensība par “superintelektu” jau tagad nozīmē milzu tēriņus datu centros, čipos un talantos. Neskatoties uz desmitiem miljardu ieguldījumu vilni, vienlaikus pieaug bažas par iespējamu burbuli, ko atzīst arī industrijas līderi (t.sk. OpenAI vadītājs Sems Altmans). Personāla tirgū uzņēmumi cīnās par zvaigžņu pētniekiem ar daudzu miljonu atlīdzībām, bet atsevišķu lielo modeļu treniņš jau pārsniedz 100 milj. USD, ilustrējot izmaksu eskalāciju. Arī Metaatklāti “lej miljardus” savā plānā virzīties uz “personīgo superintelektu”, kas vēl vairāk pastiprina kapacitāšu un kapitāla bruņošanos starp lielajiem spēlētājiem. Kopumā aina ir skaidra – sacensība starp ASV, Ķīnu un to vadošajiem uzņēmumiem piespiež visus palielināt ieguldījumus rekordtempā, kamēr politikas veidotāji un investori spriež, vai straujums nav pārvērties par riskantu pārinvestēšanu.
Par FLI paziņojumu jau izskan kritika, un komentētāji norāda, ka globāls aizliegums ir nerealizējams un grūti izpildāms apstākļos, kad valstis un “Big Tech” turpina sacensību, turklāt paziņojumā nav skaidri definēts, kas tieši būtu “superintelekts” un kā izmērīt “plašu zinātnisku konsensu” vai “spēcīgu sabiedrības atbalstu”. Nozares un daļa politikas veidotāju iebilst, ka šāds solis varētu bremzēt inovāciju, savukārt vairāki komentētāji piedāvā alternatīvu nevis “aizliegumu”, bet caurskatāmību un regulētu attīstību (piemēram, prasības par testēšanu, atbildību un risku mazināšanu).
Arī iepriekšējā FLI vēstule izpelnījās kritiku un vairāki MI jomas eksperti pauda viedokli, ka aicinājums, iespējams, dramatizē situāciju un novērš uzmanību no jau esošajām problēmām. Piemēram, MI ētikas pētniece Timnita Gebru un citi norādīja, ka atklātā vēstule pievēršas tāliem, hipotētiskiem “distopiskiem sci-fi” scenārijiem, kamēr reāli šodien pastāv riski – aizspriedumi algoritmos, MI radīta diskriminācija, maldinoši automatizēti lēmumi, kas prasa tūlītējus risinājumus. Neskatoties uz to, FLI iniciatīva savu galveno mērķi lielā mērā sasniedza un pievērsa pasaules uzmanību MI drošības tematikai.
Eksperti brīdina par mākslīgā intelekta riskiem
FLI atklātā vēstule nav izņēmuma gadījums, un aizvadītajos gados daudzi zinātnieki, tehnoloģiju līderi un domātāji publiski brīdinājuši par nekontrolētas MI attīstības draudiem. Piemēram, plaši pazīstamais vēsturnieks Juvals Noa Harari uzsver, ka šī tehnoloģiskā revolūcija var izrādīties būtiski atšķirīga no visām iepriekšējām un MI spējas potenciāli var kļūt tik varenas, ka riski civilizācijai varētu būt pat eksistenciāli. Harari un citi izceļ faktu, ka ļoti attīstīts MI spētu saprast cilvēku uzvedību un vājības labāk nekā paši cilvēki sevi, un tādējādi varētu manipulēt sabiedrību līdz nepieredzētiem līmeņiem. Šāds MI, ja netiek pienācīgi kontrolēts, varētu, piemēram, ģenerēt ārkārtīgi pārliecinošu dezinformāciju, radot draudus demokrātijai un sabiedriskajai kārtībai. Harari provokatīvi jautā – vai esam gatavi pasaulei, kur emocionāli neitrāls superintelekts pieņem lēmumus cilvēku vietā, turklāt lēmumus, kuru motivāciju paši cilvēki vairs nespēj saprast?
Arī paši MI tehnoloģiju pionieri pēdējā laikā izteikušies pārsteidzoši atklāti par šiem riskiem. Džefrijs Hintons, viens no neironu tīklu izgudrotājiem un bieži dēvēts par “MI krusttēvu”, 2023. gadā pameta darbu Google, lai brīvi runātu par savām bažām, un publiski lēsa, ka pastāv aptuveni 10–20% varbūtība, ka īpaši attīstīts MI jau tuvāko trīs desmitgažu laikā varētu izraisīt cilvēces bojāeju. Šāds skarbais novērtējums apliecina, ka eksistenciālo apdraudējumu iespējamību apsver arī vadošie zinātnieki. Līdzīgi arī cits dziļās mašīnmācīšanās pamatlicējs, Tjūringa balvas laureāts Jošuā Benžio skaidri atbalsta aicinājumu uz pagaidu “pauzi”, lai dotu laiku izstrādāt drošības pasākumus pirms mēs speram nākamos soļus arvien jaudīgāka MI virzienā. Šo ekspertu nostājas nepārprotami liek saprast, ka MI attīstība sola ne tikai ieguvumus, bet arī reālus draudus, ja netiks kontrolēta.
Protams, nevar aizmirst, ka MI attīstībai ir arī milzīgs pozitīvais potenciāls no medicīnas un zinātnes atklājumiem līdz ikdienas dzīves atvieglošanai. Tomēr tieši sabalansēts skats uz iespējām un riskiem būs kritiski svarīgs, lai no tehnoloģijām gūtu labumu, vienlaikus izvairoties no nopietnām blaknēm. Kā norāda FLI pārstāvji, spēcīgu MI sistēmu veidošana būtu jāturpina tikai tad, kad esam pārliecināti, ka to efekts būs pozitīvs un riski kontrolējami.
Ko tas nozīmē Latvijai?
Latvijai globālajā tehnoloģiju sacensībā ir savi izaicinājumi un iespējas. Lai arī MI “milžu cīņas” pamatā notiek lielvalstu un tehnoloģiju korporāciju starpā, FLI vēstulē paustie jautājumi ir ļoti būtiski arī mūsu kontekstā. Mēs dzīvojam digitāli savienotā pasaulē, un MI radītās pārmaiņas un riski neapstājas pie valstu robežām. Dezinformācija internetā, automatizācijas ietekme uz darba tirgu, jaunu tehnoloģiju radītā ekonomiskā nevienlīdzība – tās visas ir problēmas, kas var skart arī Latvijas sabiedrību.
Šie riski nav tikai teorija un, piemēram, vēlēšanu ciklos tie jau parādās arvien konkrētāk. Gaidāmo Saeimas vēlēšanu kontekstā MI var ietekmēt vēlētāju izvēli gan ar mazāk uzkrītošiem kropļojumiem, gan ar atklātām manipulācijām. Piemēram, Nīderlandes datu aizsardzības iestāde brīdināja, ka vēlēšanu laikā izmantotie čatboti sniedz neuzticamus un aizspriedumainus padomus, nereti virzot lietotājus uz atsevišķām partijām neatkarīgi no uzdotajiem jautājumiem. Šādi notikumi var graut uzticēšanos balsošanas procesam un var tikt izmantoti arī Latvijā, ja netiek noteikti skaidri kvalitātes un caurskatāmības standarti. Citi precedenti rāda klaju manipulāciju un mērķtiecīgas dezinformācijas kampaņas. 2024. gadā Ņūhempšīrā tika izsūtīti ar MI balss klonēšanu radīti robotzvani, kas atdarināja prezidenta Džo Baidena balsi un atturēja pilsoņus no balsošanas, un par to ASV regulators piemēroja miljonu soda naudas, kā arī noteica aizliegumu šādām AI robotzvanu balsīm. Šādi piemēri skaidri norāda, ka tehnoloģiski viegli reproducējamas manipulācijas spēj mērķēti ietekmēt vēlētāju uzvedību.
Tāpēc Latvijai, tāpat kā citām Eiropas valstīm, ir rūpīgi jāseko MI attīstībai un jāiesaistās starptautiskos centienos nodrošināt šīs jomas drošību. Piemēram, Eiropas Savienība ir pieņēmusi AI regulu, kas klasificē MI lietojumus pēc riska līmeņiem un uzliek stingrākas prasības augsta riska MI sistēmām. Arī Latvijai ir jāievieš un jāuzrauga šīs normas, lai pasargātu savu sabiedrību un lietotājus. Lielākais izaicinājums ir sabalansēt tehnoloģisko attīstību no biznesa perspektīvas, lai mūsu uzņēmumi nezaudētu konkurences cīņā, ar sabiedrības interesēm un drošības jautājumiem.
Balstoties uz Valsts kontroles 2025. gada situācijas izpēti, valsts pārvaldē MI izmantošana strauji ienāk, taču kopējā aina ir sadrumstalota. Šobrīd 17 % iestāžu MI jau lieto, 22 % plāno ieviest, bet 55 % vēl nav skaidra plāna. Biežākie pielietojumi ir plaši pieejamie ģeneratīvā MI rīki un virtuālie asistenti, taču trūkst vienotas uzskaites un kritēriju, kas vispār kvalificējams kā MI valsts pārvaldē. Par būtiskākajiem šķēršļiem iestādes min finansējumu, datu aizsardzību/kiberdrošību un vadlīniju trūkumu. 69 % iestāžu iekšējās MI lietošanas vadlīnijas vēl nav izstrādātas. VARAM ir noteikta par vadošo iestādi, savukārt 2025. gada 2. aprīlī dibinātais MI centrs formāli saņēmis uzdevumu sniegt konsultācijas un gatavot vadlīnijas, tomēr vienots mehānisms projektu uzskaitei un kopainas pārvaldībai vēl ir procesā.
Normatīvā un institucionālā vide tikai nostiprinās un, lai ieviestu ES AI akta prasības, ir jāgroza virkne tiesību akti. Savukārt ikgadējās īstenošanas izmaksas Latvijā lēstas ap 1 milj. euro. Vienlaikus ir pieejami arī resursi produktivitātes kāpināšanai, bet jau 2020. gadā tika iezīmēts mērķis līdz 2029. gadam sasniegt ~25 milj. euro gadā MI attīstībai valsts sektorā. Valsts kontrole ziņojumā uzsver nepieciešamību nošķirt MI no vispārējas digitalizācijas, ieviest vienotu uzskaiti un rādītājus, kā arī pabeigt nacionālo MI un datu stratēģiju, pretējā gadījumā grūti novērtēt ieguvumus, riskus un progresu. Praktiski tas nozīmē, ka jābūt vienotām vadlīnijām un risku pārvaldībai, centralizētai projektu uzskaitei un kvalitatīvu datu pieejamībai.
Latvijas zinātnes un tehnoloģiju kopiena var gūt labumu no starptautiskās pieredzes gan mācoties no lielo valstu kļūdām, gan iesaistoties kopīgos pētījumos par MI drošību. Mums ir salīdzinoši neliela, taču aktīva MI izstrādātāju ekosistēma, kas specializējas konkrētās jomās, piemēram, dabiskās valodas apstrādē latviešu valodā, finanšu tehnoloģijās un citur. Šīs nišas var kļūt par mūsu priekšrocību, ja mēs spēsim tās attīstīt, ievērojot augstus kvalitātes un drošības standartus. Citiem vārdiem, Latvija var būt inovatīva un konkurētspējīga MI jomā, taču tikai tad, ja Latvijas sabiedrība un industrija uzticēsies MI risinājumiem. Uzticība savukārt rodas no pārliecības, ka jaunās tehnoloģijas ir pārdomātas, pārbaudītas un kalpo cilvēku interesēm. No MI nav jābaidās, bet jābūt uzmanīgiem. Priekšā ir arī liels skaidrojošais un informatīvais darbs, lai Latvijas sabiedrībā, kuras digitālās prasmes par apmēram 10% joprojām atpaliek no ES vidējā līmeņa, veicinātu uzticēšanos MI sniegtajām iespējām.
FLI paziņojums par pauzi MI attīstībā atgādina visiem, arī mums Latvijā, ka tehnoloģiju progress nav pašmērķis. Ir jāuzdod grūti jautājumi: “Kāpēc un kā mēs attīstām MI? Vai spējam kontrolēt tā sekas?”. Šos jautājumus uzdod vadošie pasaules prāti, un to vajadzētu darīt arī mums. Latvijai, veidojot savu digitālo nākotni, ir jāsaglabā līdzsvars starp atvērtību inovācijām un piesardzību pret riskiem. Tikai tā mēs varēsim pilnvērtīgi izmantot mākslīgā intelekta sniegtās priekšrocības, vienlaikus pasargājot savu sabiedrību no tiem ēnas aspektiem, par kuriem brīdina FLI un citi eksperti.

























