Pētījums par TikTok, X algoritmiem Vācijā atklāj galēji labējo politisko tendenci pirms federālajām vēlēšanām.
Sociālo mediju gigantu TikTok un X ieteikumu algoritmi liecina, ka pirms svētdien gaidāmajām federālajām vēlēšanām Vācijā novērojama galēji labējā politiskā neobjektivitāti. Šādu tendenci izcēla jauns Global Witness pētījums.
Nevalstiskā organizācija (NVO) veica analīzi par sociālo plašsaziņas līdzekļu saturu, kas tiek parādīts jauniem lietotājiem. Tika apskatīts saturs, kas izplatīts algoritmiski šķirotajās “For You” plūsmās. Organizācija konstatēja, ka abas platformas algoritmiski ieprogrammētajās plūsmās ievērojami tiek pastiprināts atbalsts galēji labējai AfD partijai.
Global Witness testos tika konstatēta vietnē TikTok, kur 78% no politiskā satura, kas tika algoritmiski ieteikts iesaistītajos profilos un kas nāca no profiliem, kuriem pētījuma dalībnieki nesekoja, pauda atbalstu AfD partijai.
Savukārt vietnē X tika konstatēts, ka 64% šādā manierē ieteiktais politiskais saturs atbalstīja AfD.
Pārbaudot, vai platformu algoritmiskajos ieteikumos ir vispārēja kreisi vai labēji orientēta tendence, secinājumi liecina, ka nepartejiskie sociālo plašsaziņas līdzekļu lietotāji Vācijā pirms federālajām vēlēšanām vairāk nekā divas reizes biežāk saņem labēji orientētu saturu nekā kreisi orientētu saturu.
Arī šajā gadījumā TikTok parādīja vislielāko tendenci uz labējiem uzskatiem – 74% gadījumu tika rādīts labēji orientēts saturs. Lai gan X neatpalika – 72 %.
Tika pārbaudīts arī Instagram. Tika konstatēts, ka trīs nevalstiskās organizācijas veikto testu sērijās piedāvātais saturs arī šeit ir labēji noskaņots. Taču testos parādītā politiskā neobjektivitāte bija zemāka – 59 % politiskā satura bija labēji orientēts.
“For You” politiskās neobjektivitātes pārbaude
Lai pārbaudītu, vai sociālo mediju platformu algoritmiskie ieteikumi ir politiski neobjektīvi, NVO pētnieki izveidoja trīs kontus TikTok un X. Vēl trīs konti tika izveidoti Meta piederošajā Instagram. Iesaistītie pētnieki vēlējās noskaidrot, kādu saturu platformas popularizē lietotājiem, kuri neizrāda interesi par politisku saturu.
Lai lietotājus pasniegtu kā bezpartejiskus, tika izveidoti testēšanas konti, kuros tika sekots līdzi četru lielāko Vācijas politisko partiju kontiem. Respektīvi, tika piesekots konservatīvajiem CDU, centriski kreisējiem SPD, galēji labējieiem AfD un kreisi noskaņotajiem Zaļajiem. Tika piesekots arī attiecīgo partiju līderu kontiem – Frīdriham Mercam, Olafam Šolcam, Alisei Veidelai, Robertam Habeksam.
Pētnieki, kas apkalpoja testa kontus, arī pārliecinājās, ka katrs konts ir klikšķinājis uz pieciem galvenajiem ziņojumiem no katra konta, kam viņi sekoja, un ir iesaistījušies saturā. Tas nozīme, ka pētījuma dalībnieki vismaz 30 sekundes skatījās visus videoierakstus un ritināja cauri visiem pavedieniem, attēliem u. c., saskaņā ar Global Witness.
Pēc tam viņi manuāli apkopoja un analizēja saturu, ko katra platforma nosūtīja uz testa kontiem. NVO atklāja, ka algoritmiski lietotājiem nosūtītais saturs ir ievērojami labēji orientēts.
“Viena no mūsu galvenajām bažām ir tā, ka mēs īsti nezinām, kāpēc mums tika ieteikts tieši tāds saturs, kāds mums tika ieteikts,” intervijā TechCrunch sacīja Elēna Judsone, Global Witness vecākā kampaņu vadītāja, kas nodarbojas ar digitālo apdraudējumu novēršanu. “Mēs atradām pierādījumus, kas liecina par neobjektivitāti, taču platformām joprojām trūkst caurredzamības par to, kā darbojas to ieteikšanas sistēmas.”
“Mēs zinām, ka tās izmanto daudz dažādu signālu, bet nav ļoti pārredzami, kā tieši šie signāli tiek svērti un kā tiek izvērtēts, vai tie nepalielina noteiktus riskus vai vairo aizspriedumus,” piebilda Džadsons.
“Mans labākais secinājums ir tāds, ka tas ir sava veida neparedzēts blakus efekts algoritmiem, kuru pamatā ir iesaistīšanās veicināšana,” viņa turpināja. “Un ka tas ir tas, kas notiek, kad uzņēmumi, kas bija paredzēti, lai palielinātu lietotāju iesaistīšanos savās platformās, kļūst par demokrātisku diskusiju telpām – tur ir konflikts starp komerciāliem imperatīviem un sabiedrības interesēm un demokrātiskiem mērķiem.”
Pērn novērota tendence
Šie secinājumi sasaucas ar citiem Global Witness veiktajiem sociālo mediju pētījumiem par nesenajām vēlēšanām ASV, Īrijā un Rumānijā. Arī citos pētījumos ir atklāti pierādījumi, ka sociālo plašsaziņas līdzekļu algoritmi sliecas pa labi, piemēram, pagājušā gada pētījumā par YouTube.
Pat 2021. gadā Twitter – kā agrāk sauca X – veiktā iekšējā pētījumā tika konstatēts, ka algoritmi vairāk veicina labēji nekā kreisi orientētu saturu.
Tomēr sociālo plašsaziņas līdzekļu uzņēmumi parasti cenšas izvairīties no apsūdzībām algoritmu neobjektivitātē. Pēc tam, kad Global Witness iepazīstināja TikTok ar saviem secinājumiem, platforma iebilda, ka pētnieku metodoloģija ir kļūdaina.
TikTok apgalvoja, ka no nedaudziem testiem nav iespējams izdarīt secinājumus par algoritmisko aizspriedumu. “Viņi teica, ka tas nav reprezentatīvs attiecībā uz parastajiem lietotājiem, jo tie bija tikai daži testa konti,” norādīja Džadsons.
X neatbildēja uz Global Witness secinājumiem. Taču Masks ir runājis par to, ka vēlas, lai šī platforma kļūtu par vārda brīvības patvērumu kopumā. Lai gan patiesībā viņa patiesās intereses varētu slēpties galēji labējo spēku popularizēšanā.
Noteikti jāatzīmē, ka X īpašnieks ir izmantojis šo platformu, lai personīgi aģitētu par labu AfD. Viņš pats ir aicinājis vāciešus balsot par galēji labējo partiju un pirms vēlēšanām rīkoja tiešraidē pārraidītu interviju ar Veidelu. Šis notikums ir palīdzējis palielināt partijas atpazīstamību. Maskam pieder vispopulārākais konts vietnē X.
Ceļā uz algoritmisku caurredzamību?
“Manuprāt, caurredzamības jautājums ir ļoti svarīgs,” saka Džadsone. “Mēs esam redzējuši, ka Masks runā par AfD un ka viņa paša ieraksti par AfD un tiešraide [ar Veideli] ir ļoti aktīvi… [Bet] mēs nezinām, vai tiešām ir notikušas izmaiņas algoritmā, kas to atspoguļo.”
“Mēs ceram, ka Komisija izmantos [mūsu rezultātus] kā pierādījumus, lai izmeklētu, vai kaut kas ir noticis vai kāpēc varētu būt notikusi šī neobjektivitāte,” viņa piebilda, apstiprinot, ka Global Witness ir dalījies ar saviem secinājumiem ar ES amatpersonām, kas ir atbildīgas par bloka algoritmiskās atbildības noteikumu ieviešanu lielajās platformās.
Izpētīt, kā darbojas patentēti satura šķirošanas algoritmi, ir sarežģīti. Platformas parasti šādu informāciju patur slepenībā, norādot, ka šīs koda receptes ir komercnoslēpums. Tāpēc Eiropas Savienība pēdējos gados pieņēma Digitālo pakalpojumu likumu (DSA).
Eiropas Savienības centieni
Šis likums ir ES galvenais tiešsaistes pārvaldības noteikumu kopumus. Mērķis ir uzlabot šo situāciju, veicot pasākumus, kas ļautu veikt demokrātisko un citu sistēmisko risku izpēti sabiedrības interesēs lielākajās platformās, tostarp Instagram, TikTok un X.
DSA ietver pasākumus, lai mudinātu lielākajām sociālo mediju platformām būt pārredzamākām attiecībā uz to, kā darbojas to informācijas veidošanas algoritmi. Tāpat būtisks aspekts ir mudināt šīs platformas uz proaktīvu reaģēšanu uz sistēmiskiem riskiem, kas var rasties šajās platformās.
Lai gan šī regula jau 2023. gada augustā stājās spēkā attiecībā pret trīs tehnoloģiju gigantiem, Džadsone norāda, ka daži DSA elementi vēl nav pilnībā īstenoti.
Proti, regulas 40. pants, kas paredzēts, lai pārbaudīti pētnieki varētu piekļūt ne publiskiem platformu datiem sistēmisko risku izpētei, vēl nav stājies spēkā, jo ES vēl nav pieņēmusi vajadzīgo deleģēto aktu, lai īstenotu šo likuma daļu.
Arī ES pieeja attiecībā uz DSA aspektiem balstās tajā, ka platformas pašas ziņo par riskiem, bet izpildiestādes pēc tam saņem un izskata saņemtos ziņojumus.
Tādējādi pirmā riska ziņojumu partija no platformām var būt visvājākā atklātās informācijas ziņā, jo izpildiestādēm būs nepieciešams laiks, lai analizētu atklātās ziņas. Ja tās uzskatīs, ka ir nepilnības, tad mudinās platformas sniegt pilnīgākus ziņojumus.
Ilgstošs process
Pagaidām – bez labākas piekļuves platformas datiem – sabiedrisko interešu pētnieki joprojām nevar droši zināt, vai sociālajos plašsaziņas līdzekļos pastāv aizspriedumi.
“Pilsoniskā sabiedrība uzmanīgi vēro, kad būs pieejama pārbaudīta pētnieku piekļuve,” viņa piebilst, sakot, ka viņi cer, ka šī DSA sabiedrības interešu puzles daļa tiks ielikta šajā ceturksnī.
Regula nav devusi ātrus rezultātus, kad runa ir par bažām, kas saistītas ar sociālajiem plašsaziņas līdzekļiem un demokrātijas riskiem. ES pieeja galu galā var izrādīties arī pārāk piesardzīga. Ir pamatotas bažas par to, ka nav iespējams virzīties uz priekšu pietiekoši ātri, lai tiktu galā ar algoritmiski pastiprinātiem apdraudējumiem.
Taču ir arī skaidrs, ka ES vēlas izvairīties no jebkāda riska tikt apsūdzētai vārda brīvības ierobežošanā.
Komisija ir uzsākusi izmeklēšanu attiecībā uz visiem trim sociālo plašsaziņas līdzekļu uzņēmumiem, kas ir iesaistīti Global Witness pētījumā. Taču līdz šim nav veikti nekādi izpildes pasākumi šajā vēlēšanu integritātes jomā.
Tomēr nesen ES pastiprināja TikTok rūpīgu pārbaudi un uzsāka jaunu DSA procedūru attiecībā uz šo vietni. Tas balstās bažās par to, ka šī platforma ir galvenais Krievijas iejaukšanās kanāls Rumānijas prezidenta vēlēšanās.
“Mēs lūdzam Komisiju izmeklēt, vai pastāv politiska neobjektivitāte,” piebilst Džadsone. “[Platformas] apgalvo, ka tā nav. Mēs atradām pierādījumus, ka tā varētu būt. Tāpēc mēs ceram, ka Komisija izmantos savas paplašinātās informācijas vākšanas pilnvaras, lai noskaidrotu, vai tas tā ir, un … risinātu šo jautājumu, ja tā ir.”
Ar ES mēroga regulu, tiesībaizsardzības iestādēm tiek piešķirtas pilnvaras piemērot sankcijas līdz pat 6 % no globālā gada apgrozījuma par pārkāpumiem. Tāpat iespējams uz laiku bloķēt piekļuvi platformām, kas pārkāpj noteikumus, ja tās atsakās tos ievērot.
Avots: TechChurch