Gandrīz pusi datplūsmas internetā rada automatizētas vienības jeb boti, un liela daļa no tiem apdraud patērētājus un uzņēmumus.
Šobrīd gandrīz pusi no datplūsmas tīmeklī veido automatizētas vienības. Tos sauc par botiem, un daļa no tiem apdraud gan patērētājus, gan uzņēmumus interneta vidē
“Boti var palīdzēt radīt pikšķerēšanas krāpšanas gadījumus, iegūstot lietotāja uzticību un nododot to krāpniekiem. Šādām krāpšanām var būt nopietnas seka, no kurām dažas ietver finansiālus zaudējumus, identitātes zādzību un ļaunprātīgas programmatūras izplatīšanos,”
Tā paziņojumā, kas sniegts TechNewsWorld, norāda Kristofs Kempers, mākslīgā intelekta (MI) ierosmju inženierijas un pārvaldības uzņēmuma AIPRM dibinātājs no Vilmingtonas.
“Diemžēl tas nav vienīgais drošības apdraudējums, ko rada boti,” viņš turpināja. “Tie var arī kaitēt zīmola reputācijai, jo īpaši zīmoliem un uzņēmumiem ar populāriem sociālo plašsaziņas līdzekļu profiliem un augstu iesaistīšanās līmeni. Asociējot zīmolu ar krāpniecisku un neētisku praksi, roboti var sabojāt zīmola reputāciju un mazināt patērētāju lojalitāti.”
Saskaņā ar Imperva 2024 Bad Bot Report, ļaunprātīgo botu datplūsmas līmenis ir pieaudzis jau piekto gadu pēc kārtas, kas liecina par satraucošu tendenci. Ziņojumā norādīts, ka šo pieaugumu daļēji veicina MI un lielo mācību modeļu (LMM) popularitātes pieaugums.
Ziņojumā skaidrots, ka 2023. gadā šie boti veidoja 32 % no visas interneta datplūsmas, kas ir par 1,8 % vairāk nekā 2022. gadā. Labo botu datplūsmas daļa arī palielinājās, lai gan nedaudz mazāk – no 17,3 % no visas interneta datplūsmas 2022. gadā līdz 17,6 % 2023. gadā.
Kopumā 49,6 % no visas interneta datplūsmas 2023. gadā nebija cilvēku datplūsma. Proti, cilvēku datplūsmas līmenis samazinājās līdz 50,4 % no visas datplūsmas.
“ “Labie” boti palīdz indeksēt tīmekli meklētājprogrammām, automatizēt kiberdrošības uzraudzību un palīdzēt klientu apkalpošanā, izmantojot tērzēšanas robotus,” skaidro Džeimss Makvigans, drošības izpratnes veicinātājs KnowBe4.
“Tie palīdz atklāt ievainojamības, uzlabot IT darba plūsmas un racionalizēt procedūras tiešsaistē,” viņš sacīja TechNewsWorld. “Triks ir zināt, kas ir vērtīga automatizācija un kas ir ļaunprātīga darbība.”
Liela mēroga robotizēta biļešu iegāde
Botu datplūsmas pieauguma tendences nosaka automatizācija un panākumi, skaidro Tomass Ričardss, lietojumprogrammu drošības uzņēmuma Black Duck Software tīkla un sarkano komandu prakses direktors.
“Iespēja palielināt apjomu ļauj ļaundariem sasniegt savus mērķus,” viņš teica TechNewsWorld. “MI ir liela ietekme, ļaujot šiem ļaunprātīgajiem aktoriem rīkoties cilvēcīgāk un automatizēt kodēšanu un citus uzdevumus. Piemēram, Google ir atklājis, ka Gemini ir izmantots ļaunprātīgu vienību radīšanai.”
“Mēs to redzam arī citās ikdienas pieredzēs,” viņš turpināja, “piemēram, pēdējos gados patērētāji ir spiesti cīnīties par pasākumu biļetēm. Krāpnieki atrod veidus, kā izveidot lietotājus vai izmantot kompromitētus kontus, lai iegādātos biļetes ātrāk, nekā to varētu izdarīt cilvēks. Viņi pelna naudu, pārdodot biļetes tālāk par daudz augstāku cenu.”
Automatizētus uzbrukumus ir viegli un izdevīgi izvērst, piebilda Stīvens Kovskis, SlashNext, datoru un tīklu drošības uzņēmuma tehniskais direktors.
“Noziedznieki izmanto sarežģītus rīkus, lai apietu tradicionālos drošības pasākumus,” viņš teica TechNewsWorld. “Ar MI darbināmas sistēmas padara botus pārliecinošākus un grūtāk atklājamus, ļaujot tiem labāk atdarināt cilvēka uzvedību un pielāgoties aizsardzības pasākumiem.”
“Viegli pieejamo MI rīku un nozagto datu pieaugošās vērtības kombinācija rada ideālus apstākļus vēl progresīvākiem robotu uzbrukumiem nākotnē,” viņš piebilda.
Kāpēc boti ir ievērojams drauds?
Globālās kiberdrošības konsultāciju kompānijas NCC Group tehniskais direktors un MI un ML drošības nodaļas vadītājs Deivids Brauklers prognozē, ka necilvēciskā interneta datplūsma turpinās pieaugt.
“Tā kā arvien vairāk ierīču kļūst savienotas ar internetu, SaaS platformas papildina savstarpēji savienotas funkcijas un parādās jaunas neaizsargātas ierīces, ar botiem saistītajai datplūsmai ir iespēja turpināt palielināt savu tīkla joslas platuma daļu,” viņš sacīja.
Brauklers piebilda, ka ļaunprātīgie roboti spēj nodarīt lielu kaitējumu. “Boti ir izmantoti, lai izraisītu masveida darbības pārtraukumus, pārslogojot tīkla resursus un liedzot piekļuvi sistēmām un pakalpojumiem,” viņš teica.
“Līdz ar ģeneratīvā MI parādīšanos, botus var izmantot, lai atdarinātu reālu lietotāju darbību tiešsaistes platformās, tādējādi palielinot surogātpasta un krāpšanas risku,” viņš skaidroja. “Tie var arī skenēt un izmantot datorsistēmu drošības nepilnības.”
Viņš apgalvoja, ka lielākais MI radītais risks ir surogātpasta izplatīšanās. “Nav spēcīga tehniskā risinājuma šāda veida satura identificēšanai un bloķēšanai tiešsaistē,” viņš skaidroja. “Lietotāji šo parādību ir iecienījuši dēvēt par mākslīgā intelekta surogātpastu, un tas rada risku, ka mākslīgā satura troksnī noslīks leģitīmas tiešsaistes mijiedarbības signāls.”
Tomēr viņš brīdināja, ka nozarei jābūt ļoti uzmanīgai, apsverot labāko šīs problēmas risinājumu. “Daudzi iespējamie tiesiskās aizsardzības līdzekļi var radīt lielāku kaitējumu, jo īpaši tie, kas riskē uzbrukt tiešsaistes privātumam,” viņš teica.
Kā identificēt ļaunprātīgus botus?
Brauklers atzina, ka cilvēkiem var būt grūti atklāt ļaunprātīgos botus. “Lielākā daļa robotu nedarbojas tā, lai cilvēki tos varētu atklāt,” viņš teica. “Tie tieši sazinās ar internetā pieejamām sistēmām, pieprasa datus vai mijiedarbojas ar pakalpojumiem.”
“Botu kategorija, par kuru lielākā daļa cilvēku uztraucas, ir autonomi mākslīgā intelekta aģenti, kas var maskēties kā cilvēki, mēģinot apkrāpt cilvēkus tiešsaistē,” viņš turpināja.
“Daudzi MI tērzēšanas roboti izmanto paredzamus runas modeļus, kurus lietotāji var iemācīties atpazīt, mijiedarbojoties ar MI teksta ģeneratoriem tiešsaistē.”
“Tāpat arī MI ģenerētajos attēlos ir “pazīmes”, ko lietotāji var iemācīties meklēt, tostarp izjauktus modeļus, piemēram, nepareizi izlīdzinātas rokas un pulksteņi, objektu malas saplūst ar citiem objektiem un neskaidrs fons,” viņš teica.
“MI balsīm ir arī neparastas toņu izteiksmes, ko lietotāji var iemācīties uztvert,” viņš piebilda.
Ļaunprātīgi boti bieži tiek izmantoti sociālo mediju platformās, lai iegūtu uzticamu piekļuvi personām vai grupām. “Uzmanieties uz tādām pazīmēm kā neparasti draugu pieprasījumu modeļi, vispārīgi vai zagti profila attēli un konti, kas publicē ziņas necilvēcīgā ātrumā vai biežumā,” brīdināja Kovskis.
Viņš arī ieteica piesardzīgi izturēties pret profiliem ar ierobežotu personisko informāciju, aizdomīgiem iesaistīšanās modeļiem vai konkrētu darba kārtību, izmantojot automatizētas atbildes.
Viņš turpināja, ka uzņēmumos ar reāllaika uzvedības analīzes palīdzību var pamanīt automatizētas darbības, kas neatbilst dabiskiem cilvēku paradumiem, piemēram, neiespējami ātrus klikšķus vai veidlapu aizpildīšanu.
Boti kā drauds uzņēmumiem
Ļaunprātīgi boti var būt nopietns drauds uzņēmumiem. Tā norāda Kens Dunhems, Qualys mākoņtehnoloģiju, drošības un atbilstības risinājumu nodaļas direktors Fosterisitijā, Kalifornijas štatā.
“Kad tos ir izveidojis apdraudējuma dalībnieks, tos var izmantot kā ieroci,” viņš sacīja TechNewsWorld. “Botiem ir neticami resursi un iespējas veikt anonīmus, izplatītus, asinhronus uzbrukumus izvēlētajiem mērķiem, piemēram, “brute force” akreditācijas uzbrukumus, izplatītus pakalpojuma atteikuma uzbrukumus, ievainojamību skenēšanu, izmantošanas mēģinājumus un citus.”
Ļaunprātīgi roboti var arī vērsties pret pieteikšanās portāliem, API galapunktiem un publiski pieejamām sistēmām. Tas rada riskus uzņēmumiem, jo ļaunprātīgie dalībnieki meklē tā saucamos “vājos punktus”.
Šie vājie puntki palīdz atrastu veidu, kā piekļūt iekšējai infrastruktūrai un datiem, piebilda Makkvigans. “Bez botu ietekmes mazināšanas stratēģijām uzņēmumi var būt neaizsargāti pret automatizētiem draudiem,” viņš teica.
Lai mazinātu slikto robotu radītos draudus, viņš ieteica ieviest daudzfaktoru autentifikāciju, tehnoloģiskos robotu atklāšanas risinājumus un uzraudzīt datplūsmu, lai konstatētu anomālijas. Viņš arī ieteica bloķēt vecos lietotāju aģentus, izmantot Captchas un, ja iespējams, ierobežot mijiedarbību, lai samazinātu veiksmes rādītājus.
“Izmantojot drošības izpratnes izglītošanu un cilvēkresursu pārvaldību, darbinieku zināšanas par robotu vadītiem pikšķerēšanas un krāpšanas mēģinājumiem var nodrošināt veselīgu drošības kultūru un samazināt veiksmīga robotu uzbrukuma risku,” viņš ieteica.
Avots: TechNewsWorld