Mākslīgais intelekts vairs nav tikai asistents ikdienas darbos – LLM ir kļuvuši par kibernoziedznieku galvenajiem ieročiem.
Ir skaidrs, ka mākslīgo intelektu (MI) šobrīd izmanto visi – gan “parasti” civiliedzīvotāji, gan kiberdrošības uzraudzītāji, gan, protams, kibernoziedznieki. Jauns uzņēmuma Cisco Talos pētījums atklāj, ka uzbrucēji kļūst arvien izmanīgāki.
Jaunākā tendence MI un kiberdrošības jomā ir tāda, ka “necenzētie” LLM (Lielie valodu modeļi), to uzlaustās versijas un pat pašu kibernoziedznieku radīti LLM tiek aktīvi izmantoti pret upuriem.
Nesen atklājās, ka gan Grok, gan Mistral AI modeļi tiek izmantoti WormGPT paveidos. Caur šīem paveidiem tiek ģenerēti ļaunprātīgi kodi, veidoti sociālās inženierijas uzbrukumi un pat veikti piedāvājumi par detalizētām hakošanas pamācībām. Tas skaidri parāda, ka šī pieeja kļūst arvien populārāka.
LLM tiek būvēti ar drošības mehānismiem un “sargjoslām”, lai nodrošinātu satura atbilstību ētikai un neļautu čatbotiem iesaistīties kaitīgās darbībās, piemēram, ļaunprogrammatūras vai pikšķerēšanas e-pastu radīšanā. Taču, kā jau visu šajā pasaulē, arī šos mehānismus diemžēl ir iespējams apiet.
Necenzēti un uzlausti LLM
Tā dēvētie necenzētie LLM, kurus pētījumā novēroja Cisco Talos, ir MI modeļu versijas, kas darbojas ārpus ierastajiem ierobežojumiem.
Tas nozīmē, ka tie spēj pildīt uzdevumus noziedznieku interesēs un radīt kaitīgu saturu. Pētījums rāda, ka šādus modeļus ir samērā viegli atrast un palaist, turklāt pietiek ar vienkāršiem pamudinājumiem (promptiem).
Daļa uzbrucēju ir gājuši vēl tālāk. Proti, viņi ir radījuši paši savus LLM, piemēram, WormGPT, FraudGPT un DarkGPT.
Šie rīki tiek atklāti reklamēti noziedzīgajās aprindās, piedāvājot veselu arsenālu nelikumīgu iespēju. Piemēram, FraudGPT apgalvo, ka spēj automātiski ģenerēt skriptus žurnālu un sīkfailu kopēšanai, veidot krāpniecības lapas un vēstules, atrast datu noplūdes un ievainojamības, kā arī “mācīties hakošanu”.
Citi ļaunprāši izmanto jailbreaking (arī uzlaušanas) paņēmienus, lai apietu legālo MI drošības filtrus. Šim nolūkam tiek lietotas “maskēšanas metodes”, tostarp Base64/Rot-13 kodēšana, dažādas valodas, L33t sp34k, emocijzīmes un pat Morzes ābece.
“Tā kā MI tehnoloģijas turpina attīstīties, mēs sagaidām, ka kibernoziedznieki vēl vairāk pielāgos LLM, lai optimizētu savas darbības, rakstītu rīkus un skriptus lietotāju kompromitēšanai, kā arī ģenerētu saturu, ko vieglāk novietot aizsardzības sistēmām garām,” teikts Cisco Talos ziņojumā.
Pētījuma autori uzsver – šī tehnoloģija nerada pilnīgi jaunus digitālos ieročus, bet gan kalpo kā “spēka reizinātājs”, kas padara jau zināmās uzbrukuma metodes vēl efektīvākas un plašākas.
Avots: TechRadar