Anthropic brīdina, ka Claude AI kļūst par hakeru ieroci

Anthropic brīdina, ka hakeri izmanto Claude AI datu zādzībām un izspiešanai. Ziņots par “vibe-hacking” uzbrukumiem 17 organizācijām.

Viens no pasaules lielākajiem mākslīgā intelekta (MI) uzņēmumiem Anthropic nācis klajā ar satraucošu paziņojumu – tā čatbots Claude arvien biežāk tiek izmantots kibernoziedznieku interesēs.

Jaunākajā Threat Intelligence Report atklāts, ka hakeri čatbotu izmanto ļaunprogrammatūras izstrādei, datu zādzībām un izspiešanai. Šādi jaunumi padara uzbrukumus ievērojami bīstamākus un plašākus nekā jebkad agrāk.

Uzņēmums norāda, ka MI ir būtiski mainījis kiberuzbrukumu raksturu. Agrāk sarežģītus izspiedējprogrammu vai datu noplūdes uzbrukumus varēja īstenot vienīgi speciālisti ar vairāku gadu pieredzi.

Tagad? Pat lietotāji ar mazu pieredzi sfērā spēj radīt bīstamus rīkus vien dažu stundu laikā. MI ne tikai palīdz izveidot uzbrukumu kodu, bet arī analizē nozagtos datus, tostarp kredītkaršu informāciju, valdības akreditācijas un veselības aprūpes ierakstus.

Tas nozīmē, ka kibernoziedznieki kļuvuši ātrāki, agresīvāki un veiksmīgāki savos centienos.

“Vibe-hacking” – jauna draudu forma

Īpašu uzmanību pārskatā piesaista metode, ko Anthropic sauc par “vibe-hacking”. Tā balstās uz principiem, kas līdzīgi “vibe coding” pieejai programmēšanā, kur MI plaši izmanto koda ģenerēšanai un automatizācijai.

Claude koda izpildes vide noziedzniekiem ļāvusi veikt automatizētu izlūkošanu, paroļu vākšanu un tīklu uzlaušanu plašā mērogā. Vien pēdējā mēneša laikā skartas vismaz 17 organizācijas, tostarp veselības aprūpes iestādes, valdības struktūras, reliģiskās institūcijas un neatliekamās palīdzības dienesti.

Šie uzbrukumi nav bijuši nelieli. Sekas ietver jutīgu personas datu noplūdes un tiešus izspiešanas pieprasījumus, kas dažkārt pārsnieguši 428 000 eiro. Ziņojumā uzsvērts, ka kaitējums nav tikai finansiāls. Upuriem draud arī nomelnošana, sistēmu paralīze un ilgtermiņa drošības riski.

Eksperti jau sen brīdinājuši, ka MI pazemina nepieciešamo prasmju latiņu kibernoziedzībai, taču Anthropic secinājumi liecina, ka situācija ir kļuvusi kritiska. Lielie valodu modeļi noziedzniekiem palīdz gandrīz ikvienā uzbrukuma posmā – no sagatavošanās līdz datu izmantošanai izspiešanai.

Avots: TechRadar

Dalies :

Facebook
Twitter
LinkedIn
Pinterest

Atbildēt

Jaunākie apskati
Tev varētu interesēt