OpenAI sistēmas izmanto kibernoziegumiem

Hakeri izmanto ChatGPT, lai mēģinātu ietekmēt vēlēšanas visā pasaulē, liekot OpenAI apkarot kibernoziegumu kampaņas.

OpenAI, kas ir slavenā ChatGPT ģeneratīvā mākslīgā intelekta (MI) autors, apgalvo, ka nesen ir bloķētas vairākas ļaunprātīgas kampaņas, kas ļaunprātīgi izmanto uzņēmuma sniegtos MI pakalpojumus.

Ziņojumā norādīts, ka līdz šim 2024.gadā bloķētas vairāk nekā 20 ļaunprātīgas operācijas un maldinoši tīkli visā pasaulē. Šīs operācijas atšķiras pēc būtības, lieluma un mērķiem. Dažkārt krāpnieki izmanto ļaunprātīgu programmu atkļūdošanai (debug), bet dažkārt – satura (tīmekļa vietņu rakstu, viltotu biogrāfiju plašsaziņas līdzekļu kontiem, viltotu profila bilžu u.c.) rakstīšanai.

OpenAI rīki nesekmē izdošanos

Lai gan raksturotā situācija izklausās draudīgi un bīstami, OpenAI apgalvo, ka draudu radītājiem ar šīm kampaņām nav izdevies gūt ievērojamus panākumus. “Draudu aktori turpina attīstīties un eksperimentēt ar mūsu MI modeļiem, taču mēs neesam atraduši pierādījumus, ka šādas darbības novestu pie nozīmīga izrāviena viņu spējā radīt jaunu ļaunprātīgu programmatūru vai sasniegt plašāku sabiedrību.”

Tomēr jāatzīmē, ka 2024.gads ir vēlēšanu gads. Tas ir, ne tikai ASV, bet arī citur pasaulē. OpenAI ir novērojuši, ka ChatGPT nereti izmanto ļaunprātīgos nolūkos, mēģinot ietekmēt priekšvēlēšanu kampaņas. Uzņēmums minēja vairākus grupējumus, tostarp vienu ar nosaukumu “Zero Zero”. Izraēlā bāzētā komercsabiedrība “uz īsu brīdi” ģenerēja komentārus sociālajos tiklos par vēlēšanām Indijā – kampaņa tika pārtraukta “mazāk nekā 24 stundas pēc tās sākuma”.

Uzņēmums piebilda, ka 2024.gada jūnijā, īsi pirms Eiropas Parlamenta (EP) vēlēšanām, tika izjaukta operācija ar nosaukumu “A2Z”. Tā esot bijusi vērsta uz Azerbaidžānu un tās kaimiņvalstīm. Ievērojami pieminēt arī citus gadījumus, kas ietvēra komentāru ģenerēšanu. Piemēram, par EP vēlēšanām Francijā un par politiku Itālijā, Polijā, Vācijā un ASV.

Avots: TechRadar

Dalies :

Facebook
Twitter
LinkedIn
Pinterest

Atbildēt

Jaunākie apskati
Tev varētu interesēt