Eksperti ir brīdinājuši, ka pastāv veids, kā OpenAI ChatGPT var mijiedarboties ar DDoS uzbrukumiem ļaundara labā.
Kiberdrošības pētnieks Bendžamins Flešs ir pamanījis, ka problēma meklējama tajā, kā ChatGPT API apstrādā HTTP POST pieprasījumus konkrētam galapunktam. Šis galapunkts ļauj lietotājam nodrošināt sēriju saišu caur “url” parametriem – bez ierobežojumiem.
Teorētiski ļaundaris vienā pieprasījumā var iekļaut tūkstošiem hipersaišu, kas visas norāda uz vienu serveri vai adresi. Tā rezultātā OpenAI serveri izveido lielu apjomu upura mājaslapas HTTP pieprasījumu, kas noved pie pakalpojuma atteikuma.
ChatGPT ļaunprātīga izmantošana
Flešs vēsta, ka risinājums ir gana vienkāršs – OpenAI ir jāievieš konkrēti mēri tam, cik URL viena persona var pieteikt. Uzņēmumam arī vajadzētu pārliecināties, ka arī dublicētie pieprasījumi ir ierobežoti. Visbeidzot, pievienojot likmes ierobežošanas mērus, varētu izvairīties no potenciāla posta.
Šī nav pirmā reize, kad cilvēki ir atraduši veidus, kā ļaunprātīgi izmantot ģeneratīvā mākslīgā intelekta (MI) rīkus. Tā noteikti nav arī pēdējā.
Līdz šim gan fokuss ir bijis uz rīka, nevis tā infrastruktūras, pielietošanu nelabvēlīgos veidos. Drošības pētnieki ir redzējuši, kā ChatGPT un līdzīgi rīki tiek iemānīti ļaunprātīgas programmatūras koda uzrakstīšanā, pārliecinošu pikšķerēšanas e-pastu uzģenerēšanā vai sprāgstvielas receptes izveidošanā.
OpenAI un citu rīku izstrādātāji cītīgi strādā, lai ietvertu programmatūrā dažādus aizsargmehānismus, aizsargpasākumus un blokus, lai novērstu to ļaunprātīgu izmantošanu. Lielākoties tas ir bijis veiksmīgi, jo rīki vienkārši neatbild uz konkrētām prasībām. Taču ar šo piegājienu ir izveidojusies pavisam jauna joma – “GenAI jailbreaking”. Tajā hakeri sacenšas, apejot ģeneratīvā MI ētiskos, drošības un lietošanas ierobežojumus.
Avots: TechRadar