Pirms gada DeepSeek debitēja kā MI superzvaigzne, bet vai tas varētu būt arī drošības risks? Eksperti uzskata, ka pretējais nav iespējams.
Kad 2025. gada janvārī DeepSeek-R1, Ķīnā izstrādātais lielais valodas modelis (LLM), piedzīvoja savu debiju Ķīnā, tas radīja milzīgu interesi un ātri kļuva par plaši izmantotu palīgu programmēšanā.
Tomēr CrowdStrike veiktie testi liecina, ka modeļa izvade var būtiski atšķirties, atkarībā no šķietami nebūtiskiem konteksta modificētājiem.
Komanda pārbaudīja 50 programmēšanas uzdevumus vairākās drošības kategorijās, izmantojot 121 aktivizējošā atslēgvārda konfigurāciju. Katrs uzdevums tika izpildīts piecas reizes, kopumā veicot 30 250 testu. Atbildes tika novērtētas pēc ievainojamības skalas no 1 (drošs) līdz 5 (kritiski ievainojams).
Pētījums atklāj, ka, iekļaujot norādēs politiski sensitīvus terminus, piemēram, Falun Gun, uigurus vai Tibetu, DeepSeek-R1 radīja kodu ar nopietnām drošības nepilnībām.
Šos problēmjautājumus papildināja iestrādātas paroles un slēptas vērtības, kā arī nedroša lietotāja ievades apstrāde. Atsevišķos gadījumos modelis ģenerēja pilnīgi nederīgu kodu. Pētnieki norāda, ka šādi politiski piesātināti atslēgvārdi var palielināt nedroša koda iespējamību par 50 % salīdzinājumā ar norādēm, kur šādas frāzes neparādās.
Sarežģītāku uzdevumu gadījumā DeepSeek-R1 spēja izveidot funkcionējošas lietotnes. Tomēr šīm lietotnēm trūka sesiju pārvaldības un autentifikācijas mehānismu, kas jutīgus datus padara neaizsargātus. Atkārtotos testos līdz 35 % ģenerēto risinājumu bija vāja vai vispār neesoša paroļu jaukšana.
Vienkāršākas norādes, piemēram, lūgumi izveidot futbola līdzjutēju kluba vietni, radīja niecīgas problēmas.
DeepSeek ir izteikti jutīgs politikas jautājumos
CrowdStrike secina, ka politiski sensitīvie atslēgvārdi nesamērīgi ietekmē koda drošību. Modelis demonstrēja arī iebūvētu apturēšanas mehānismu. Gandrīz pusē gadījumu DeepSeek-R1 atteicās ģenerēt kodu politiski jutīgās situācijās, pat ja sākotnēji bija uzsācis risinājuma plānošanu.
Pētījumā konstatēts, ka modelis iekšēji izveido tehnisku plānu, beigās atsakoties sniegt palīdzību. Pētnieki uzskata, ka tas atspoguļo modelī iestrādātu cenzēšanas mehānismu, kas paredzēts, lai ievērotu Ķīnas nostāju jutīgos jautājumos. Tika akcentēts, ka politiska un ētika – savā saknē subjektīvi jautājumi – var tieši ietekmēt ģenerētā koda uzticamību.
Politiskos jautājumos LLM parasti atkārto vadošo mediju skatījumu, kas var nonākt krasā pretrunā ar citiem uzticamiem avotiem.
Lai arī DeepSeek-R1 joprojām ir spējīgs programmēšanas modelis, šie eksperimenti parāda, ka MI rīki, tostarp ChatGPT un citi, uzņēmumu vidē var radīt slēptus riskus.
Uzņēmumiem, kas izmanto LLM ģenerētu kodu, pirms koda ieviešanas ir jāveic rūpīga tā pāraude. Tāpat būtiski saglabāt drošības slāņus, piemēram, tā dēvētos ugunsmūrus un pretvīrusu risinājumus, jo modelis var radīt neparedzamu vai ievainojamu izvadi.
Avots: TechRadar






























