Kā Sony, Canon un Nikon gatavojas apkarot dziļviltojumu attēlus

2023. gadā mākslīgais intelekts satracināja fotografēšanas industriju. Sākot ar uzvarām foto konkursos, beidzot ar dziļviltojumu attēliem, kas atstāja reālas sekas. 

Dziļviltojumi var likties aizraujoši, bet tos arī var izmantot, lai izplatītu dezinformāciju. Tā kā MI (mākslīgā intelekta) attēlu ģeneratori kļuvuši arvien attīstītāki, palicis daudz grūtāk tos atšķirt no īstenības. 

Balstoties uz Nikkei Asia ziņojumu, vadošie kameru uzņēmumi – Sony, Canon un Nikon – plāno šo problēmu apkarot. Tas tiks paveikts izmantojot tehnoloģiju, kas jaunās kamerās var apstiprināt attēlu autentiskumu. 

Pagājušogad Leica M11-P kļuva par pirmo kameru ar iebūvētiem satura akreditācijas datiem – digitālais paraksts, kas uzrāda laiku, datumu un lokāciju, kur uzņemts attēls. Kā arī to, kurš notvēris konkrēto kadru. Taču ne visiem ir lieki 8121 EUR Leica kameras iegādei. 

Vēl nezinām, kādi modeļi tiks aprīkoti ar šo autentifikācijas funkciju, taču neviens nav liedzis izteikt minējumus. Sony A9 III relīzē Sony paziņoja, ka atjauninās to un vēl divus modeļus – A1 un A7S III – ar CP2A (Content Provenance and Authenticity) atbalstu. 

Nikkei Asia ziņojums vēsta, ka nākotnes kameras nodrošinās nepieciešamo info, lai autentificētu attēlu. To varēs izdarīt izmantojot CAI (Content Authenticity Initiatives) pārbaudes sistēmu. 

Vai ar to būs gana?

Agrīnās indikācijas liecina, ka šāda tipa funkcijas būs pieejamas tikai profesionālām kamerām, kas parasti atrodas žurnālistu rokās. 

Kamēr lielās mediju organizācijas varēs pārbaudīt attēlu autentiskumu, ar lielāko daļu kameru to nebūs iespējams izdarīt. Vēl jo vairāk ar viedtālruņu kamerām. 

Lielākā problēma, ko šīs pārbaudes funkcijas nemaz neapskata, ir mājaslapas un mediji, kas izplata dezinformāciju ar nepatiesiem attēliem, ko, visticamāk, apskata miljoniem cilvēku. Noteikti paies laiks, kamēr šāda tipa drošības pasākumi tiks ieviesti plašāka mēroga ierīcēm – neprofesionālām un viedtālruņu kamerām. 

Avots: TechRadar

Dalies :

Facebook
Twitter
LinkedIn
Pinterest

2 Responses

  1. Kāpēc Deepfake tiek tulkots kā dziļviltojums? Vai Photoshop jūs arī tulkojat kā attēlveikalu? Ne taču, ja attēls ir fotošopēts, tā arī jāraksta. Neraksta taču ka foto ir attēlveikalots.

    Šie latviskotāji arī savulaik bija pop-up latviskojuši kā iznireli pēkšņlodziņu. Var jau būt ka ir ļoti jautri kad sapīpējas tādus un līdzīgus terminus izfantazēt, bet latviešu valoda ar to vājinās, jo tiek izspiesta no IT vides. Neviens nelieto tās vēres, palaistuves, žurnalēšanos un ļaunatūru.

Atbildēt

Jaunākie apskati
Tev varētu interesēt