Mākslīgais intelekts joprojām ir lielākoties ilūzija

Apple Computer Company pēc lielo valodas modeļu testēšanas atklāj, ka mākslīgā intelekta (MI) modeļi nespēj veikt patiesi loģisku spriešanu.

Apple Computer Company pētnieki pēc intensīviem pētījumiem, ir atraduši pierādījumus tam, ka šķietami inteliģentās atbildes, ko sniedz uz mākslīgo intelektu (MI) balstīti lielie valodas modeļi (LLM), ir tikai ilūzija.

Pēdējo gadu laikā daudzi lielie valodas modeļi, piemēram, ChatGPT, ir attīstījušies tiktāl, ka daudzi lietotāji ir sākuši šaubīties, vai tie ir apveltīti ar patiesu intelekts. Šajā jaunajā projektā Apple komanda ir pievērsusies šim jautājumam, pieņemot, ka atbilde ir saistīta ar inteliģentas būtnes vai mašīnas spēju izprast nianses vienkāršās situācijās, kas prasa loģisku spriešanu.

Informatīva ilūzija

Viena no šādām niansēm ir spēja atškirt būtisko no mazāk būtiskas informācijas. Piemēram, ja bērns jautā vecākam, cik daudz ābolu ir maisiņā, vienlaikus norādot, ka vairāki no tiem ir pārāk mazi, lai tos ēstu, gan bērns, gan vecāks saprot, ka ābolu lielumam nav nekāda sakara ar to skaitu. Tas ir tāpēc, ka abām personām piemīt spēja veikt loģiskus spriedumus.

Jaunveiktajā pētījumā pētnieki pārbaudīja vairāku LLM spēju patiesi saprast, kas tiek jautāts, netieši lūdzot viņus ignorēt informāciju, kas nav būtiska. Veiktajos testos vairākiem LLM tika uzdoti simtiem jautājumu, kas jau pērn tika izmantoti kā līdzeklis LLM spēju pārbaudei – taču pētnieki savos jautājumos iekļāva arī nebūtisku informāciju. Viņi atklāja, ka ar to pietika, lai maldinātu LLM, kā rezultātā MI rīki uz jautājumiem sniedza nepareizas vai pat bezjēdzīgas atbildes, pat ja iepriekš uz tiem bija atbildējuši pareizi.

Šis pētījums, lēš Apple Computer Company, ilustrē, ka LLM tomēr nav pilnīgas saprašanas par uzdotajiem jautājumiem. Turpretī, šie MI modeļi atpazīst teikumu struktūras un tad sniedz nepilnīgu atbildi, pamatojoties uz to, ko tie ir iemācījušies, izmantojot mašīnmācīšanās algoritmus.

Tāpat pētnieki atzīmē, ka lielākā daļa no viņu testētajiem LLM ļoti bieži atbild ar atbildēm, kas var šķist pareizas, bet pēc tālākas izskatīšanas tādas nav, piemēram, kad tiek jautāts, kā MI modeļi kaut ko “jūt”, tiek saņemtas atbildes, kas liecina, ka MI domā, ka ir spējīgs uz šādu rīcību, lai gan savā būtībā uz neko tādu spējīgs nav, ilustrējot šo nepilnību un pastāvošo ilūziju par MI spēju uz loģisku spriedumu veikšanu.

Avots: TechXplore

Dalies :

Facebook
Twitter
LinkedIn
Pinterest

Atbildēt

Jaunākie apskati
Tev varētu interesēt