Atslēgas līdzņemšanai
- Jauns pētījums atklāj, ka cilvēki nevar atdalīt mākslīgā intelekta radītos attēlus no reāliem.
- Dalībnieki AI ģenerētos attēlus novērtēja kā uzticamākus.
- Eksperti uzskata, ka cilvēkiem vajadzētu pārstāt uzticēties visam, ko viņi redz internetā.
Paruna "redzēt ir ticēt" vairs nav aktuāla, kad runa ir par internetu, un eksperti saka, ka tas drīzumā neuzlabosies.
Nesen veikts pētījums atklāja, ka mākslīgā intelekta (AI) radītie seju attēli ir ne tikai ļoti fotoreālistiski, bet arī šķietami tikumīgāki par īstām sejām.
"Mūsu novērtējums par mākslīgā intelekta sintezēto seju fotoreālismu liecina, ka sintēzes dzinēji ir izgājuši cauri neparastajai ielejai un spēj radīt sejas, kas ir neatšķiramas un uzticamākas par īstām sejām," novēroja pētnieki.
Šī persona neeksistē
Pētnieki Dr. Sofija Naitingeila no Lankasteras universitātes un profesors Hanijs Farids no Kalifornijas Universitātes Bērklijā veica eksperimentus pēc tam, kad bija atzinuši plaši reklamētos dziļu viltojumu draudus, sākot no visa veida krāpšanas tiešsaistē līdz uzmundrinošam dezinformācijas kampaņas.
"Iespējams, visbīstamākās ir sekas, ka digitālajā pasaulē, kurā var viltot jebkuru attēlu vai video, var tikt apšaubīts jebkura neērta vai nevēlama ieraksta autentiskums," apgalvoja pētnieki.
Viņi apgalvoja, ka, lai gan ir gūti panākumi automātisko paņēmienu izstrādē dziļi viltota satura noteikšanai, pašreizējās metodes nav pietiekami efektīvas un precīzas, lai neatpaliktu no nepārtrauktas tiešsaistē augšupielādētā satura plūsmas. Tas nozīmē, ka tiešsaistes satura patērētāji var atšķirt īsto no viltus, iesaka duets.
Jelle Wieringa, KnowBe4 drošības izpratnes aizstāve, piekrita. Viņš pastāstīja Lifewire pa e-pastu, ka apkarot patiesos dziļos viltojumus ir ārkārtīgi grūti izdarāms bez specializētas tehnoloģijas. "[Mazināšanas tehnoloģijas] var būt dārgas un grūti ieviešamas reāllaika procesos, bieži vien dziļo viltojumu atklāj tikai pēc tam."
Izmantojot šo pieņēmumu, pētnieki veica virkni eksperimentu, lai noteiktu, vai cilvēku dalībnieki var atšķirt jaunākās tehnoloģijas sintezētas sejas no īstām sejām. Pārbaudēs viņi atklāja, ka, neskatoties uz apmācību, lai palīdzētu atpazīt viltojumus, precizitātes līmenis tikai uzlabojās līdz 59%, salīdzinot ar 48% bez apmācības.
Tas lika pētniekiem pārbaudīt, vai uzticamības uztvere var palīdzēt cilvēkiem identificēt mākslīgos attēlus. Trešajā pētījumā viņi lūdza dalībniekus novērtēt seju uzticamību, tikai atklājot, ka sintētisko seju vidējais vērtējums ir 7. Par 7% uzticamāks nekā vidējais vērtējums īstām sejām. Skaitlis var neizklausīties pārāk liels, taču pētnieki apgalvo, ka tas ir statistiski nozīmīgs.
Deeper Fakes
Dziļi viltojumi jau bija lielas bažas, un tagad šis pētījums ir vēl vairāk satricinājis ūdeņus, kas liecina, ka šādi augstas kvalitātes viltoti attēli varētu pievienot pilnīgi jaunu dimensiju tiešsaistes krāpniecībai, piemēram, palīdzot radīt vairāk pārliecinoši tiešsaistes viltus profili.
"Vienīgais, kas veicina kiberdrošību, ir cilvēku uzticēšanās tehnoloģijām, procesiem un cilvēkiem, kas cenšas viņus aizsargāt," dalījās Wieringa. "Dziļi viltojumi, it īpaši, ja tie kļūst fotoreālistiski, grauj šo uzticību un līdz ar to arī kiberdrošības pieņemšanu un pieņemšanu. Tas var novest pie tā, ka cilvēki sāk neuzticēties visam, ko viņi uztver."
Kriss Hauks, Pixel Privacy patērētāju konfidencialitātes čempions, piekrita. Īsā e-pasta apmaiņā viņš pastāstīja Lifewire, ka fotoreālistisks dziļš viltojums var izraisīt "postījumus" tiešsaistē, jo īpaši mūsdienās, kad var piekļūt visu veidu kontiem, izmantojot fotoattēlu ID tehnoloģiju.
Korbējoša darbība
Par laimi, Prosegur Security IoT direktors Gregs Kūns saka, ka ir procesi, kas var izvairīties no šādas krāpnieciskas autentifikācijas. Viņš pa e-pastu pastāstīja Lifewire, ka uz mākslīgā intelekta balstītas akreditācijas sistēmas salīdzina verificētu personu ar sarakstu, taču daudzās ir iebūvēti aizsardzības līdzekļi, lai pārbaudītu dzīvīgumu.
"Šāda veida sistēmas var pieprasīt un palīdzēt lietotājam veikt noteiktus uzdevumus, piemēram, smaidīt vai pagriezt galvu pa kreisi, pēc tam pa labi. Šīs ir lietas, ko statiski ģenerētas sejas nevar veikt," stāstīja Kuhn.
Pētnieki ir ierosinājuši vadlīnijas, lai regulētu to izveidi un izplatīšanu, lai aizsargātu sabiedrību no sintētiskiem attēliem. Vispirms viņi iesaka iekļaut dziļi iesakņojušās ūdenszīmes pašos attēlu un video sintēzes tīklos, lai nodrošinātu visu sintētisko datu nesēju uzticamu identificēšanu.
Līdz tam Pols Bišofs, privātuma aizstāvis un Comparitech infosec pētījumu redaktors, saka, ka cilvēki ir vieni."Cilvēkiem būs jāiemācās neuzticēties sejām tiešsaistē, tāpat kā mēs visi (cerams) esam iemācījušies neuzticēties parādāmajiem vārdiem savos e-pastos," Bišofs pastāstīja Lifewire pa e-pastu.