Atslēgas līdzņemšanai
- Tā kā dziļo viltojumu izgatavošana kļūst vieglāka, par prioritāti ir kļuvuši jauni un uzlaboti to pamanīšanas veidi.
- Facebook dziļās viltojumu noteikšanas tehnoloģija izmanto reverso mašīnmācīšanos, lai atklātu, vai videoklips ir viltots vai nē.
- Eksperti saka, ka blokķēdes tehnoloģijas izmantošana būtu labākais veids, kā noskaidrot, vai videoklips ir īsts, jo metode balstās uz kontekstuālajiem datiem.
Facebook ir pārliecināts par savu mašīnmācīšanās modeli, lai apkarotu dziļos viltojumus, taču eksperti saka, ka mašīnmācīšanās pati par sevi nepasargās mūs no dziļo viltojumu maldināšanas.
Uzņēmumi, piemēram, Facebook, Microsoft un Google, strādā, lai cīnītos pret dziļo viltojumu izplatīšanos tīmeklī un sociālajos tīklos. Lai gan metodes atšķiras, ir viena iespēja, lai atklātu šos viltus videoklipus: blokķēdes.
“[Blockchains] vienkārši sniedz jums lielu potenciālu, lai apstiprinātu dziļo viltojumu tādā veidā, kas ir vislabākais validācijas veids, ko es varu redzēt,” Stīvens Volframs, Wolfram Research dibinātājs un izpilddirektors un grāmatas A New Kind of autors. Lifewire pa tālruni stāstīja Science.
Facebook Deepfake-Spotting Tech
Deepfake tehnoloģija pēdējos gados ir strauji attīstījusies. Maldinošajos videoklipos tiek izmantotas mašīnmācīšanās metodes, lai veiktu tādas darbības kā, piemēram, sejas uzklāšana uz citas personas ķermeņa, fona apstākļu maiņa, viltus lūpu sinhronizācija un citas darbības. Tās var būt dažādas, sākot no nekaitīgām parodijām un beidzot ar to, ka slavenības vai publiskas personas liek pateikt vai darīt kaut ko tādu, ko viņi nav izdarījuši.
Eksperti saka, ka tehnoloģija strauji attīstās un dziļi viltojumi kļūs tikai pārliecinošāki (un vieglāk izveidojami), jo tehnoloģija kļūs plašāk pieejama un novatoriskāka.
Facebook sadarbībā ar Mičiganas štata universitāti nesen sniedza plašāku ieskatu savā dziļo viltojumu noteikšanas tehnoloģijā. Sociālais tīkls saka, ka tas paļaujas uz reverso inženieriju, sākot no viena mākslīgā intelekta ģenerēta attēla līdz ģeneratīvajam modelim, ko izmanto tā izveidošanai.
Pētniecības zinātnieki, kas strādāja ar Facebook, teica, ka šī metode balstās uz unikālo modeļu atklāšanu aiz mākslīgā intelekta modeļa, ko izmanto dziļas viltojuma ģenerēšanai.
“Vispārinot attēla attiecināšanu uz atvērto atpazīšanu, mēs varam iegūt vairāk informācijas par ģeneratīvo modeli, ko izmanto, lai izveidotu dziļu viltojumu, kas pārsniedz atpazīšanu, ka tas iepriekš nav redzēts. Un, izsekojot līdzības starp dziļo viltojumu kolekcijas modeļiem, mēs varētu arī noteikt, vai attēlu sērija ir cēlusies no viena avota,” Facebook emuāra ierakstā raksta pētnieki Sji Iņ un Tans Hasners par tās dziļo viltojumu noteikšanas metodi.
Wolfram saka, ka ir loģiski, ka jūs izmantotu mašīnmācīšanos, lai pamanītu uzlabotu AI modeli (dziļa viltojumu). Tomēr vienmēr ir iespēja apmānīt tehnoloģiju.
"Es nemaz neesmu pārsteigts, ka pastāv pienācīgs mašīnmācīšanās veids [atklāt dziļos viltojumus]," sacīja Volframs. "Vienīgais jautājums ir, ja jūs pieliekat pietiekami daudz pūļu, vai varat to apmānīt? Esmu pārliecināts, ka jūs varat.”
Cīņa ar dziļo viltojumu citādā veidā
Tā vietā Volframs teica, ka, viņaprāt, blokķēdes izmantošana būtu labākā iespēja, lai precīzi noteiktu noteiktu veidu dziļos viltojumus. Viņa viedoklis par blokķēdes izmantošanu mašīnmācīšanās vietā sniedzas 2019. gadā, un viņš teica, ka galu galā blokķēdes pieeja var nodrošināt precīzāku mūsu dziļās viltošanas problēmas risinājumu.
“Es paredzu, ka attēlu un video skatītāji varētu regulāri pārbaudīt blokķēdes (un “datu triangulācijas aprēķinus”), līdzīgi kā tagad tīmekļa pārlūkprogrammas pārbauda drošības sertifikātus,” Volframs rakstīja rakstā, kas publicēts Scientific American.
Tā kā blokķēdes glabā datus blokos, kas pēc tam tiek savienoti kopā hronoloģiskā secībā, un tā kā decentralizētās blokķēdes ir nemainīgas, ievadītie dati ir neatgriezeniski.
Vienīgais jautājums ir, ja jūs pieliekat pietiekami daudz pūļu, vai varat to apmānīt? Esmu pārliecināts, ka jūs varat.
Wolfram paskaidroja, ka, ievietojot videoklipu blokķēdē, jūs varēsit redzēt tā uzņemšanas laiku, atrašanās vietu un citu kontekstuālu informāciju, kas ļautu noteikt, vai tas ir kaut kādā veidā mainīts.
“Kopumā, ja ir vairāk metadatu, kas veido attēla vai videoklipa kontekstu, jo lielāka iespēja, ka to varēsit pateikt,” viņš teica. “Jūs nevarat viltot laiku blokķēdē.”
Tomēr Volframs teica, ka izmantotā metode - vai tā ir mašīnmācīšanās vai blokķēdes izmantošana - ir atkarīga no dziļās viltošanas veida, no kuras mēģināt aizsargāties (t.i., video, kurā Kima Kardašjana saka kaut ko muļķīgu, vai videoklips ar politiķis sniedz paziņojumu vai ierosinājumu).
“Bloku ķēdes pieeja aizsargā pret noteikta veida dziļiem viltojumiem, tāpat kā mašīnmācīšanās attēlu apstrāde aizsargā pret noteikta veida dziļiem viltojumiem,” viņš teica.
Šķiet, ka galvenais mērķis ir mūsu visu modrība cīņā pret gaidāmajiem dziļajiem plūdiem.