Kāpēc emociju lasīšanas programmatūra var pārkāpt jūsu privātumu

Satura rādītājs:

Kāpēc emociju lasīšanas programmatūra var pārkāpt jūsu privātumu
Kāpēc emociju lasīšanas programmatūra var pārkāpt jūsu privātumu
Anonim

Atslēgas līdzņemšanai

  • Kā ziņots, ka Zoom izmantos AI, lai novērtētu lietotāja noskaņojumu vai iesaistīšanās līmeni.
  • Cilvēktiesību grupas lūdz Zoom pārdomāt savu plānu privātuma un datu drošības apsvērumu dēļ.
  • Daži uzņēmumi interviju laikā izmanto arī emociju noteikšanas programmatūru, lai novērtētu, vai lietotājs pievērš uzmanību.
Image
Image

Arvien pieaugošā mākslīgā intelekta (AI) izmantošana cilvēku emociju uzraudzībai rada bažas par privātumu.

Cilvēktiesību organizācijas lūdz Zoom palēnināt plānu ieviest emociju analīzes AI savā videokonferenču programmatūrā. Uzņēmums ir ziņojis, ka izmantos AI, lai novērtētu lietotāja noskaņojumu vai iesaistīšanās līmeni.

"Eksperti atzīst, ka emociju analīze nedarbojas," vēstulē Zoom raksta cilvēktiesību grupu konsorcijs, tostarp ACLU. "Sejas izteiksmes bieži vien ir atdalītas no emocijām, kas atrodas apakšā, un pētījumi ir atklājuši, ka pat cilvēki dažkārt nevar precīzi nolasīt vai izmērīt citu cilvēku emocijas. Šī rīka izstrāde palielina pseidozinātnes uzticamību un liek uz spēles jūsu reputāciju."

Zoom nekavējoties neatbildēja uz Lifewire pieprasījumu sniegt komentāru.

Sekojiet līdzi savām emocijām

Saskaņā ar protokola rakstu, tālummaiņas pārraudzības sistēma ar nosaukumu Q for Sales pārbauda lietotāju sarunu laika attiecību, reakcijas laika aizkavi un biežas skaļruņu maiņas, lai izsekotu, cik iesaistīta persona ir. Tālummaiņa izmantos šos datus, lai piešķirtu punktu skaitu no nulles līdz 100, un augstāki rādītāji norāda uz lielāku iesaistīšanos vai noskaņojumu.

Cilvēktiesību grupas apgalvo, ka programmatūra var diskriminēt cilvēkus ar invaliditāti vai noteiktu etnisko piederību, pieņemot, ka visi saziņai izmanto vienas un tās pašas sejas izteiksmes, balss modeļus un ķermeņa valodu. Grupas arī norāda, ka programmatūra varētu apdraudēt datu drošību.

Image
Image

"Saskaņā ar vēstuli, ja tiek iegūti dziļi personas dati, ikviena organizācija, kas izvieto šo tehnoloģiju, var kļūt par mērķi slaucīt valdības iestādes un ļaunprātīgus hakerus."

Jūlija Stojanoviča, Ņujorkas universitātes datorzinātņu un inženierzinātņu profesore, e-pasta intervijā Lifewire sacīja, ka ir skeptiska pret emociju noteikšanas apgalvojumiem.

"Es nesaprotu, kā šāda tehnoloģija var darboties - cilvēku emocionālā izpausme ir ļoti individuāla, ļoti atkarīga no kultūras un ļoti specifiska kontekstam," sacīja Stojanovičs."Bet, iespējams, vēl svarīgāk ir tas, ka es nesaprotu, kāpēc mēs vēlētos, lai šie rīki darbotos. Citiem vārdiem sakot, mums būtu vēl lielākas problēmas, ja tie darbotos labi. Bet varbūt pat pirms domām par riskiem, mums vajadzētu jautājiet - kādi ir potenciālie ieguvumi no šādas tehnoloģijas?"

Zoom nav vienīgais uzņēmums, kas izmanto emociju noteikšanas programmatūru. Teo Vils, privātuma un drošības konsultāciju uzņēmuma Kuma LLC vecākais privātuma direktors, e-pastā Lifewire pastāstīja, ka interviju laikā tiek izmantota programmatūra emociju noteikšanai, lai novērtētu, vai lietotājs pievērš uzmanību. Tas tiek izmēģināts arī transporta nozarē, lai uzraudzītu, vai vadītāji šķiet miegaini, video platformās, lai novērtētu interesi un pielāgotu ieteikumus, un izglītojošās pamācībās, lai noteiktu, vai konkrēta mācību metode ir saistoša.

Wills apgalvoja, ka strīdi par emociju uzraudzības programmatūru vairāk ir datu ētikas, nevis privātuma jautājums. Viņa teica, ka runa ir par to, ka sistēma pieņem reālus lēmumus, pamatojoties uz nojautām.

"Izmantojot šo tehnoloģiju, jūs tagad pieņemat iemeslu, kāpēc man ir īpaša sejas izteiksme, taču stimuls, kas slēpjas aiz sejas izteiksmes, ir ļoti atšķirīgs, piemēram, sociālās vai kultūras audzināšanas, ģimenes uzvedības, pagātnes pieredzes vai nervozitātes dēļ. šobrīd," Vils piebilda. "Algoritma balstīšana uz pieņēmumu pēc būtības ir kļūdaina un potenciāli diskriminējoša. Daudzas populācijas nav pārstāvētas populācijā, uz kuras pamatā ir algoritmi, un pirms tā izmantošanas ir jānosaka atbilstošs attēlojums."

Praktiski apsvērumi

Emociju izsekošanas programmatūras radītās problēmas var būt gan praktiskas, gan teorētiskas. Mets Heisijs, AI vadītas lietotnes Ferret.ai līdzdibinātājs, kas nodrošina attiecību izlūkošanu, Lifewire e-pastā pastāstīja, ka lietotājiem ir jājautā, kur tiek veikta seju analīze un kādi dati tiek glabāti. Vai pētījums tiek veikts, izmantojot zvanu ierakstus, apstrādātus mākonī vai vietējā ierīcē?

Arī Heisija, algoritmam mācoties, jautāja, kādus datus tas apkopo par personas seju vai kustībām, ko, iespējams, varētu atdalīt no algoritma un izmantot, lai atjaunotu personas biometriskos datus? Vai uzņēmums glabā momentuzņēmumus, lai pārbaudītu vai apstiprinātu algoritma mācības, un vai lietotājs tiek informēts par šiem jaunajiem atvasinātajiem datiem vai saglabātajiem attēliem, kas, iespējams, tiek vākti no viņa zvaniem?

"Šīs visas ir problēmas, ko daudzi uzņēmumi ir atrisinājuši, taču ir arī uzņēmumi, kurus ir satricinājis skandāls, kad izrādās, ka viņi to nav izdarījuši pareizi," sacīja Heisija. "Facebook ir nozīmīgākais gadījums, kad uzņēmums ir atcēlis savu sejas atpazīšanas platformu bažām par lietotāju privātumu. Mātesuzņēmums Meta tagad izmanto AR funkcijas no Instagram dažās jurisdikcijās, piemēram, Ilinoisā un Teksasā, saistībā ar privātuma likumiem, kas attiecas uz biometriskajiem datiem."

Ieteicams: