Kāpēc jauna profilēšanas programmatūra rada bažas par privātumu?

Satura rādītājs:

Kāpēc jauna profilēšanas programmatūra rada bažas par privātumu?
Kāpēc jauna profilēšanas programmatūra rada bažas par privātumu?
Anonim

Atslēgas līdzņemšanai

  • Programmatūra, kas cilvēku profilēšanai izmanto mākslīgo intelektu, rada bažas par privātumu.
  • Cryfe apvieno uzvedības analīzes metodes ar mākslīgo intelektu.
  • Ķīnas uzņēmums Alibaba nesen tika kritizēts pēc tam, kad tika ziņots, ka tā programmatūra var atklāt uigurus un citas etniskās minoritātes.
Image
Image

Jauna programmatūra, ko nodrošina mākslīgais intelekts un kas paredzēta darba devējiem, lai veidotu savu darbinieku profilu, rada bažas par privātumu.

Viena jauna programmatūras platforma, ko sauc par Cryfe, apvieno uzvedības analīzes metodes ar mākslīgo intelektu. Izstrādātājs apgalvo, ka, analizējot nelielas norādes, programmatūra var atklāt cilvēku nodomus interviju laikā. Taču daži novērotāji saka, ka Cryfe un cita veida programmatūra, kas analizē uzvedību, var pārkāpt privātumu.

"Uzņēmumi profilēšanā arvien vairāk paļaujas uz AI," e-pasta intervijā sacīja AI eksperts Vaclavs Vincale. "Taču pat cilvēki, kas kodē šos algoritmus, vēl jo mazāk klientu atbalsta persona, ar kuru sazināties pa tālruni, nevarēja pateikt, kāpēc viņi sniedz kādu konkrētu ieteikumu."

Vairāk nekā vārdi

Cryfe izstrādāja Šveices uzņēmums, kura darbiniekus FIB apmācīja profilēšanas paņēmienos. "Kraifs visās starppersonu komunikācijās ne tikai klausās vārdos, bet arī identificē citus cilvēka izstarotos signālus, piemēram, emocijas, mikroizpausmes un visus žestus," e-pasta intervijā sacīja Cryfe dibinātāja Kerolaina Matteuči.

"Piemēram, darbā pieņemšanas laikā tas ļauj mums doties un meklēt mūsu sarunu biedra īsto personību."

Matteucci teica, ka lietotāju privātums ir aizsargāts, jo uzņēmums ir pārredzams par programmatūras darbību. "Lietotājam, pirms viņš var izmantot platformu, ir jāpiekrīt vispārējiem nosacījumiem," viņa teica.

"Tur ir norādīts, ka lietotājs nekādā gadījumā nedrīkst iesniegt interviju analīzei, ja nav saņēmis sarunu biedra rakstisku piekrišanu."

Cryfe nav vienīgā ar AI darbināma programmatūra, kuras mērķis ir analizēt cilvēku uzvedību. Ir arī Humantic, kas apgalvo, ka analizē patērētāju uzvedību. Uzņēmuma tīmekļa vietnē teikts, ka "Humantic jaunā tehnoloģija paredz ikviena cilvēka uzvedību bez nepieciešamības veikt personības pārbaudi," teikts uzņēmuma tīmekļa vietnē.

Image
Image

Uzņēmums apgalvo, ka izmanto mākslīgo intelektu, lai izveidotu pretendentu psiholoģiskos profilus, pamatojoties uz vārdiem, ko viņi izmanto CV, motivācijas vēstulēs, LinkedIn profilos un jebkurā citā viņu iesniegtajā teksta daļā.

Uzvedības programmatūra pagātnē ir saskārusies ar juridiskiem izaicinājumiem. 2019. gadā Bloomberg Law ziņoja, ka Vienlīdzīgu nodarbinātības iespēju komisija (EEOC) izskatīja gadījumus par iespējamu nelikumīgu diskrimināciju ar algoritmu balstītu, ar cilvēkresursiem saistītu lēmumu dēļ.

"Tas viss būs jāizstrādā, jo darbā pieņemšanas nākotne ir AI," Bloomberg sacīja advokāts Bredfords Ņūmens.

Dažiem novērotājiem ir problēmas ar uzņēmumiem, kas izmanto uzvedības izsekošanas programmatūru, jo tā nav pietiekami precīza. Intervijā Naidžels Dafijs, globālais mākslīgā intelekta līderis profesionālajā pakalpojumu uzņēmumā EY, pastāstīja InformationWeek, ka viņu satrauc programmatūra, kas izmanto sociālo mediju viktorīnas un ietekmē atklāšanu.

"Es domāju, ka ir patiešām saistoša literatūra par ietekmes noteikšanas iespējām, taču es saprotu, ka veids, kā tas bieži tiek īstenots, ir diezgan naivs," viņš teica.

Ķīnas uzņēmumi, kā ziņots, profilē minoritātes

Uzvedības izsekošanai varētu būt arī draudīgāki mērķi, uzskata dažas cilvēktiesību grupas. Ķīnā tiešsaistes tirgus gigants Alibaba nesen izraisīja satraukumu pēc tam, kad tika ziņots, ka tā programmatūra var atklāt uigurus un citas etniskās minoritātes.

The New York Times ziņoja, ka uzņēmuma mākoņdatošanas biznesam bija programmatūra, kas skenēja attēlus un videoklipus.

Bet pat cilvēki, kas kodē šos algoritmus… nevarēja pateikt, kāpēc viņi sniedz kādu konkrētu ieteikumu.

The Washington Post arī nesen ziņoja, ka Huawei, cits Ķīnas tehnoloģiju uzņēmums, ir testējis programmatūru, kas varētu brīdināt tiesībaizsardzības iestādes, kad tās novērošanas kameras atklāja uiguru sejas.

Huawei 2018. gada patenta pieteikumā tika apgalvots, ka sejas atpazīšanas tehnoloģijā "gājēju atribūtu identificēšana ir ļoti svarīga"."Mērķa objekta atribūti var būt dzimums (vīrietis, sieviete), vecums (piemēram, pusaudži, pusmūžs, vecs) [vai] rase (hans, uiguri), " teikts pieteikumā.

Huawei pārstāvis sacīja CNN Business, ka etniskās piederības identifikācijas funkcijai "nekad nevajadzētu kļūt par lietojumprogrammas daļu".

Plašā mākslīgā intelekta izmantošana, lai šķirotu milzīgu datu apjomu, noteikti radīs bažas par privātumu. Jūs, iespējams, nekad nezināt, kas vai kas jūs analizē nākamreiz, kad dodaties uz darba interviju.

Ieteicams: