AI Noziedzības prognozēšana varētu apsūdzēt nepareizos cilvēkus

Satura rādītājs:

AI Noziedzības prognozēšana varētu apsūdzēt nepareizos cilvēkus
AI Noziedzības prognozēšana varētu apsūdzēt nepareizos cilvēkus
Anonim

Atslēgas līdzņemšanai

  • Kā ziņots, ka programmatūras uzņēmums vāc sociālo mediju informāciju, lai izveidotu profilus, kurus var izmantot, lai identificētu personas, kuras rada drošības riskus.
  • Voyager Labs ir noslēdzis nozīmīgu darījumu ar Japānas valdības aģentūru.
  • Taču eksperti brīdina, ka mākslīgā intelekta prognozēšanas programmatūru var maldināt.
Image
Image

Jūsu tiešsaistes informāciju var izmantot, lai prognozētu, vai jūs varētu pastrādāt noziegumu.

Tiek ziņots, ka Voyager Labs apkopo informāciju par sociālajiem medijiem, lai izveidotu profilus, kurus var izmantot, lai identificētu personas, kuras rada drošības riskus. Tā ir daļa no pieaugošajiem centieniem izmantot mākslīgo intelektu (AI), lai izmeklētu potenciālos noziedzniekus. Taču daži eksperti saka, ka kustība ir pilna ar iespējamām problēmām.

"Ir ļoti grūti paredzēt cilvēku uzvedību," e-pasta intervijā Lifewire sacīja Metjū Kers, Atumcell Group drošības pētnieks. "Mēs pat nespējam paredzēt savu uzvedību, nemaz nerunājot par kāda cita uzvedību. Es domāju, ka ir iespējams, ka mākslīgais intelekts nākotnē varētu tikt izmantots šim nolūkam, taču šobrīd mēs esam tālu no tā, lai to varētu izdarīt."

Profilu izveide

Kā nesen ziņoja The Guardian, Losandželosas policijas departaments izskatīja iespēju izmantot Voyager Lab noziegumu prognozēšanas programmatūru. Uzņēmums arī paziņoja, ka ir noslēdzis nozīmīgu darījumu ar Japānas valdības aģentūru.

Japānas līgums nodrošina valdības aģentūrai uz mākslīgo intelektu balstītu izmeklēšanas platformu, kas analizē milzīgus informācijas apjomus no jebkura avota, tostarp atklātos un dziļos datus.

"Es priecājos, ka mēs sadarbojamies cīņā pret terorismu un noziedzību," ziņu izlaidumā sacīja Divja Khangarota, Voyager Labs APAC rīkotājdirektore. "Izmantojot Voyager Lab vismodernākos izlūkošanas risinājumus, mūsu klienti iegūst unikālas iespējas proaktīvi identificēt un novērst iespējamos draudus. Mēs piedāvājam papildu dziļas izmeklēšanas ieskatus, izmantojot AI, mašīnmācības un OSINT kombināciju, lai atklātu slēptās pēdas, pārkāpto informāciju, un slikti aktieri."

Nav tik gudrs?

Taču e-pasta intervijā Mets Heisijs, Ferret.ai līdzdibinātājs, kurš arī izmanto AI, lai prognozētu likumpārkāpējus, apšaubīja dažus Voyager Labs apgalvojumus.

"Vai pastāv tikpat skaidra saikne starp, teiksim, aizturēšanas reģistru un turpmāku noziedzīgu uzvedību, kā pārbaudē ir melns punkts un audzēja attīstība?" viņš teica. "Padomājiet par visām iespējamām neskaidrībām, kas radās šajā aizturēšanā - kādā apkaimē persona dzīvoja, policijas skaitu un kvalitāti, pat neobjektivitāti šajā apgabalā. Personas vecums, dzimums, fiziskais izskats un tas viss savstarpēji ietekmē iespējamību, ka šai personai tiks reģistrēts aizturēšanas ieraksts, kas ir pilnībā nošķirts no tās faktiskās tieksmes izdarīt noziegumu, kuru mēs cenšamies paredzēt."

Apsūdzētie ar labākiem advokātiem, visticamāk, spēs neļaut ierakstiem nekļūt publiski pieejami, sacīja Heisija. Dažas jurisdikcijas ierobežo šāvienu vai aresta ierakstu publiskošanu, lai aizsargātu apsūdzēto.

"Dators mācīsies, pamatojoties uz jūsu sniegtajiem datiem, un iekļaus visas novirzes, kas tika izmantotas datu vākšanā…"

"Tas viss rada papildu novirzes algoritmiem," viņš piebilda. "Dators mācīsies, pamatojoties uz jūsu sniegtajiem datiem, un iekļaus mācībās un interpretācijā visas novirzes, kas tika iegūtas datu vākšanā."

Ir bijuši vairāki mēģinājumi radīt noziedzību, kas paredz AI, un bieži vien ar skandaloziem rezultātiem, sacīja Heisija.

COMPAS - algoritms, ko tiesībaizsardzības iestādes izmanto, lai prognozētu atkārtotu likumpārkāpumu, bieži tiek izmantots, nosakot sodu un drošības naudu. Tā ir saskārusies ar skandālu, kas sākās 2016. gadā par rasu aizspriedumiem, paredzot, ka melnādainajiem apsūdzētajiem ir lielāks recidīva risks nekā patiesībā, un otrādi attiecībā uz b altajiem apsūdzētajiem.

Vairāk nekā 1000 tehnologu un zinātnieku, tostarp akadēmiķi un mākslīgā intelekta eksperti no Hārvardas, MIT, Google un Microsoft, 2020. gadā iebilda pret dokumentu, kurā apgalvots, ka pētnieki ir izstrādājuši algoritmu, kas varētu paredzēt noziedzību, pamatojoties tikai uz personas sejā, sakot, ka šādu pētījumu publicēšana pastiprina jau pastāvošo rasu aizspriedumu krimināltiesību sistēmā, atzīmēja Heisija.

Image
Image

Ķīna ir lielākais un visstraujāk augošais tirgus šāda veida tehnoloģijām, galvenokārt pateicoties plašajai piekļuvei privātiem datiem, ar vairāk nekā 200 miljoniem novērošanas kameru un progresīviem mākslīgā intelekta pētījumiem, kas daudzus gadus ir vērsti uz šo problēmu, sacīja Heisija.. Tādas sistēmas kā CloudWalk's Police Cloud tagad tiek izmantotas, lai prognozētu un izsekotu noziedzniekus un precīzi noteiktu tiesībaizsardzības iestādes.

"Tomēr arī tur tiek ziņots par būtiskām novirzēm," sacīja Heisija.

Heisie piebilda, ka viņa uzņēmums rūpīgi pārrauga datus, kas tiek ievadīti, un neizmanto attēlus vai arestu ierakstus, "tā vietā koncentrējoties uz objektīvākiem kritērijiem".

"Mūsu AI mācījās no apkopotajiem datiem, bet vēl svarīgāk ir tas, ka tas mācās arī no cilvēkiem, kuri paši analizē, pārrauga un novērtē ierakstus un stāsta mums par savu mijiedarbību ar citiem," viņš piebilda. "Mēs arī nodrošinām pilnīgu pārskatāmību un bezmaksas un publisku piekļuvi mūsu lietojumprogrammai (cik ātri vien spējam ielaist tos beta versijā), un priecājamies par ieskatu mūsu procesos un procedūrās."

Ieteicams: