AI beidzot varētu palīdzēt apkarot naida runu

Satura rādītājs:

AI beidzot varētu palīdzēt apkarot naida runu
AI beidzot varētu palīdzēt apkarot naida runu
Anonim

Atslēgas līdzņemšanai

  • Jauns programmatūras rīks ļauj mākslīgajam intelektam pārraudzīt interneta komentārus attiecībā uz naida runu.
  • AI ir nepieciešams, lai regulētu interneta saturu, jo ir milzīgs materiālu apjoms, kas pārsniedz cilvēka spējas.
  • Taču daži eksperti saka, ka runas mākslīgā intelekta uzraudzība rada bažas par privātumu.
Image
Image

Pieaugot naida runai tiešsaistē, viens uzņēmums apgalvo, ka tam varētu būt risinājums, kas nepaļaujas uz moderatoriem.

Startup ar nosaukumu Spectrum Labs nodrošina mākslīgā intelekta tehnoloģiju platformu nodrošinātājiem, lai reāllaikā atklātu un izslēgtu toksisko apmaiņu. Taču eksperti saka, ka AI uzraudzība rada arī privātuma problēmas.

"AI uzraudzībai bieži vien ir jāskatās uz modeļiem laika gaitā, tāpēc ir jāsaglabā dati," e-pasta intervijā Lifewire stāstīja drošības un privātuma atbilstības novērtēšanas uzņēmuma Schellman vecākais līdzstrādnieks Deivids Mūdijs. "Šajos datos var būt ietverti dati, kas tiesību aktos ir atzīmēti kā privātuma dati (personu identificējoša informācija vai PII)."

Vairāk naida runas

Spectrum Labs sola augsto tehnoloģiju risinājumu mūžsenajai naida runas problēmai.

"Mēs palīdzam platformām vidēji par 50% samazināt satura regulēšanas centienus un 10 reizes palielināt toksiskas uzvedības noteikšanu," savā tīmekļa vietnē apgalvo uzņēmums.

Spectrum saka, ka tas sadarbojās ar pētniecības institūtiem, kuriem ir zināšanas par specifiskām kaitīgām darbībām, lai izveidotu vairāk nekā 40 uzvedības noteikšanas modeļus. Uzņēmuma Guardian satura regulēšanas platformu izveidoja datu zinātnieku un moderatoru komanda, lai "atbalstītu kopienu aizsardzību no toksicitātes."

Pieaug vajadzība pēc veidiem, kā apkarot naida runu, jo cilvēkam nav iespējams uzraudzīt katru tiešsaistes datplūsmas daļu, Dilans Fokss, uzņēmuma AssemblyAI izpilddirektors, jaunuzņēmums, kas nodrošina runas atpazīšanu un kura klienti ir iesaistīti naida uzraudzībā. runu, stāstīja Lifewire e-pasta intervijā.

"Twitter vien katru dienu ir aptuveni 500 miljoni tvītu," viņš piebilda. "Pat ja viena persona varētu pārbaudīt tvītu ik pēc 10 sekundēm, Twitter būtu jānodarbina 60 tūkstoši cilvēku. Tā vietā mēs izmantojam viedos rīkus, piemēram, AI, lai automatizētu procesu."

Atšķirībā no cilvēka mākslīgais intelekts var darboties 24 stundas diennaktī un, iespējams, būt taisnīgāks, jo tas ir izstrādāts, lai vienādi piemērotu noteikumus visiem lietotājiem, neiejaucoties personiskai pārliecībai, sacīja Fox. Maksa ir arī tiem cilvēkiem, kuriem ir jāuzrauga un jāregulē saturs.

"Viņi var tikt pakļauti vardarbībai, naidam un nežēlīgām darbībām, kas var kaitēt cilvēka garīgajai veselībai," viņš teica.

Spectrum nav vienīgais uzņēmums, kas cenšas automātiski atklāt naida runu tiešsaistē. Piemēram, Center Malaysia nesen palaida tiešsaistes izsekotāju, kas paredzēts, lai atrastu naida runu Malaizijas interneta lietotāju vidū. Viņu izstrādātā programmatūra, ko sauc par Tracker Benci, izmanto mašīnmācīšanos, lai atklātu naida runu tiešsaistē, īpaši pakalpojumā Twitter.

Izaicinājums ir izveidot telpas, kurās cilvēki patiešām var konstruktīvi sadarboties.

Privātuma bažas

Lai gan tehnoloģiskie risinājumi, piemēram, Spectrum, varētu cīnīties pret naida runu tiešsaistē, tie arī rada jautājumus par to, cik daudz būtu jādara policijas darbiniekiem.

Ir runas brīvības sekas, taču ne tikai runātājiem, kuru ziņas tiks noņemtas kā naida runa, Irina Raicu, Santaklāras universitātes Markkulas lietišķās ētikas centra interneta ētikas direktore, pastāstīja Lifewire e-pastā. intervija.

"Uzmākšanās pieļaušana "vārda brīvības" vārdā ir mudinājusi šādas runas mērķus (īpaši, ja runa ir par konkrētām personām) pārstāt runāt, lai pilnībā pamestu dažādas sarunas un platformas," sacīja Raicu."Izaicinājums ir izveidot telpas, kurās cilvēki patiešām var konstruktīvi sadarboties."

AI runas uzraudzībai nevajadzētu radīt privātuma problēmas, ja uzņēmumi monitoringa laikā izmanto publiski pieejamu informāciju, sacīja Fox. Tomēr, ja uzņēmums iegādājas informāciju par to, kā lietotāji mijiedarbojas citās platformās, lai iepriekš identificētu problemātiskos lietotājus, tas var radīt bažas par konfidencialitāti.

"Atkarībā no lietojumprogrammas tas noteikti var būt nedaudz pelēks laukums," viņš piebilda.

Image
Image

Džastins Deiviss, Spectrum Labs izpilddirektors, e-pastā Lifewire pastāstīja, ka uzņēmuma tehnoloģija var pārskatīt 2 līdz 5 tūkstošus datu rindu sekundes daļās. "Vissvarīgākais ir tas, ka tehnoloģija var samazināt toksiskā satura daudzumu, kam cilvēku moderatori ir pakļauti," viņš teica.

Mēs, iespējams, esam revolūcijas spārnā AI jomā, kas pārrauga cilvēka runu un tekstu tiešsaistē. Nākotnes sasniegumi ietver labākas neatkarīgas un autonomas uzraudzības iespējas, lai identificētu iepriekš nezināmas naida runas formas vai citus cenzējamus modeļus, kas attīstīsies, sacīja Mūdijs.

Viņš piebilda, ka AI drīzumā arī varēs atpazīt modeļus konkrētajos runas modeļos un saistīt avotus un citas to darbības, izmantojot ziņu analīzi, publiskos ierakstus, satiksmes modeļu analīzi, fizisko uzraudzību un daudzas citas iespējas.

Taču daži eksperti saka, ka cilvēkiem vienmēr būs jāstrādā ar datoriem, lai uzraudzītu naida runu.

"AI vien nedarbosies," sacīja Raicu. "Tas ir jāatzīst par vienu nepilnīgu rīku, kas jāizmanto kopā ar citām atbildēm."

Labojums 25.1.2022.: Pievienots Džastina Deivisa citāts 5. rindkopā no beigām, lai atspoguļotu e-pasta ziņojumu pēc publicēšanas.

Ieteicams: