Twitter algoritma rasu aizspriedumi norāda uz lielākām tehniskām problēmām

Satura rādītājs:

Twitter algoritma rasu aizspriedumi norāda uz lielākām tehniskām problēmām
Twitter algoritma rasu aizspriedumi norāda uz lielākām tehniskām problēmām
Anonim

Atslēgas līdzņemšanai

  • Twitter cer novērst to, ko lietotāji savā attēlu priekšskatījuma programmatūrā sauc par rasu aizspriedumiem.
  • Tehnoloģiju giganta aicinājums varētu būt kultūras aprēķins, kas nozarei nepieciešams, lai risinātu dažādības problēmas.
  • Tehnoloģiju daudzveidības trūkums mazina tās tehnoloģiskā progresa efektivitāti.
Image
Image

Twitter gatavojas sākt izmeklēšanu par savu attēlu apgriešanas algoritmu pēc tam, kad tas kļuva par populāru tēmu, kas rosināja plašāku sarunu par dažādības jautājumiem tehnoloģiju nozarē.

Sociālo mediju žēlastība kļuva par virsrakstiem pēc tam, kad lietotāji atklāja acīmredzamu rasu aizspriedumu attēla priekšskatījuma algoritmā. Atklājums notika pēc tam, kad Twitter lietotājs Kolins Medlends izmantoja platformu, lai izsauktu Zoom nespēju atpazīt savus melnādainos kolēģus, kuri izmantoja zaļā ekrāna tehnoloģiju, taču grandiozā ironijas izrādē viņš atklāja, ka Twitter attēlu apgriešanas algoritms uzvedās līdzīgi un atcēla melnādainajām sejām.

Protams, tā ir liela problēma jebkurai minoritātei, taču es domāju, ka ir arī daudz plašāka problēma.

Citi lietotāji ir iesaistījušies šajā tendencē, izraisot virkni vīrusu tvītu, kuros algoritms konsekventi prioritizēja b altās un gaišākas sejas, sākot no cilvēkiem līdz multfilmu varoņiem un pat suņiem. Šī neveiksme liecina par lielāku kultūras kustību tehnoloģiju nozarē, kas konsekventi nav spējusi ņemt vērā mazākumtautību grupas, kas ir izplatījusies tehniskajā pusē.

"Tas liek minoritātēm justies šausmīgi, it kā tās nebūtu svarīgas, un to var izmantot citām lietām, kas var nodarīt nopietnāku kaitējumu," Ēriks Learned-Millers, universitātes datorzinātņu profesors. no Masačūsetsas, teikts telefonintervijā."Kad esat izlēmis, kādam programmatūras elementam var tikt izmantots un kāds kaitējums var rasties, mēs sākam runāt par veidiem, kā samazināt to iespējamību."

Kanārijputniņš laika skalā

Twitter izmanto neironu tīklus, lai automātiski apgrieztu tvītā iegultos attēlus. Algoritmam ir paredzēts noteikt sejas priekšskatīšanai, taču šķiet, ka tam ir ievērojama b altā novirze. Uzņēmuma pārstāve Liza Kellija tviterī atbildēja uz visām bažām.

Kellija tviterī ierakstīja: "Paldies visiem, kas to izvirzīja. Pirms modeļa nosūtīšanas mēs pārbaudījām neobjektivitāti un mūsu pārbaudēs neatradām pierādījumus par aizspriedumiem pēc rases vai dzimuma, taču ir skaidrs, ka mums ir nepieciešama plašāka analīze. mēs atvērsim savu darbu, lai citi varētu pārskatīt un pavairot."

B altās grāmatas "Sejas atpazīšanas tehnoloģijas savvaļā: aicinājums uz federālo biroju" līdzautors Learned-Miller ir vadošais pētnieks, kas pēta uz sejas balstītas AI mācību programmatūras pārmērībām. Viņš gadiem ilgi ir apspriedis attēlu apguves programmatūras iespējamo negatīvo ietekmi un runājis par to, cik svarīgi ir radīt realitāti, kurā šīs novirzes tiek mazinātas, cik vien iespējams.

Daudzos algoritmos sejas atpazīšanas tehnoloģijai tiek izmantotas datu atsauces kopas, ko bieži sauc par apmācību komplektiem, kas ir attēlu kopums, ko izmanto, lai precizētu attēlu apguves programmatūras darbību. Galu galā tas ļauj AI viegli atpazīt plašu seju klāstu. Tomēr šīm atsauces kopām var nebūt daudzveidīga kopuma, tādējādi radot tādas problēmas kā Twitter komanda.

"Protams, tā ir milzīga problēma jebkurai minoritātei, taču es domāju, ka ir arī daudz plašāka problēma," sacīja Learned-Miller. "Tas ir saistīts ar daudzveidības trūkumu tehnoloģiju nozarē un nepieciešamību pēc centralizētiem, regulējošiem spēkiem, lai parādītu, kā pareizi tiek izmantota šāda veida jaudīga programmatūra, kas ir pakļauta ļaunprātīgai izmantošanai."

Tehnoloģijām trūkst daudzveidības

Twitter var būt jaunākais tehnoloģiju uzņēmums smalcināšanas blokā, taču tā nebūt nav jauna problēma. Tehnoloģiju joma joprojām ir pārsvarā b altā joma, kurā pastāvīgi dominē vīrieši, un pētnieki ir atklājuši, ka daudzveidības trūkums izraisa sistēmiskas, vēsturiskas nelīdzsvarotības atkārtošanos izstrādātajā programmatūrā.

Ņujorkas Universitātes AI Now institūta 2019. gada ziņojumā pētnieki atklāja, ka melnādainie cilvēki veido mazāk nekā 6 procentus no darbaspēka vadošajos tehnoloģiju uzņēmumos valstī. Tāpat sievietes veido tikai 26 procentus no šajā jomā strādājošajiem, kas ir zemāks rādītājs nekā viņu īpatsvars 1960. gadā.

Tas liek minoritātēm justies šausmīgi, it kā tās nebūtu svarīgas, un to var izmantot citām lietām, kas var radīt nopietnāku kaitējumu.

Sākotnēji šie reprezentācijas jautājumi var šķist ikdienišķi, taču praksē nodarītais kaitējums var būt pamatīgs. Pētnieki AI Now Institute ziņojumā liecina, ka tas cēloņsakarībā ir saistīts ar problēmām, kas saistītas ar programmatūru, kas bieži vien nespēj ņemt vērā iedzīvotājus, kas nav b altie un vīrieši. Neatkarīgi no tā, vai infrasarkano staru ziepju dozatori nespēj noteikt tumšāku ādu vai Amazon AI programmatūra nespēj atšķirt sieviešu sejas no viņu vīriešu dzimuma pārstāvju sejas, nespēja risināt tehnoloģiju nozares dažādības problēmas noved pie tā, ka tehnoloģija nespēj tikt galā ar daudzveidīgo pasauli.

"Ir daudzi cilvēki, kuri nav pārdomājuši šīs problēmas un īsti neapzinās, kā šīs lietas var nodarīt kaitējumu un cik nozīmīgs ir šis kaitējums," par AI attēlu mācīšanos ieteica Learned-Miller. "Cerams, ka šis cilvēku skaits sarūk!"

Ieteicams: