Kāpēc mums ir vajadzīgs mākslīgais intelekts, kas pats sevi izskaidro

Satura rādītājs:

Kāpēc mums ir vajadzīgs mākslīgais intelekts, kas pats sevi izskaidro
Kāpēc mums ir vajadzīgs mākslīgais intelekts, kas pats sevi izskaidro
Anonim

Atslēgas līdzņemšanai

  • Uzņēmumi arvien vairāk izmanto AI, kas izskaidro, kā tas dod rezultātus.
  • LinkedIn nesen palielināja savus abonementu ieņēmumus pēc mākslīgā intelekta izmantošanas, kas paredzēja klientus, kuriem draud atcelšana, un aprakstīja, kā tika izdarīti secinājumi.
  • Federālā tirdzniecības komisija ir paziņojusi, ka AI, kas nav izskaidrojama, varētu tikt izmeklēta.
Image
Image

Viena no karstākajām jaunajām programmatūras tendencēm varētu būt mākslīgais intelekts (AI), kas izskaidro, kā tas sasniedz savus rezultātus.

Explainable AI atmaksājas, jo programmatūras uzņēmumi cenšas padarīt AI saprotamāku. LinkedIn nesen palielināja savus abonementu ieņēmumus pēc mākslīgā intelekta izmantošanas, kas paredzēja klientus, kuriem draud atcelšana, un aprakstīja, kā tā nonāca pie secinājumiem.

"Izskaidrojams AI ir spēja uzticēties izvadei, kā arī saprast, kā iekārta tur nokļuva," e-pasta intervijā Lifewire sacīja Treviss Niksons, SynerAI izpilddirektors un Microsoft finanšu pakalpojumu galvenais datu zinātnes vadītājs..

""Kā?" ir jautājums, kas tiek uzdots daudzām mākslīgā intelekta sistēmām, it īpaši, ja tiek pieņemti lēmumi vai iegūti rezultāti, kas nav ideāli," piebilda Niksons. "Sākot no netaisnīgas attieksmes pret dažādām rasēm un beidzot ar pliku galvas sajaukšanu ar futbolu, mums ir jāzina, kāpēc mākslīgā intelekta sistēmas rada savus rezultātus. Kad mēs saprotam "kā", tas liek uzņēmumiem un privātpersonām atbildēt uz jautājumu "ko tālāk?""

Iepazīšanās ar AI

AI ir izrādījies precīzs un sniedz dažāda veida prognozes. Taču mākslīgais intelekts bieži vien spēj izskaidrot, kā tas nonāca pie saviem secinājumiem.

Un regulatori ņem vērā AI izskaidrojamības problēmu. Federālā tirdzniecības komisija ir paziņojusi, ka AI, kas nav izskaidrojama, varētu tikt izmeklēta. ES apsver Mākslīgā intelekta likuma pieņemšanu, kas ietver prasības, ka lietotājiem ir jāspēj interpretēt AI prognozes.

Linkedin ir viens no uzņēmumiem, kas uzskata, ka izskaidrojams AI var palīdzēt palielināt peļņu. Iepriekš LinkedIn pārdevēji paļāvās uz savām zināšanām un pavadīja milzīgu laiku, sijājot bezsaistes datus, lai noteiktu, kuri konti varētu turpināt uzņēmējdarbību un kādi produkti viņus varētu interesēt nākamās līguma atjaunošanas laikā. Lai atrisinātu problēmu, LinkedIn uzsāka programmu CrystalCandle, kas atklāj tendences un palīdz pārdevējiem.

Citā piemērā Niksons teica, ka, veidojot kvotu noteikšanas modeli uzņēmuma pārdošanas personālam, viņa uzņēmums varēja iekļaut izskaidrojamu mākslīgo intelektu, lai noteiktu, kādas īpašības norāda uz veiksmīgu jaunu pārdošanas darījumu.

"Izmantojot šo produkciju, šī uzņēmuma vadība varēja atpazīt, kuriem pārdevējiem ir jāvelta "ātrais ceļš" un kuriem nepieciešama apmācība, pirms radās jebkādas nopietnas problēmas," viņš piebilda.

Daudzi skaidrojama AI lietojumi

Izskaidrojamais AI pašlaik tiek izmantots kā zarnu pārbaude lielākajai daļai datu zinātnieku, sacīja Niksons. Pētnieki izmanto savu modeli, izmantojot vienkāršas metodes, pārliecinoties, ka nekas nav pilnībā izjaukts, un pēc tam nosūta modeli.

"Daļēji tas ir tāpēc, ka daudzas datu zinātnes organizācijas ir optimizējušas savas sistēmas, izmantojot "laiku pār vērtību" kā KPI, tādējādi radot sasteigtus procesus un nepilnīgus modeļus," piebilda Niksons.

Esmu noraizējies, ka bezatbildīgu modeļu radītais trieciens var nopietni atgriezt AI nozari.

Cilvēkus bieži nepārliecina rezultāti, kurus mākslīgais intelekts nevar izskaidrot. Raj Gupta, Cogito galvenais inženieris, e-pastā sacīja, ka viņa uzņēmums ir aptaujājis klientus un atklājis, ka gandrīz pusei patērētāju (43 %) būtu pozitīvāks priekšstats par uzņēmumu un AI, ja uzņēmumi būtu skaidrāki par to izmantošanu. tehnoloģiju.

Un ne tikai finanšu dati sniedz palīdzīgu roku no izskaidrojama AI. Viena no jomām, kas gūst labumu no jaunās pieejas, ir attēlu dati, kur ir viegli norādīt, kuras attēla daļas, pēc algoritma domām, ir būtiskas un kur cilvēkam ir viegli zināt, vai šī informācija ir jēga, stāsta Samanta Kleinberga, Stīvensa asociētā profesore. Tehnoloģiju institūts un izskaidrojamā AI eksperts pastāstīja Lifewire pa e-pastu.

"To ir daudz grūtāk izdarīt, izmantojot EKG vai nepārtraukta glikozes monitora datus," piebilda Kleinberga.

Niksons prognozēja, ka izskaidrojams AI nākotnē būs katras AI sistēmas pamatā. Viņš teica, ka bez izskaidrojama AI rezultāti varētu būt bēdīgi.

"Es ceru, ka mēs progresēsim šajā jomā pietiekami tālu, lai turpmākajos gados skaidrojamo AI uzskatītu par pašsaprotamu, un ka mēs šodien atskatāmies uz šo laiku pārsteigti, ka kāds būs pietiekami traks, lai ieviestu modeļus, kurus viņi nesaprot., " viņš pievienoja."Ja mēs šādi nesagaidīsimies ar nākotni, esmu noraizējies, ka bezatbildīgu modeļu radītais trieciens var nopietni atgriezt AI nozari."

Ieteicams: