Kā AI varētu uzraudzīt savus bīstamos pēcnācējus

Satura rādītājs:

Kā AI varētu uzraudzīt savus bīstamos pēcnācējus
Kā AI varētu uzraudzīt savus bīstamos pēcnācējus
Anonim

Atslēgas līdzņemšanai

  • Jauns dokuments apgalvo, ka mākslīgais intelekts var noteikt, kuri pētniecības projekti varētu būt vajadzīgi vairāk regulējumu nekā citiem.
  • Tā ir daļa no pieaugošajiem centieniem atklāt, kāda veida AI var būt bīstams.
  • Viens eksperts saka, ka mākslīgā intelekta patiesās briesmas ir tādas, ka tas var padarīt cilvēkus mēmus.

Image
Image

Mākslīgais intelekts (AI) piedāvā daudzas priekšrocības, taču arī dažas iespējamās briesmas. Un tagad pētnieki ir ierosinājuši metodi, kā sekot līdzi saviem datorizētajiem darbiem.

Starptautiska komanda jaunā dokumentā saka, ka mākslīgais intelekts var noteikt, kāda veida pētniecības projektiem varētu būt vajadzīgs lielāks regulējums nekā citiem. Zinātnieki izmantoja modeli, kas apvieno bioloģijas un matemātikas jēdzienus, un ir daļa no pieaugošajiem centieniem atklāt, kāda veida AI var būt bīstams.

"Protams, lai gan var rasties "zinātniskās fantastikas" bīstamā AI izmantošana, ja mēs tā nolemjam […], AI padara bīstamu nevis pats AI, bet gan [kā mēs to izmantojam], " Thierry Rayna, e-pasta intervijā Lifewire pastāstīja École Polytechnique universitātes Pārmaiņu tehnoloģiju nodaļas vadītājs. "AI ieviešana var būt vai nu kompetences uzlabošana (piemēram, tā pastiprina cilvēka/darba ņēmēju prasmju un zināšanu atbilstību), vai kompetences iznīcināšana, t.i., AI padara esošās prasmes un zināšanas mazāk noderīgas vai novecojušas."

Cilņu saglabāšana

Nesenā dokumenta autori savā ziņā rakstīja, ka viņi izveidoja modeli, lai simulētu hipotētiskas AI sacensības. Viņi veica simulāciju simtiem reižu, lai mēģinātu paredzēt, kā varētu iznākt reālās AI sacīkstes.

"Mainīgais, ko mēs uzskatījām par īpaši svarīgu, bija sacensību "garums" - laiks, kas mūsu simulētajām sacīkstēm bija vajadzīgs, lai sasniegtu savu mērķi (funkcionāls AI produkts), "raksta zinātnieki. "Kad mākslīgā intelekta sacīkstes ātri sasniedza savu mērķi, mēs atklājām, ka konkurenti, kuriem mēs bijām iekodējuši vienmēr neievērot drošības pasākumus, vienmēr uzvarēja."

Turpretim pētnieki atklāja, ka ilgtermiņa AI projekti nebija tik bīstami, jo ne vienmēr ieguvēji bija tie, kuri neievēroja drošību. "Ņemot vērā šos atklājumus, regulatoriem būs svarīgi noteikt, cik ilgi dažādas AI sacīkstes varētu ilgt, piemērojot dažādus noteikumus, pamatojoties uz to paredzamajiem laika grafikiem," viņi rakstīja. "Mūsu atklājumi liecina, ka viens noteikums visām mākslīgā intelekta sacīkstēm - no sprinta līdz maratonam - novedīs pie dažiem rezultātiem, kas ir tālu no ideāla."

Deivids Džao, uzņēmuma Coda Strategy rīkotājdirektors, uzņēmums, kas konsultē par mākslīgo intelektu, e-pasta intervijā Lifewire sacīja, ka bīstamo AI identificēšana var būt sarežģīta. Izaicinājumi slēpjas faktā, ka modernās pieejas AI izmanto dziļu mācīšanās pieeju.

"Mēs zinām, ka dziļa mācīšanās nodrošina labākus rezultātus daudzos lietošanas gadījumos, piemēram, attēla noteikšanā vai runas atpazīšanā," sacīja Džao. "Tomēr cilvēkiem nav iespējams saprast, kā darbojas dziļās mācīšanās algoritms un kā tas rada savu rezultātu. Tāpēc ir grūti pateikt, vai AI, kas dod labus rezultātus, ir bīstama, jo cilvēkiem nav iespējams saprast, kas notiek."

Programmatūra var būt "bīstama", ja to izmanto kritiskās sistēmās, kurām ir ievainojamības, kuras var izmantot slikti dalībnieki vai radīt nepareizus rezultātus, e-pastā sacīja AI uzņēmuma MixMode stratēģijas direktors Mets Šī. Viņš piebilda, ka nedrošs AI var izraisīt arī nepareizu rezultātu klasifikāciju, datu zudumu, ekonomisko ietekmi vai fiziskus bojājumus.

"Izmantojot tradicionālo programmatūru, izstrādātāji kodē algoritmus, kurus persona var pārbaudīt, lai noskaidrotu, kā novērst ievainojamību vai novērst kļūdu, aplūkojot avota kodu," sacīja Šī."Tomēr ar mākslīgo intelektu liela daļa loģikas tiek veidota no pašiem datiem, kas tiek iekodēti datu struktūrās, piemēram, neironu tīklos un tamlīdzīgi. Tā rezultātā sistēmas ir "melnās kastes", kuras nevar pārbaudīt, lai atrastu un novērstu ievainojamības. kā parasta programmatūra."

Draudi priekšā?

Kamēr mākslīgais intelekts tādās filmās kā Terminators ir attēlots kā ļauns spēks, kura nolūks ir iznīcināt cilvēci, reālās briesmas var būt daudz prozaiskākas, norāda eksperti. Piemēram, Rayna ierosina, ka mākslīgais intelekts varētu mūs padarīt dumjākus.

"Tas var liegt cilvēkiem trenēt smadzenes un attīstīt zināšanas," viņš teica. “Kā jūs varat kļūt par riska kapitāla ekspertu, ja lielāko daļu laika netērējat jaunuzņēmumu pieteikumu lasīšanai? Vēl ļaunāk, AI ir bēdīgi slavena “melnā kaste” un maz izskaidrojama. Ja nezināt, kāpēc tika pieņemts konkrēts AI lēmums, tas nozīmē, ka no tā būs ļoti maz ko mācīties, tāpat kā jūs nevarat kļūt par pieredzējušu skrējēju, braucot pa Segway stadionu.”

Ir grūti pateikt, vai AI, kas dod labus rezultātus, ir bīstama, jo cilvēkiem nav iespējams saprast, kas notiek.

Iespējams, tiešākais mākslīgā intelekta drauds ir iespēja, ka tas var sniegt neobjektīvus rezultātus, e-pasta intervijā sacīja Lails Solomons, jurists, kurš raksta par mākslīgā intelekta juridiskajām sekām.

"AI var palīdzēt padziļināt sabiedrības šķelšanos. AI būtībā ir veidots no datiem, kas savākti no cilvēkiem," piebilda Solomons. "[Bet], neraugoties uz milzīgajiem datiem, tajā ir minimālas apakškopas, un tajā nav iekļauts tas, ko visi domā. Tādējādi dati, kas savākti no komentāriem, publiskiem ziņojumiem, atsauksmēm utt., ar raksturīgiem aizspriedumiem, liks AI pastiprināt diskrimināciju un naidu."

Ieteicams: