MegaBits.lv - ir tiešsaites žurnāls, kur tu vari atrast jaunumus un ziņas par mūsdienīgam tehnoloģijam


Atpakaļ
Tehnoloģijas

Google DeepMind ir detalizēti aprakstījusi, kā mākslīgais intelekts varētu iznīcināt pasauli.

Google DeepMind ir detalizēti aprakstījusi, kā mākslīgais intelekts varētu iznīcināt pasauli.
0 0 5 0

Google DeepMind pētnieki strādājuši pie vispārējā mākslīgā intelekta (AGI) drošības problēmām un publicējuši dokumentu, kas skaidro riskus un drošas attīstības principus.

PDF fails satur lielu daudzumu detaļu un ir 108 lappuses garš ar literatūras atsauču sarakstu. Daži mākslīgā intelekta speciālisti uzskata, ka AGI ir nepiepildāms sapnis, bet DeepMind autori uzskata, ka tas var parādīties līdz 2030. gadam. Speciālisti centās izprast sintētiskā inteliģences radīšanas riskus, kas līdzinās cilvēka inteliģencei, un uzskata, ka tam varētu būt nopietna kaitīga ietekme uz cilvēci.

Pētījums identificē četrus AGI izraisītus risku tipus un piedāvā ieteikumus to novēršanai. DeepMind komanda uzskata, ka problēmas ir saistītas ar nepareizu izmantošanu, neatbilstību, kļūdām un strukturāliem riskiem. Nepareiza izmantošana un neatbilstība tiek sīkāk apskatītas rakstā, bet divi pēdējie tiek aptverti īsi.

Pirmā iespējamā problēma, nepareiza izmantošana, ir līdzīga esošajiem AI riskiem. Tomēr, tā kā AGI pēc definīcijas būs spēcīgāks, kaitējums, kuru tas var nodarīt, būs daudz lielāks. Ja AGI būs pārāk liela piekļuve, tas varētu ļaunprātīgi izmantot sistēmu, lai nodarītu kaitējumu, piemēram, atklāt un izmantot nulles dienas ievainojamības vai izveidot vīrusu, ko varētu izmantot kā bioloģisko ieroci.

DeepMind uzsver, ka uzņēmumiem, kas attīsta AGI, būs jāveic vispusīga pārbaude un jāizveido uzticami drošības protokoli. Viņi arī piedāvā izstrādāt metodi bīstamu spēju pilnīgai novēršanai, ko sauc par "atņēmšanu", taču nav skaidrs, vai to ir iespējams sasniegt, būtiski neierobežojot modeļus.

Neatbilstība ir stāvoklis, kad mašīna atbrīvojas no ierobežojumiem, ko tai uzlikuši izstrādātāji. AI veic darbības, par kurām tas zina, ka tās nebija izstrādātāju mērķis. DeepMind norāda, ka tās standarts neatbilstībai ir daudz attīstītāks par vienkāršu mānīšanu vai intrigu.

Lai to novērstu, DeepMind piedāvā izstrādātājiem strādāt pie modeļu uzticamības, intensīvi pārbaudīt un uzraudzīt, lai atklātu jebkādas mānīšanas pazīmes. AGI ir jāatrodas virtuālās smilškastēs ar stingru drošību un tiešu cilvēka uzraudzību, tas palīdzēs mazināt problēmas.

Ja mākslīgais intelekts nezināja, ka tā rezultāts radīs kaitējumu, un cilvēka operators nesniedz kaitniecisku mērķi, tas ir kļūda. Modernie AI modeļi arī pieļauj līdzīgas kļūdas, bet AGI var veikt daudz nozīmīgākas. DeepMind norāda piemēru ar kara spēkiem, kas varētu izmantot AGI, lai risinātu iespējamu konkurentu konflikts, bet nepietiekami aizsargās to no kļūdām.

Raksts nesniedz ļoti labu risinājumu kļūdu mazināšanai. Pētnieki iesaka izvairīties no strauja AI spēju lēciena. Viņi runā par lēnu ieviešanu un AGI iespēju ierobežošanu, kā arī iesaka AGI komandas iziet cauri "shield" sistēmai, kas nodrošina to drošību pirms ieviešanas.

Strukturālie riski ir neparedzētas daudzu aģentu sistēmu darbības sekas. Piemēram, AGI var radīt viltus informāciju, kas ir tik ticama, ka mēs vairs nezinām, kam vai kam uzticēties. Dokumentā tiek izvirzīts arī pieņēmums, ka AGI var uzņemties arvien lielāku kontroli pār ekonomiskajām un politiskajām sistēmām. "Tad, kādu dienu, mēs skatāmies augšā un saprotam, ka mašīnas valda mūsu vietā," piezīmē Ars Technica. Šādiem riskiem ir visgrūtāk pretoties, jo tas ir atkarīgs no sabiedrības struktūras un daudziem faktoriem.

Šis dokuments nav pēdējais vārds par AGI drošību — DeepMind norāda, ka tas ir tikai "sākuma punkts būtiskām diskusijām". Ja pētnieki nav maldināti, un AGI mainīs pasauli tikai piecu gadu laikā, par to ir jārunā jau tagad.

Paldies, tavs viedoklis pieņemts.

Komentāri (0)

Šobrīd nav neviena komentāra

Atstāj Komentāru:

Lai būtu iespējams atstāt komentāru - tēv jāautorizējas mūsu vietnē

Saistītie Raksti