Ir vajadzīgi daudz līdzekļu un laika, lai apmācītu mākslīgā intelekta modeli. Un salīdzinoši nelielas pūles, lai to nozagtu. Tas neprasa datu zādzību vai noplūdi.
Mākslīgo intelektu var nozagt, izmantojot modeļa elektromagnētisko "parakstu". Ziemeļkarolīnas Universitātes pētnieki aprakstīja šo tehniku rakstā. Viņiem bija nepieciešama elektromagnētiskā zonde, vairākas iepriekš sagatavotas mākslīgā intelekta modeļi ar atvērtu kodu un Google Tensor Processing Unit (TPU). Metode ir saistīta ar elektromagnētiskā starojuma analīzi TPU darbības laikā.
Lai atšifrētu modeļa parametrus, zinātniekiem bija jāsalīdzina elektromagnētiskā lauka dati ar citu mākslīgā intelekta modeļu darbības datiem, kas darbojās uz tiem pašiem čipiem. Pētniekiem izdevās noteikt arhitektūru un specifiskas īpašības, pazīstamas kā slāņu detaļas. Tas viņiem ļāva izveidot mākslīgā intelekta modeļa kopiju ar precizitāti 99,91%. Tam ir nepieciešama fiziska piekļuve čipam – lai veiktu zondēšanu, kā arī lai darbinātu citus modeļus. Zinātnieki tieši sadarbojās ar Google, lai palīdzētu uzņēmumam noteikt to čipu uzņēmību pret uzbrukumiem.
Uzbrukumi, kas vērsti uz ierīču darba saistītajiem sānu kanāliem, nav jauni. Taču šī īpašā tehnika, kas saistīta ar visas modeļa arhitektūras parametru iegūšanu, ir nozīmīga, jo mākslīgā intelekta aparatūra ģenerē atklātas teksta izejas. Modeļi, kas ir izvietoti fiziski neaizsargātā serverī, ir pakļauti šai tehnikai.
Pētnieki arī norāda uz iespēju nozagt modeli no viedtālruņiem un citiem ierīcēm. Tomēr to kompaktā konstrukcija sarežģī elektromagnētiskā lauka uzraudzību.
Avots: Gizmodo
Komentāri (0)
Šobrīd nav neviena komentāra