ChatGPT izstrādātājs komentārā Financial Times paziņoja, ka ir pierādījumi, ka Ķīnas uzņēmums DeepSeek izmantojis OpenAI datus, lai apmācītu konkurējošu mākslīgā intelekta modeli.
Tiek diskutēts par "destilācijas" pazīmju klātbūtni — tehniku, ko izstrādātāji izmanto, lai paaugstinātu mazāku modeļu efektivitāti, izmantojot lielāku un spēcīgāku versiju rezultātus. Destilācija industrijā ir parasta prakse, tomēr, ja DeepSeek to izmantojis konkurentu izveidei, tas pārkāpj OpenAI lietošanas noteikumus.
«Problēma ir, ka modelis izveidots personīgai lietošanai,» komentārā medijiem teica kāds, kas tuvu sadarbojas ar OpenAI.
OpenAI lietošanas noteikumos norādīts, ka lietotāji nedrīkst "kopēt" nevienu no uzņēmuma pakalpojumiem vai "izmantot rezultātus modeļu izstrādei, kas konkurē ar OpenAI".
Pēdējā DeepSeek modeļa izlaišana mākslīgā intelekta tirgū izraisīja nozīmīgu uzņēmumu akciju krišanos nozarē. Tikai Nvidia akcijas samazinājās par vairāk nekā 17% un zaudēja gandrīz 600 miljardus dolāru dienā — otrdien situācija nedaudz stabilizējās, un uzņēmuma akcijas pieauga par 9%.
Ziņots, ka OpenAI kopā ar savu galveno partneri Microsoft "pētīja profilus, kas, iespējams, piederēja DeepSeek un tika izmantoti pagājušajā rudenī, un bloķēja tos aizdomās par destilāciju".
Agrāk uzņēmējs Deivids Saks, kurš atbildēja par mākslīgā intelekta attīstību Donalda Trampa administrācijā, norādīja, ka «datu zādzība ir pilnīgi iespējama».
«Mākslīgajā intelektā pastāv tehnika, ko sauc par destilāciju …kad viena modelis mācās no citas un it kā izsūc zināšanas no mātes modeļa,» komentārā žurnālistiem teica Saks. «Ir ievērojami pierādījumi tam, ka DeepSeek darījis to pašu, izkopjot zināšanas no OpenAI modeļiem, un nedomāju, ka OpenAI par to ir īpaši priecīgs».
Eksperti norāda, ka mazākām Ķīnas un ASV mākslīgā intelekta laboratorijām ir parasta prakse zagt mācību datus no tādiem uzņēmumiem kā OpenAI, jo pilnvērtīgs mācību process prasa ievērojamus ieguldījumus. Atgādinām, ka DeepSeek teica, ka izmantojusi 2000 Nvidia H800 grafisko karšu klasteri un kopumā 5,6 miljonus dolāru modeļa V3 ar 671 miljardu parametru apmācībai — savukārt tikai GPT-4 apmācība izmaksāja 100 miljonus dolāru. Turklāt aizdomas par datu zādzību radās jau Ķīnas modeļa palaišanas sākumā, kad modelis pats apgalvoja, ka «viņš ir ChatGPT».
«Mēs zinām, ka ķīniešu uzņēmumi — un citi — nemitīgi cenšas kopēt vadošo ASV mākslīgā intelekta uzņēmumu modeļus,» rakstīja OpenAI savā pēdējā paziņojumā. «Mēs veicam pasākumus, lai aizsargātu savu intelektuālo īpašumu».
Pašlaik OpenAI paši saskaras ar apsūdzībām autortiesību pārkāpumos no izdevējiem un satura radītājiem — tostarp prasību no The New York Times, kas apgalvo, ka Sema Altmena uzņēmums bez atļaujas apmāca savus modeļus uz viņu rakstu bāzes.
```
Komentāri (0)
Šobrīd nav neviena komentāra