Viens no ChatGPT veidotājiem, Sučirs Baladži, kurš atklāja problēmas OpenAI un mākslīgajā intelektā, tika atrasts miris savā dzīvoklī.
Sučira Baladži negaidītā nāve šokēja tehnoloģiju pasauli, notiekot uz aktīvu diskusiju fona par mākslīgo intelektu un autortiesību likumiem. Vairākus mēnešus pirms savas nāves Baladži norādīja uz dziļām ētiskām un juridiskām problēmām saistībā ar mākslīgā intelekta produktiem. Viņš īpaši kritizēja to, kā OpenAI un citas kompānijas ievāc milzīgus datu apjomus no interneta saviem modeļiem. Baladži apšaubīja šo paņēmienu likumību un ētiskumu saskaņā ar spēkā esošajiem autortiesību normatīviem.
Sučirs Baladži bija viens no galvenajiem ChatGPT arhitektiem. Traģiska 26 gadus vecā vīrieša, bijušā OpenAI komandas locekļa un atklāta kompānijas prakses kritizētāja, nāve notika viņa dzīvoklī Sanfrancisko 26. novembrī. Policija apstiprināja pašnāvību, pagaidām nav pierādījumu par ļaunprātīgu rīcību.
Pēc četriem gadiem darbā OpenAI Sučirs Baladži pameta kompāniju 2024. gada augustā, atsaucoties uz bažām par autortiesību aizsargāta satura izmantošanu bez pienācīgas piekrišanas. Oktobrī viņš pastāstīja par to intervijā The New York Times, kurā pats vērsās. Intervijā viņš paskaidroja, kā tādas sistēmas kā GPT-4 mācās, veidojot pilnīgas datu kopijas. Savās rūpēs Baladži sīki izklāstīja esejā, kur noformulēja mākslīgā intelekta apmācības sarežģītību.
«Lai gan ģeneratīvie modeļi reti rada izejas datus, kas ir ievērojami līdzīgi jebkādiem viņu mācību datiem, ģeneratīvā modeļa apmācības process ietver autortiesību aizsargāta satura kopiju veidošanu … Ja šīs kopijas ir neatļautas, tas potenciāli varētu tikt uzskatīts par autortiesību pārkāpumu, atkarībā no tā, vai konkrētā modeļa izmantošana kvalificējas kā «godīga izmantošana». Tā kā godīgu izmantošanu nosaka katrā atsevišķajā gadījumā, nav iespējams izdarīt plašu paziņojumu par to, kad tieši ģeneratīvais AI atbilst godīgas izmantošanas prasībām. … Izejas dati nav precīzas ieejas datu kopijas, bet tie arī nav principiāli jauni,» konkrēti stāstīja Baladži.
Pēc atlaišanas Baladži turpināja aktīvi runāt par OpenAI darbību ētiku un likumību. Vienu dienu pirms savas nāves viņa vārds parādījās tiesas prāvā par autortiesībām, kas tika ierosināta pret uzņēmumu. Cita problēma, par kuru Baladži diskutēja, bija nepatiesas vai pilnīgi izdomātas informācijas ģenerēšana, ko dēvē par «halucinācijām». Pēc viņa domām, internets mainās uz slikto pusi.
Par savām bažām Baladži ziņoja savā pēdējā publikācijā X Twitter oktobrī un tajā pašā mēnesī publicētajā blogā. Viņš aicināja mašīnmācīšanās pētniekus vairāk vērsties pie autortiesību normām.
«Sākumā es nezināju daudz par autortiesībām, godīgu izmantošanu utt., bet man kļuva interesanti, kad es redzēju visas prasības, kas iesniegtas pret GenAI uzņēmumiem. Kad es mēģināju labāk izprast problēmu, es beidzot secināju, ka godīga izmantošana šķiet diezgan maz ticama aizsardzība daudziem ģeneratīvajiem AI produktiem viena galvenā iemesla dēļ, ka tie var radīt aizstājējus, kas konkurē ar datiem, uz kuriem tie tiek apmācīti».
Viņš atzīmēja, ka zināmie precedenti, kā Google Books lieta, ir pretrunā ar ģeneratīvā AI uzņēmumu apgalvojumu par «godīgu izmantošanu». Baladži precizēja, ka viņa domas attiecas uz plašāku ģeneratīvā AI pielietojumu, ne tikai pret OpenAI.
Avots: TechCrunch
Komentāri (0)
Šobrīd nav neviena komentāra