Mākslīgā intelekta pakalpojumi, kas pēdējos gados aug kā sēnes pēc lietus, daudzējādā ziņā atvieglo cilvēkiem dzīvi. Tomēr tas ne vienmēr ir tā. Kāds vīrietis no Norvēģijas bija šokēts, uzzinot, ka ChatGPT nepatiesi apsūdzēja viņu savu bērnu slepkavībā.
Kādu ne īpaši labu dienu Arve Gjālmar Holmens izlēma pārbaudīt, kādu informāciju ChatGPT var sniegt par viņa vārdu. Mākslīgais intelekts atbildēja, ka viņš it kā tika notiesāts uz 21 gadu cietumā kā "noziedznieks, kurš nogalināja divus savus bērnus un mēģināja nogalināt trešo dēlu".
Šis "izdomātais šausmu stāsts" ne tikai saturēja notikumus, kas nekad nav notikuši, bet arī apvienoja "skaidri identificējamus personas datus" — tādus kā Holmena bērnu patieso skaitu un dzimumu, viņa dzimtā pilsētas nosaukumu — ar "viltus informāciju".
Nepatiesā ChatGPT apsūdzība "slepkojumā un ieslodzījumā", izmantojot "reālus faktus" no Holmena personīgās dzīves, pārkāpa Vispārīgās datu aizsardzības regulas (GDPR) prasības attiecībā uz datu precizitāti. Holmens nespēja vienkārši labot šīs kļūdas, kā to pieprasa likums. Organizācija Noyb, kas aizsargā digitālās tiesības ES, iesniedza sūdzību par šo jautājumu.
Vīrietis bija nobažījies par to, ka viņa reputācija ir apdraudēta, kamēr nepatiesā informācija paliek pieejama. Pat neskatoties uz "mazajiem" atrunām, kas mudina lietotājus pārbaudīt ChatGPT datus, nav iespējams zināt, cik cilvēki jau ir redzējuši šos melīgos apgalvojumus un varētu tiem noticēt.
OpenAI viegli nevarēs dzēst datus?
Tagad ChatGPT vairs neatkārto šīs apsūdzības pret Holmenu. Noyb dati liecina, ka pēc atjauninājuma mākslīgais intelekts tagad meklē informāciju par cilvēkiem internetā, pirms atbild uz jautājumiem par tiem. Tomēr iepriekš OpenAI paziņoja, ka nevar labot informāciju — tikai to bloķēt. Tas nozīmē, ka stāsts par "bērnu slepkavu" joprojām varētu būt ChatGPT datubāzē. Ja Holmens nevarēs labot šos datus, tas būs GDPR pārkāpums, uzstāj Noyb.
"Ja nepareizie personas dati netiek izplatīti, kaitējums var būt mazāks, bet GDPR attiecas gan uz iekšējiem, gan ārējiem datiem," — organizācija paziņoja.
Holmens nav vienīgais, kurš baidās, ka ChatGPT izdomājumi varētu izpostīt dzīvi. Piemēram, 2022. gadā viena Austrālijas pilsētas mērs draudēja iesniegt prasību par apmelošanu, jo ChatGPT kļūdaini apgalvoja, ka viņš ir ieslodzīts cietumā. Apmēram tajā pašā periodā ChatGPT saistīja patiesu tiesību profesoru ar izdomātu skandālu par seksuālu uzmācību, un vēlāk radio raidījuma vadītājs iesūdzēja tiesā OpenAI par nepatiesām apsūdzībām par līdzekļu piesavināšanos.
Dažos gadījumos OpenAI pievienoja filtrus, lai novērstu kaitīgu atbilžu parādīšanos, bet visticamāk, nav dzēsuši nepatiesu informāciju no modeļa mācību datiem. Tas tomēr nav pietiekami, uzskata Noyb datu aizsardzības advokāte Kleanti Sardeli.
"Disklējmera pievienošana, ka jūs neievērojat likumu, neatceļ likumu," — viņa paziņoja. "Uzņēmumi nevar vienkārši "paslēpt" viltus datus no lietotājiem, ja tie turpina tos glabāt. AI uzņēmumiem jāpārstāj ignorēt GDPR. Ja "halucinācijas" netiks pārtrauktas, cilvēki var viegli ciest no apmelojumiem."
Noyb aicina varas iestādes izdarīt spiedienu uz OpenAI, lai novērstu līdzīgus incidentus nākotnē. Organizācija iesniedza sūdzību Norvēģijas Datu aizsardzības pārvaldei (Datatilsynet) un pieprasa piespiest OpenAI dzēst neslavas celšanas apgalvojumus un mainīt ChatGPT modeli, lai izvairītos no nepatiesiem rezultātiem.
Pagājušajā gadā OpenAI uzsāka meklēšanas sistēmu maksas lietotājiem, un pēc tam to pievienoja visiem. Pagājušajā mēnesī OpenAI iepazīstināja ar Deep Research — jaunu ChatGPT rīku "dziļiem" pētījumiem tiešsaistē.
Avots: arstechnica
Komentāri (0)
Šobrīd nav neviena komentāra