Pagājušajā nedēļā Ķīnas mākslīgā intelekta laboratorija izlaida jaunu "atvērtu" mākslīgā intelekta modeli ar nosaukumu DeepSeek, kas pārsniedza daudzus konkurentus populāros testos (ieskaitot programmēšanu un eseju rakstīšanu), taču tai ir viena interesanta iezīme - tā uzskata sevi par ChatGPT.
Vairāki ieraksti ar šādiem paziņojumiem no DeepSeek izplatījās X un Reddit platformās. Modelis arī precizē, kuram tieši izlaidumam tas pieder - GPT-4 versijai, kas tika izlaista 2023. gadā.
Tas patiesībā vēl darbojas arī šodien. 5 no 8 ģenerācijām DeepSeekV3 apgalvo, ka tā ir ChatGPT (v4), kamēr apgalvo, ka ir DeepSeekV3 tikai 3 reizes.
Tas dod aptuvenu priekšstatu par viņu mācību datu sadalījumu. https://t.co/Zk1KUppBQMpic.twitter.com/ptIByn0lcv
— Lucas Beyer (bl16) (@giffmana) 2024. gada 27. decembrī
Kādēļ tas notiek? Izdevums TechCrunch raksta, ka abas — ChatGPT un DeepSeek V3 — ir statiskas sistēmas, kas mācās no miljardiem piemēru ar veidnēm, lai veiktu prognozes par tekstu (pat tik vienkāršās lietās kā saprast, kur ievietot komatu teikumā). Ķīnieši savu modeļu mācību datus neatklāja, taču šobrīd ir pieejami pietiekami daudz publiski pieejamu datu kopas ar tekstiem, kas ir ģenerēti ar GPT-4 caur ChatGPT, tādējādi ir pilnīgi iespējams, ka DeepSeek tos izmantojusi un vienkārši atveido gala datus vārdu pa vārdam.
„Ir skaidrs, ka kādā brīdī modelis iegūst neapstrādātas atbildes no ChatGPT, bet nav skaidrs, no kurienes tieši,” — komentēja izdevumam Maiks Kuks, Karaliskās koledžas Londonā pētnieks, kurš specializējas AI. "Tas varētu būt 'nejaušība'... bet, diemžēl, mēs jau esam redzējuši gadījumus, kad cilvēki ir mācījuši savus modeļus uz citu modeļu datiem, mēģinot izmantot šīs zināšanas”.
Kuks norādīja, ka modeļu apmācība uz konkurējošu mākslīgā intelekta sistēmu rezultātiem var būt "ļoti slikta" modeļa kvalitātei, jo tas var izraisīt halucinācijas un maldinošas atbildes, kā minētie iepriekšēji piemēri.
„Līdzīgi kā fotokopijas, mēs zaudējam arvien vairāk informācijas un saikni ar realitāti,” — piebilst Kuks.
Tas var arī būt pretrunā ar šo sistēmu pakalpojumu noteikumiem. OpenAI noteikumi, piemēram, aizliedz ChatGPT lietotājiem izmantot rezultātus modeļu izstrādei, kas konkurē ar pašiem OpenAI sistēmām.
Ne viena no kompānijām neatbildēja uz žurnālistu pieprasījumiem, taču startapa vadītājs Sems Altmanis tajās dienās, kad izplatījās ziņas par DeepSeek, rakstīja:
„Salīdzinoši viegli ir nokopēt to, kas, jūsuprāt, jau darbojas. Neticami sarežģīti ir darīt kaut ko jaunu un riskantu, kad jūs nezināt, kāds būs rezultāts”.
Patiesībā, DeepSeek V3 nav pirmā modelis, kas nepareizi iepazīstina sevi. Google Gemini uz pieprasījumiem ķīniešu valodā atbildēja, ka tā ir chat-bots Wenxinyiyan, ķīniešu uzņēmuma Baidu.
```
Komentāri (0)
Šobrīd nav neviena komentāra