Atjauninājums 0324 valodas modelim DeepSeek V3 pievienoja jaunus parametrus, kā arī papildu iespējas koda rakstīšanā un matemātisko problēmu risināšanā.
Skaitļi atjauninājuma numurā norāda tikai izlaišanas datumu. Saskaņā ar uzņēmuma paziņojumu, DeepSeek V3-0324 ir uzlabotas argumentācijas spējas, uzlabojumi front-end izstrādē un izcilas prasmes ķīniešu valodas rakstīšanā. Pašlaik tā ir kļuvusi par vispopulārāko mākslīgā intelekta modeli Hugging Face platformā.
Atjauninātais modelis ir uzlabojis vairākus testus, jo īpaši American Invitational Mathematics Examination (AIME), kur tas ieguva 59,4 punktus salīdzinājumā ar iepriekšējo 39,6 punktiem, un rezultāts LiveCodeBench palielinājās par 10 punktiem līdz 49,2. Salīdzinot ar 671 miljardu parametriem DeepSeek V3 pēc pašas uzņēmuma komerciālās licences, jaunais modelis ieguva 685 miljardus, izmantojot MIT programmatūras licenci.
Modelis 0324 jau ir saņēmis daudz pozitīvu atsauksmju un komentāru. «Anthropic un OpenAI ir grūtībās,» raksta Somijas Lietišķo zinātņu universitātes pasniedzējs Hjēme Petri Kuitinens platformā X. Kad viņš lūdza jauno modeli «izveidot lielisku adaptīvu pirmo lapu mākslīgā intelekta uzņēmumam,» tā izveidoja no 958 koda rindām vietni, kas ir ērti lietojama mobilajās ierīcēs un pareizi darbojās. «DeepSeek to visu paveic, izmantojot tikai 2% OpenAI naudas resursu.
Fahds Mirza, vadošais inženieris mākoņtehnoloģijas un mākslīgā intelekta jomā Austrālijas būvmateriālu uzņēmumā Boral, rakstīja DeepSeek kopienā Hugging Face platformā, ka jaunais modelis ir pārsteidzošs. Savā YouTube kanālā viņš publicēja video, kurā demonstrēja jaunā modeļa testēšanu ar programmēšanas un matemātikas uzdevumiem, uzsverot izcilos rezultātus.
Zināms, ka iepriekš DeepSeek modeļus augstu novērtēja NVIDIA vadītājs Jensens Huangs. Bijušais Intel vadītājs Pļets Gelsingers izvēlējās DeepSeek izmantošanai mākoņu reliģijas uzņēmumā Gloo, kurā kopš vakardienas ir kļuvis par tehnisko direktoru.
Avots: SCMP
Komentāri (0)
Šobrīd nav neviena komentāra