Ķīnas mākslīgā intelekta laboratorija DeepSeek ir izlaidusi R1 loģikas modeli, kas ir atkārtojis vai pat pārsniedzis OpenAI o1 rezultātus dažos testos.
Priekšrocības ir tādas, ka DeepSeek R1 ir pieejams bez maksas ar ierobežojumu līdz 50 ziņojumiem dienā. Pēc reģistrēšanās vai autorizācijas jāizvēlas opcija "DeepThink".
Saskaņā ar DeepSeek datiem, R1 pārspēj o1 AIME, MATH-500 un SWE-bench Verified testos (pirmais salīdzina modeli ar citiem efektivitātes novērtēšanai, otrais ir teksta uzdevumu komplekts, bet trešais koncentrējas uz programmēšanas uzdevumiem).
Loģikas modeļi atšķiras ar spēju efektīvi pārbaudīt faktus un izvairīties no dažām "lamatām", kurās parasti "iestrēgst" standarta modeļi, kā arī parāda uzticamus rezultātus dabaszinātnēs, fizikas un matemātiskajos uzdevumos. Tajā pašā laikā salīdzinājumā ar standarta modeļiem, loģikas modeļiem ir nepieciešams nedaudz vairāk laika risinājumu meklēšanai.
DeepSeek R1 satur 671 miljardu parametru, tomēr ir pieejamas arī vienkāršākas versijas, kuras satur no 1,5 līdz 79 miljardiem parametru — mazākais var darboties uz personāldatora, kamēr jaudīgākajām versijām būs nepieciešams spēcīgs aprīkojums (tomēr tas arī ir pieejams caur DeepSeek API par 90% zemāku cenu nekā OpenAI o1).
Ņemot vērā, ka DeepSeek R1 ir ķīniešu modelis, pastāv arī daži trūkumi. Tās darbība ir jāapstiprina Ķīnas regulatoram, kuram jāpārliecinās, ka modeļa atbildes "atspoguļo galvenās sociālistiskās vērtības" (proti, R1 neatbildēs uz jautājumiem par Tiananmen laukumu vai Taivānas autonomiju).
Interesanti, ka viens no iepriekšējiem DeepSeek mākslīgā intelekta modeļiem arī daudziem konkurentiem pārsniedza populāros testos (īpaši programmēšanā un eseju rakstīšanā), taču tam bija interesanta iezīme — tas uzskatīja, ka ir ChatGPT (iespējams, tāpēc, ka tika apmācīts uz Amerikas konkurenta datiem).
Avots: TechCrunch
Komentāri (0)
Šobrīd nav neviena komentāra