Jaunā pētījums liecina, ka mākslīgajā intelektā "iekšējā monologa" nodrošināšana ievērojami uzlabo tā rezultātus. Būtībā mākslīgajam intelektam ir apmācīts domāt, pirms atbild uz pieprasījumiem, līdzīgi kā cilvēkiem domā, kas jāpasaka tālāk, pirms runā. Tas atšķiras no populārām valodas modeļiem AI, piemēram, ChatGPT. Pēdējie nedomā par to, ko raksta, un neatklāj dažādas iespējas turpmākiem soļiem sarunā.
Jauns pieejas veids, ko sauca par Quiet-STaR, ļauj AI sistēmai paralēli ģenerēt daudz iekšēju argumentu, pirms atbild uz pieprasījumu. Kad AI atbild uz norādēm, tas ģenerē daudzas variantus un izvada labāko atbildi. Galu galā mākslīgais intelekts mācās, atmetsot nepareizos variantus. Būtībā apmācības metode dod AI modeļiem spēju paredzēt nākotnes sarunas un mācīties no pašreizējām.
Pētnieki no Stanfordas universitātes un uzņēmuma Notbad AI piemēroja Quiet-STaR algoritmu Mistral 7B, lielam valodas modeļam ar atvērtu pirmkodu, un publicēja rezultātus arXiv. Quiet-STaR apmācīts Mistral 7B versija ieguva 47,2% argumentācijas testā salīdzinājumā ar 36,3% pirms apmācības. Modele neveiksmīgi nokārtoja matemātikas skolas testus, iegūstot 10,9%. Taču tas ir gandrīz divreiz vairāk nekā sākotnējais rezultāts 5,9%.
Modeļi, piemēram, ChatGPT un Gemini, nesakrīt ar saprātu vai kontekstu, tāpēc tie faktiski nesaprot savas atbildes, vienkārši ģenerējot vārdus. Iepriekšējās pūles uzlabot valodas modeļu "domāšanas" spēju bija ļoti specializētas un nevarēja piemērot dažādiem AI modeļiem.
STaR pašmācības algoritms, ko pētnieki izmantoja kā savas darba pamatu, ir viens no šādas mācīšanās piemēriem, bet to ierobežo šie ierobežojumi. Quiet-STaR radītāji nosauca metodi tā, jo STaR darbojās fona režīmā. Tas var darboties ar dažādiem modeļiem neatkarīgi no sākotnējiem apmācības datiem. Tagad viņi vēlas izpētīt, kā šādas metodes var samazināt atšķirību starp neironu tīkliem balstītiem mākslīgā intelekta sistēmām un cilvēku spējām spriest.
Avots: Live Sciense
Komentāri (0)
Šobrīd nav neviena komentāra