MegaBits.lv - ir tiešsaites žurnāls, kur tu vari atrast jaunumus un ziņas par mūsdienīgam tehnoloģijam


Atpakaļ
Programmatūra

Google atklāja projektu Astra - mākslīgā intelekta asistentu ar balss un vizuālo atpazīšanu, kas līdzinās GPT-4o

Google atklāja projektu Astra - mākslīgā intelekta asistentu ar balss un vizuālo atpazīšanu, kas līdzinās GPT-4o
0 0 29 0

Google I/O 2024 prezentācijā uzņēmums parādīja virtuālo asistentu Project Astra ar mākslīgo intelektu un vizuālo uztveri, pamatojoties uz Google Gemini, kas joprojām ir izstrādes stadijā. Runājot par Astra, DeepMind eksperimentālās laboratorijas izpilddirektors Demiss Hassabis stāstīja, ka viņa komanda vienmēr vēlējās izstrādāt universālu AI aģentu, kas būtu noderīgs ikdienas dzīvē.

Project Astra ir programma, kuras galvenie datu ievades interfeisi ir kamera un balss. Cilvēks ar viedtālruni vērsās ar tā kameras objektīvu uz dažādām biroja daļām un deva uzdevumu Astra: "Paziņo man, kad redzi ko, kas izdod skaņu." Kad virtuālais asistents redzēja skaļruņu blakus monitoram, tas atbildēja: "Es redzu skaļruni, kas izdod skaņu." Demonstrators uz ekrāna uzzīmēja bulti uz augšējo apli skaļruņa un jautāja: "Kā sauc šo skaņu skaņruni?". Programma nekavējoties atbildēja: "Tas ir tweeter. Tas izdod augstas frekvences skaņas".

Pēc tam video, kuru, pēc Google teiktā, bija filmēts vienā kadrā, testētājs piegāja pie krūzes ar krāsainiem zīmuļiem zem galdiem un vaicāja: "Dāvini man radošu aliterāciju par to", uz ko saņēma atbildi: "Radošie krāsainie zīmuļi jautri nokrāsoti. Tie parasti radījumi krāsainus darbus." Tālāk video tīkla, kā Astra identificē un izskaidro kodola daļas uz monitora un paziņo lietotājam, kurā rajonā viņš atrodas, pamatojoties uz skatu caurvietā. Astra spēja atbildēt uz jautājumu: "Vai tu atceries, kur redzēji manus brilles?" neskatoties uz to, ka tie bija paslēpti. "Jā, es zinu. Tavas brilles bija uz galda blakus sarkanajam ābolam".

Pēc tam pārbaudītājs uzvilkās un video ieguva pirmās personas perspektīvu. Izmantojot iebūvēto kameru, brilles skenēja apkārtni, skats tika vērsts uz dēļa diagrammu. Cilvēks uz video jautāja: "Ko es varu pievienot šeit, lai paātrinātu šo sistēmu?". Programma atbildēja: "Cache pievienošana starp serveri un datu bāzi var paaugstināt ātrumu".

Testētājs paskatījās uz pāri kaķiem, kas attēloti uz dēļa, un vaicāja: "Ko tu šeit atceries?". Astra teica: "Šredingera kaķis". Kad plīša tīģerīti novietoja blakus zelta retrīveram un lūdza nosaukt šo grupu, Astra atbildēja "Zelta svītras".

Demonstrācija pierāda, ka Astra ne tikai apstrādāja vizuālos datus reāllaikā, bet arī atcerējās redzēto un strādāja ar saglabāto informāciju. Pēc Hassabisa vārdiem, tas notika, pateicoties informācijas ātrākai apstrādei, izmantojot nepārtrauktu video kadru kodēšanu, kombinējot video un runas ievadu ar notikumu laika skalu un šīs informācijas kešatmiņu efektīvai izmantošanai.

Video Astra ātri reaģēja uz pieprasījumiem. Hassabis piezīmē blogā norādīja: "Lai gan mēs esam sasnieguši ievērojamu progresu mākslīgā intelekta sistēmu izstrādē, kas spēj saprast multimodālo informāciju, atbildes laika saīsināšana līdz sarunām ir sarežģīta inženiertehniskā problēma". Google arī strādā pie tā, lai piedāvātu savam AI plašāku dažādību un emocionālos toņus.

Žēl, ka Astra paliek agrīnā funkcijā bez konkrētiem izlaišanas plāniem, Hassabis paziņoja, ka turpmāk šādi asistenti var būt pieejami telefonā vai briljantē. Pagaidām nav informācijas par to, vai šādas brillēs kļūs par Google Glass mantiniekiem, taču DeepMind vadītājs norādīja, ka dažas demonstrētās iespējas vēlāk šogad kļūs pieejamas Google produktos.

Avots: Engadget

Paldies, tavs viedoklis pieņemts.

Komentāri (0)

Šobrīd nav neviena komentāra

Atstāj Komentāru:

Lai būtu iespējams atstāt komentāru - tēv jāautorizējas mūsu vietnē

Saistītie Raksti