Kineska kompanija za razvoj vještačke inteligencije DeepSeek objavila je svoj najnoviji „eksperimentalni“ model za koji tvrdi da je efikasniji u učenju i bolji u obradi dugih nizova teksta od prethodnih verzija njenih velikih jezičkih modela.
Kompanija sa sjedištem u Hangdžouu nazvala je DeepSeek-V3.2-Exp „međukorakom ka našoj arhitekturi sljedeće generacije“ u objavi na forumu za programere Hugging Face.
Ta arhitektura bi mogla biti najvažnije izdanje DeepSeekovih proizvoda još otkako su modeli V3 i R1 iznenadili Silicijumsku dolinu i tehnološke investitore van Kine.
Model V3.2-Exp uključuje mehanizam nazvan DeepSeek Sparse Attention, za koji kineska kompanija tvrdi da može smanjiti troškove računanja i poboljšati performanse određenih tipova modela. DeepSeek je u ponedjeljak na platformi X objavio da snižava cijene API-ja za „više od 50 odsto“, prenosi Hina.
Iako je malo vjerovatno da će arhitektura sljedeće generacije DeepSeeka izazvati potres na tržištu kao što su to učinile prethodne verzije u januaru, i dalje bi mogla da izvrši snažan pritisak na domaće konkurente poput Alibabinog Qwena, kao i na američke rivale poput OpenAI-a – ukoliko ponovi uspjeh DeepSeek R1 i V3.
To bi zahtijevalo da model pokaže visoke sposobnosti, a da pri tome koristi tek dio resursa koje konkurenti troše i naplaćuju za obuku svojih sistema.
Bonus video: