2月21日,國科微舉辦以“春茗芯生·智領(lǐng)國科”為主題的人工智能研討會,,香港中文大學(xué)教授,、國科微AI首席科學(xué)家邢國良及其研究團(tuán)隊與國科微AI算法專家、AI產(chǎn)品經(jīng)理以及研發(fā)人員共聚一堂,圍繞端側(cè)AI技術(shù)發(fā)展與產(chǎn)業(yè)應(yīng)用,,DeepSeek大模型為端側(cè)AI注入的機(jī)遇與挑戰(zhàn)展開深入研討,,帶來一場精彩的思想盛宴。
2025 年 1 月,,DeepSeek R1 模型的發(fā)布將業(yè)界對人工智能的關(guān)注推向空前高度,。DeepSeek不僅將加速大模型在云端的部署,還為大模型在端側(cè)的部署帶來新的可能,。邢國良教授在《端側(cè)人工智能研究前沿及應(yīng)用——從深度神經(jīng)網(wǎng)絡(luò)到大模型》的主題演講中,,首先回顧了大模型的發(fā)展歷程。自2017年 Transformer 架構(gòu)誕生以來,,大模型不斷演進(jìn),,從GPT-3、GPT-4V到剛剛發(fā)布的開源DeepSeek R1模型,,性能持續(xù)提升,,對算力的依賴卻顯著降低。
邢國良教授指出,,DeepSeek R1的成功得益于神經(jīng)網(wǎng)絡(luò)壓縮技術(shù),,通過量化和蒸餾等方法可以得到輕量級模型,在降低算力需求的同時仍保持了較好的推理能力,,這為端側(cè) AI 在智能手機(jī),、智能家居等領(lǐng)域的應(yīng)用提供了有力支持。
不過,,端側(cè)部署大模型仍面臨硬件資源受限,、模型復(fù)雜度高、能耗高和部署門檻高等挑戰(zhàn),。針對這些問題,,邢國良教授提出跨平臺通用模型部署架構(gòu)、充分利用異構(gòu)算力以及進(jìn)一步發(fā)展模型優(yōu)化與壓縮技術(shù)等發(fā)展建議,。
隨后,,邢國良教授領(lǐng)導(dǎo)的研究團(tuán)隊成員以及國科微AI專家等發(fā)表了《2025年消費級AI硬件展望》《DeepSeek R1深度解析》《端側(cè)AI芯片發(fā)展趨勢》主題演講,共同探討AI大模型以及端側(cè)AI的商業(yè)實踐,、技術(shù)實踐以及發(fā)展趨勢,。
自2024年全面擁抱AI以來,國科微依托自研 NPU,,提出打造“端側(cè) AI 芯引擎”的目標(biāo),,并推出新一代4K AI視覺處理芯片GK7606V1系列與輕智能視覺處理芯片GK7203V1系列,進(jìn)一步豐富端側(cè)AI芯片產(chǎn)品及方案,。
此次研討會不僅加深了國科人對端側(cè)AI技術(shù)的理解,,也為國科微在端側(cè)AI領(lǐng)域的發(fā)展明確了方向。2025 年,國科微將加快端側(cè)AI產(chǎn)品布局,,在音視頻解碼,、智慧視覺和車載電子等領(lǐng)域持續(xù)發(fā)力,推動端側(cè)AI技術(shù)的發(fā)展和應(yīng)用,。