隱私權聲明
本公司關心使用者隱私權與個人資訊,並遵守本公司的網站隱私政策,使用者若有任何問題,可以參考本公司的「網站隱私政策」,或利用電子郵件或連絡電話詢問本公司.
2025
08
15

Google開源Gemma 3 270M,挑戰低資源部署[轉載自iThome]

關鍵字:網頁設計專案開發網頁設計作品

文/陳曉莉|2025-08-15發表

圖片來源: hugging face

 

Google周四(8/14)開源Gemma 3 270M,這是Gemma系列中最輕量的版本,具備2.7億參數,它在Pixel 9 Pro上執行25輪對話僅耗0.75%電量。該模型專為特定任務微調與裝置端部署設計,具備指令遵循與文本結構化能力,而非通用型LLM。

Gemma 3 270M支援多種格式,其中INT4量化版本的記憶體需求約為240MB,相較BF16格式約400MB減少近4成,能在手機、IoT或其他低資源裝置上順利執行。

目前Gemma 3系列包含270M、1B、4B、12B與27B等不同規模版本。在Q4_0量化格式下,各模型的記憶體需求分別為240MB、892MB、3.4GB、8.7GB及21GB。Gemma 3 270M版本以最低記憶體門檻與最低功耗,成為目前系列中最適合部署於終端裝置的選擇。

Google也同步發布微調教學資源,包含以Hugging Face Transformers進行全模型訓練的完整流程,支援開發者針對分類、資料抽取、情緒分析等應用進行客製化。社群開發者也已透過transformers.js展示其在瀏覽器端的運行能力,證明Gemma 3 270M在Web環境中亦具備良好效能與可控性。

Gemma團隊表示,Gemma 3 270M適合處理高頻率、任務明確的應用,如情緒分析、實體辨識與查詢分類;能快速微調並部署於資源有限的裝置上,降低延遲與推論成本;模型可在本地執行,特別適合處理敏感資料;亦適用於開發多個專責任務的小型模型。

Gemma 3 270M與尚未開源的Gemma 3n同屬Google推動裝置端AI的戰略佈局。前者主打開源、可微調與跨平臺部署,後者則針對2GB RAM等極端低資源裝置優化,用於即時與離線運行。

你可能有興趣的作品案例
傑立資訊傑立資訊事業有限公司
Powered by AWS Cloud Computing

電話:(02)2739-9096 | 傳真:(02)2739-6637 | 客服:[email protected] | 臺北市信義區和平東路3段257號6樓map

© 2019 傑立資訊 All rights reserved.| 網站隱私政策

線上詢價