近日,OpenAI 推出了其最新的開源模型 gpt-oss-20b,這是一款擁有200億參數的語言模型。該模型在多個常見基準測試中與 OpenAI 的 o3-mini 模型取得了相似的表現,顯示出其強大的推理能力。值得注意的是,高通公司在這一發布中宣布,gpt-oss-20b 是首個可以在搭載驍龍平臺的終端設備上運行的開源推理模型。
此前,OpenAI 的復雜模型主要依賴于云端進行部署,用戶需要依賴網絡連接來獲取服務。而現在,通過與高通的合作,gpt-oss-20b 模型可以直接在驍龍旗艦處理器的終端上進行本地推理。這意味著,用戶在使用 AI 助手時將不再受限于網絡速度,能夠享受到更快的響應時間和更好的隱私保護。
高通表示,通過提前獲取 gpt-oss-20b 模型,并與 Qualcomm AI Stack 進行集成測試,驗證了該模型在終端設備上的卓越性能。此舉標志著 AI 技術的一個重要轉折點,預示著復雜的助手式推理將不再僅限于云端,而是能夠實現本地處理。這一進展不僅提升了用戶體驗,也為開發者和合作伙伴提供了新的可能性。
對于開發者來說,gpt-oss-20b 將通過 Hugging Face 和 Ollama 等主流平臺提供下載,便于在搭載驍龍平臺的終端上進行應用。用戶可以輕松地在 Ollama 平臺上體驗到該模型的 Turbo 模式,探索更多功能,而無需復雜的配置。此外,高通還計劃在 Qualcomm AI Hub 上發布更多的部署細節,以幫助開發者更好地利用這一新模型。
隨著 gpt-oss-20b 的發布,未來的 AI 生態系統將變得更加成熟,合作伙伴和開發者能夠借助驍龍處理器,實時利用 OpenAI 的創新成果,推動更多智能應用的發展。


產品與服務
聯系站長
關于我們