阿里通義千問今日宣布,其Qwen3-VL視覺語言模型家族新增2B與32B兩個密集模型版本,實現從輕量級到高性能的全場景覆蓋。官方強調,該系列模型不僅能在手機上流暢運行,更針對開發者需求優化設計。
阿里云通義千問團隊最新發布的機器翻譯模型Qwen-MT,支持92種主流語言及方言互譯,覆蓋全球95%以上人口。該模型提供術語干預、領域提示等專業功能,并支持用戶自定義提示,顯著提升復雜場景下的翻譯表現。
阿里通義千問團隊5月26日正式推出QwenLong-L1-32B模型,這是其首個通過強化學習訓練的長文本情境推理模型(LRM)。
通義萬相宣布VACE開源,支持多種分辨率和任務,提供一站式視頻創作體驗,通過多模態輸入機制實現高效靈活的視頻編輯。
Qwen團隊推出“Deep Research”智能助理系統,可梳理復雜問題,生成研究報告,提升科研效率,免費開放體驗。
通義千問 Qwen 官方公眾號昨日(5 月 13 日)發布博文,宣布推出 Deep Research (深入研究),該智能助理系統能夠逐步規劃復雜的研究任務,綜合大量在線信息,并協助用戶完成復雜的科研任務。
IT之家
通義千問
通義千問官方公眾號昨日宣布上線Deep Research(深入研究)智能助理系統。該系統能夠規劃復雜研究任務,整合海量在線信息,協助用戶高效完成科研工作。
DoNews
通義千問
阿里云通義千問團隊推出了Qwen2.5-Omni,這是一個新一代的多模態旗艦模型,旨在實現文本、圖像、音頻和視頻的無縫處理。
阿里巴巴推出的QwQ-32B推理模型在HuggingFace的榜單上奪得第一名,展現出卓越的性能,超越了多款知名模型如微軟的Phi-4和DeepSeek-R1。
2月25日,阿里巴巴宣布推出基于Qwen2.5-Max的推理模型QwQ-Max-Preview,并計劃全面開源其最新推理模型QwQ-Max和Qwen2.5-Max。
通義千問團隊最新開源Qwen2.5-Coder全系列,旨在推動Open Code LLMs的發展。
通義千問團隊宣布開源Qwen2.5系列模型,包括通用語言模型Qwen2.5、Qwen2.5-Coder和Qwen2.5-Math,預訓練在18T tokens數據集上,提升知識獲取、編程和數學能力。支持長文本處理,生成最多8K tokens內容,保持對29種以上語言的支
阿里云通義千問 QwenLM 的 Github 頁面今日突然出現404 訪問錯誤,包括 Qwen2.0 在內的項目均無法正常訪問。
8月30日消息,阿里通義千問發布第二代視覺語言模型Qwen2-VL。其中,旗艦模型Qwen2-VL-72B的API已上線阿里云百煉平臺。
通義千問團隊今天對 Qwen-VL(視覺語言、Vision Language)模型進行更新,推出 Qwen2-VL。
阿里云最新發布的 Qwen2-Audio 大規模音頻語言型模型,革新了語音交互體驗,用戶無需輸入文字即可與其進行語音交互,提供更便捷的體驗。
-------------沒有了-------------