近日,上海 AI 實驗室宣布推出書生·萬象InternVL2.5模型。這款開源多模態(tài)大型語言模型以其卓越的性能,成為首個在多模態(tài)理解基準(MMMU)上超過70%準確率的開源模型,與商業(yè)模型如GPT-4o和Claude-3.5-Sonnet等的性能相媲美。
InternVL2.5模型通過鏈式思考(CoT)推理技術實現(xiàn)了3.7個百分點的提升,展現(xiàn)了強大的測試時間可擴展性潛力。該模型基于InternVL2.0進一步發(fā)展,通過增強訓練和測試策略以及提高數(shù)據(jù)質量來進一步提升性能。在視覺編碼器、語言模型、數(shù)據(jù)集大小和測試時間配置等方面進行了深入研究,以探索模型規(guī)模與性能之間的關系。
InternVL2.5在多項基準測試中展現(xiàn)了競爭性的性能,特別是在多學科推理、文檔理解、多圖像/視頻理解、現(xiàn)實世界理解、多模態(tài)幻覺檢測、視覺地面化、多語言能力以及純語言處理等領域。這一成果不僅為開放源代碼社區(qū)提供了一個新標準,用于開發(fā)和應用多模態(tài)AI系統(tǒng),也為人工智能領域的研究和應用開辟了新的可能性。
InternVL2.5保留了其前身InternVL1.5和InternVL2.0的相同模型架構,遵循“ViT-MLP-LLM”范式,并實現(xiàn)了將新的增量預訓練的InternViT-6B或InternViT-300M與各種不同大小和類型的預先訓練的LLMs集成在一起,使用隨機初始化的兩層MLP投影器。為了增強高分辨率處理的可擴展性,研究團隊應用了一個像素無序操作,將視覺令牌的數(shù)量減少到原始數(shù)量的一半。
模型的開源性質意味著研究人員和開發(fā)者可以自由訪問和使用InternVL2.5,這將極大地促進多模態(tài)AI技術的發(fā)展和創(chuàng)新。


產品與服務
聯(lián)系站長
關于我們