2月25日,上海人工智能實驗室聯合商湯科技發布通用視覺開源平臺OpenGVLab,面向學術界和產業界開放其超高效預訓練模型、超大規模公開數據集,以及業內首個針對通用視覺模型的評測基準。此舉將為全球開發者提升各類下游視覺任務模型訓練提供重要支持,推動AI技術的規模化應用落地,并促進人工智能基礎研究及生態建設的快速發展。
繼去年11月聯合商湯科技、香港中文大學和上海交通大學發布通用視覺技術體系“書生”(INTERN),上海人工智能實驗室在推動通用視覺智能技術的發展上持續發力。此次發布的通用視覺開源平臺OpenGVLab不僅包含超高效預訓練模型,同時包括千萬級精標注、十萬級標簽量的公開數據集;同步公布的評測基準則將便于開發者對不同通用視覺模型的性能進行橫向評估和持續調優。
當前,人工智能技術正快速發展,然而很多AI模型還局限于完成單一任務,如識別單一物體,或識別風格較為統一的照片。如果要對多種類型、風格進行識別,則需要具備足夠的通用性和泛化能力。通用視覺技術體系“書生”(INTERN),很好地解決了這一問題。通用視覺開源平臺OpenGVLab即是基于“書生”打造而成。依托“書生”在通用視覺技術上的支撐,OpenGVLab將大幅降低通用視覺模型的開發門檻,幫助開發者用更低的成本快速開發用于成百上千種視覺任務、視覺場景的算法模型,高效實現對長尾場景的覆蓋,推動AI技術的規模化應用落地。
據悉,OpenGVLab充分繼承了通用視覺技術體系“書生”的技術優勢,其開源的預訓練模型具備極高性能。相較于此前公認的最強開源模型(OpenAI于2021年發布的CLIP),OpenGVLab的模型可全面覆蓋分類、目標檢測、語義分割、深度估計四大視覺核心任務,在準確率和數據使用效率上均取得大幅提升。基于同樣的下游場景數據,開源模型在分類、目標檢測、語義分割及深度估計四大任務26個數據集上,平均錯誤率分別降低了40.2%、47.3%、34.8%和9.4%;同時,在分類、檢測、分割和深度估計中,僅用10%的下游訓練數據就超過了現有其他開源模型。使用此模型,研究人員可以大幅降低下游數據采集成本,用極低的數據量即可快速滿足多場景、多任務的AI模型訓練。
隨著人工智能與產業融合的不斷深入,行業對人工智能的需求逐漸從單一任務向復雜的多任務協同發展,亟需構建開源、開放的體系,以滿足趨于碎片化和長尾化的海量應用需求。
伴隨OpenGVLab的發布,上海人工智能實驗室還開放了業內首個針對通用視覺模型的評測基準。當前,行業中已有的評測基準主要針對單一任務、單一視覺維度而設,無法反映通用視覺模型的整體性能,難以用于橫向比較。全新的通用視覺評測基準憑借在任務、數據等層面的創新設計,可提供權威的評測結果,推動統一標準上的公平和準確評測,加快通用視覺模型的產業化應用步伐。
關于我們| 聯系方式| 版權聲明| 供稿服務| 友情鏈接
咕嚕網 www.fyuntv.cn 版權所有,未經書面授權禁止使用
Copyright©2008-2020 By All Rights Reserved 豫ICP備20023378號-15 營業執照公示信息
聯系我們: 98 28 36 7@qq.com