(資料圖)
本報記者 李喬宇
3月14日,商湯科技發(fā)布多模態(tài)多任務通用大模型“書生(INTERN)2.5”,在多模態(tài)多任務處理能力方面實現(xiàn)多項全新突破,其圖文跨模態(tài)開放任務處理能力可為自動駕駛、機器人等通用場景任務提供高效精準的感知和理解能力支持,向通用人工智能邁出堅實的一步?!皶↖NTERN)”最初版本由商湯科技、上海人工智能實驗室、清華大學、香港中文大學、上海交通大學在2021年11月首次共同發(fā)布,并持續(xù)聯(lián)合研發(fā)。
“書生2.5”擁有30億參數(shù),不僅是世界上開源模型中ImageNet準確度最高、規(guī)模最大的模型,也是物體檢測標桿數(shù)據(jù)集COCO中唯一超過65.0mAP的模型。目前,“書生2.5”多模態(tài)通用大模型已在通用視覺開源平臺OpenGVLab開源,為學術(shù)界和產(chǎn)業(yè)界的多模態(tài)通用模型研發(fā)提供有力支撐。
當前,人工智能技術(shù)的發(fā)展正面臨著大量跨模態(tài)任務的挑戰(zhàn),為滿足快速增長的各式應用場景需求,發(fā)展更為通用的人工智能模型已成為科技前沿的核心焦點問題。此次全新發(fā)布的“書生2.5”致力于多模態(tài)多任務通用模型的構(gòu)建,可接收處理各種不同模態(tài)的輸入,并采用統(tǒng)一的模型架構(gòu)和參數(shù)處理各種不同的任務,促進不同模態(tài)和任務之間在表示學習方面的協(xié)作,逐步實現(xiàn)通用人工智能領(lǐng)域的融會貫通。
“書生2.5”實現(xiàn)了通過文本來定義任務,從而可以靈活地定義不同場景的任務需求,并根據(jù)給定視覺圖像和任務的提示性語句,給出相應的指令或作答,進而具備通用場景下的高級感知和復雜問題處理能力,比如圖像描述、視覺問答、視覺推理和文字識別等。
(編輯 張明富)
關(guān)鍵詞: