前不久,在中文語言理解權威評測基準CLUE中,阿里巴巴的AI模型在新聞文本上超越了人類識別精確度?,F(xiàn)在“讀圖會意”上,阿里巴巴達摩院在VQA上也超越了人類,這是榜單設立6年來的首次。
8月12日,國際權威機器視覺問答榜單VQA Leaderboard出現(xiàn)關鍵突破:阿里巴巴達摩院以81.26%的準確率創(chuàng)造了新紀錄,讓AI在“讀圖會意”上超越人類基準。
繼2015年、2018年AI分別在視覺識別及文本理解領域超越人類分數(shù)后,人工智能在多模態(tài)技術領域也迎來一大進展。
“詩是無形畫,畫是有形詩?!彼未娙藦埶疵裨枥L語言與視覺的相通之處。“讀圖會意”,即通過視覺理解信息,是人類的一項基礎能力,但對AI來說卻是要求極高的認知任務。
解決該挑戰(zhàn),對研發(fā)通用人工智能有重要意義。近10年來,AI在下棋、視覺、文本理解等單模態(tài)技能上突飛猛進,但在涉及視覺-文本跨模態(tài)理解的高階認知任務上,AI過去始終未達到人類水平。
為攻克這一難題而設立的挑戰(zhàn)賽VQA Challenge,自2015年起先后于全球計算機視覺頂會ICCV及CVPR舉辦,吸引了包括微軟、Facebook、斯坦福大學、阿里巴巴、百度等眾多頂尖機構踴躍參與,并形成了國際上規(guī)模最大、認可度最高的VQA(Visual Question Answering)數(shù)據(jù)集,其包含超20萬張真實照片、110萬道考題。
VQA是AI領域難度最高的挑戰(zhàn)之一。在測試中,AI需根據(jù)給定圖片及自然語言問題生成正確的自然語言回答。
這意味著單個AI模型需融合復雜的計算機視覺及自然語言技術:首先對所有圖像信息進行掃描,再結合對文本問題的理解,利用多模態(tài)技術學習圖文的關聯(lián)性、精準定位相關圖像信息,最后根據(jù)常識及推理回答問題。
今年6月,阿里達摩院在VQA 2021 Challenge的55支提交隊伍中奪冠,成績領先第二名約1個百分點、去年冠軍3.4個百分點。兩個月后,達摩院再次以81.26%的準確率創(chuàng)造VQA Leaderboard全球紀錄,首次超越人類基準線80.83%。
VQA的核心難點在于對多模態(tài)信息進行聯(lián)合推理認知,即在統(tǒng)一模型里做不同模態(tài)的語義映射和對齊。
據(jù)了解,達摩院NLP及視覺團隊對AI視覺-文本推理體系進行了系統(tǒng)性的設計,融合了大量算法創(chuàng)新,包括多樣性的視覺特征表示、多模態(tài)預訓練模型、自適應的跨模態(tài)語義融合和對齊技術、知識驅動的多技能AI集成等,讓AI“讀圖會意”水平上了一個新臺階。
VQA技術擁有廣闊的應用場景,可用于圖文閱讀、跨模態(tài)搜索、盲人視覺問答、醫(yī)療問診、智能駕駛等領域,或將變革人機交互方式。
報道顯示,這不是阿里達摩院第一次在AI關鍵領域超越人類基準。2018年,達摩院曾在斯坦福SQuAD挑戰(zhàn)賽中歷史性地讓機器閱讀理解首次超越人類,引發(fā)海外媒體關注。
今年以來,達摩院在AI底層技術領域動作頻頻,先后發(fā)布了中國科技公司中首個超大規(guī)模多模態(tài)預訓練模型M6及首個超大規(guī)模中文語言模型PLUG,并開源了歷經(jīng)3年打造的深度語言模型體系AliceMind(https://github.com/alibaba/AliceMind),其曾登頂GLUE等六大國際權威NLP榜單。