【中國傳動網(wǎng) 行業(yè)動態(tài)】 近日,在美國華盛頓特區(qū)的一次研討會上,美國國防部高級研究計劃局(DARPA)宣布,計劃在未來五年內(nèi),投資20億美元用于人工智能的研究。
在一個名為“AINext”的計劃中,該機構(gòu)目前有超過20個項目正在進行中。這些項目的研究重點包括提高機器學習和人工智能技術(shù)的安全性和彈性,提高電力、數(shù)據(jù)和性能方面的效率,并探索這些系統(tǒng)的“可解釋性”。
“機器缺乏上下文推理能力,它們的訓練必須涵蓋所有可能發(fā)生的情況,這樣不僅成本高昂,而且?guī)缀醪豢赡芡瓿??!表椖恐鞴躍tevenWalker博士說,“我們希望探索機器如何以類似人類的溝通和推理能力,來識別新情況和環(huán)境,并以此適應它們。”
人工智能是一個廣義術(shù)語,它涵蓋了從檢索能力到機器學習的所有內(nèi)容,而且所有的定義都嚴重依賴于消耗數(shù)據(jù)來告知算法和“學習”。DARPA在這一領域有著悠久的研發(fā)歷史,但最近它的研發(fā)成果已被中國等外國強國超越。今年夏天早些時候,中國宣布計劃到2030年成為人工智能領域的領軍者。
在許多情況下,這些人工智能仍處于起步階段,但這項技術(shù)——尤其是機器學習——不僅有可能徹底改變用戶與技術(shù)的交互方式,還可能徹底改變企業(yè)和政府機構(gòu)利用這種技術(shù)與員工和公民進行交互的方式。
機器學習有一個特點,在學習時,會將學習數(shù)據(jù)里的偏差納入人工智能系統(tǒng)。如果數(shù)據(jù)中包含漏洞或錯誤信息,機器可能得出錯誤的結(jié)論,例如:哪類人“更有可能”犯罪,這類錯誤的結(jié)論可能會產(chǎn)生非常嚴重的后果。更可怕的是,即使機器產(chǎn)生了偏差,由于人工智能類似于“黑盒子”的原理構(gòu)造,我們沒有辦法搞清楚它們是否有偏差、產(chǎn)生了哪些偏差以及為什么產(chǎn)生偏差。
換句話說,即使是設計算法的研究人員,也不太了解機器如何得出它們的結(jié)論。
也就是說,人工智能存在危險性。但是,如果開發(fā)者足夠謹小慎微,人工智能研究也可以成為創(chuàng)新和進步的源泉。隨著DARPA的研究不斷向前推進,我們將會看到他們?nèi)绾翁幚磉@些重要問題。這些問題已經(jīng)不僅僅是技術(shù)問題,更是關(guān)系到每個人的社會問題。