霍金再發(fā)警告:人類應(yīng)建立有效機制防范AI威脅
據(jù)外媒報道,英國劍橋大學(xué)物理學(xué)家霍金日前在接受媒體采訪時,再次強調(diào)人類建立有效機制,防止人工智能(AI)對人類的威脅進一步上升。
據(jù)報道,霍金在接受采訪時表示,包括AI在內(nèi)的新科技若持續(xù)發(fā)展,可能會通過核戰(zhàn)爭或生物戰(zhàn)爭摧毀人類;人類則需要利用邏輯和理性去控制未來可能出現(xiàn)的威脅。
霍金還就應(yīng)對AI的威脅建議稱,人類可以組成某種形式的聯(lián)合政府來防范AI可能帶來的威脅。
數(shù)年前霍金已經(jīng)表示,發(fā)展全面的人工智能可能導(dǎo)致人類的毀滅。
霍金說,人工智能的發(fā)展可能幫助人類消除疾病,消除貧困,阻止氣候變化,但是也可能產(chǎn)生人們不愿意看到的種種后果,包括產(chǎn)生自主武器,造成經(jīng)濟災(zāi)難,以及發(fā)展出同人類發(fā)生沖突時擁有自己意愿的機器。
“簡言之,強大人工智能的崛起可能是人類遇到的最好的事情,也可能是最壞的事情,但我們還不知道答案?!?/p>
更多資訊請關(guān)注工業(yè)機器人頻道
中傳動網(wǎng)版權(quán)與免責(zé)聲明:
凡本網(wǎng)注明[來源:中國傳動網(wǎng)]的所有文字、圖片、音視和視頻文件,版權(quán)均為中國傳動網(wǎng)(m.u63ivq3.com)獨家所有。如需轉(zhuǎn)載請與0755-82949061聯(lián)系。任何媒體、網(wǎng)站或個人轉(zhuǎn)載使用時須注明來源“中國傳動網(wǎng)”,違反者本網(wǎng)將追究其法律責(zé)任。
本網(wǎng)轉(zhuǎn)載并注明其他來源的稿件,均來自互聯(lián)網(wǎng)或業(yè)內(nèi)投稿人士,版權(quán)屬于原版權(quán)人。轉(zhuǎn)載請保留稿件來源及作者,禁止擅自篡改,違者自負版權(quán)法律責(zé)任。
如涉及作品內(nèi)容、版權(quán)等問題,請在作品發(fā)表之日起一周內(nèi)與本網(wǎng)聯(lián)系,否則視為放棄相關(guān)權(quán)利。
下一篇:
從制造到“智造”,絕非機器換人那么簡單
政府工作報告提出,把智能制造作為主攻方向,大力改造提升傳統(tǒng)產(chǎn)業(yè)。