人工智能 (AI) 是一項新興技術(shù),自從它誕生之日起便廣受關(guān)注,從上世紀(jì)七八十年代以來,就被譽為是具有與空間技術(shù)和能源技術(shù)同等地位的世界三大尖端技術(shù)之一。近年來,隨著AI技術(shù)的不斷突破和普及,AI安防企業(yè)如雨后春筍般涌現(xiàn),如我們所熟知的商湯,曠視,依圖和云從等?,F(xiàn)今,AI不僅是流行文化中的常用術(shù)語,同時也成為了安防行業(yè)的流行語。
然而,由于人類的認(rèn)知偏見,我們往往會對AI產(chǎn)生誤解。隨著AI逐漸融入到我們的日常生活中,其產(chǎn)生的影響也變得越來越大,而我們對它的誤解也變得越來越深了。于是我們會常常反思,流行文化中對人工智能的描述如何影響現(xiàn)實世界中對人工智能的理解?作為一個流行詞,營銷炒作在什么時候會混淆我們對現(xiàn)實的理解?在本文中,我們將探討一些關(guān)于AI的常見誤解,提供一些思考與見解,使AI與我們一起走向更美好的未來。
誤解一:人工智能可以像人類一樣思考或行動
說起人工智能,那么我們不得不提高一個人,他就是阿蘭·圖靈。1946年10月,圖靈發(fā)表了一篇名為“計算機能思考嗎?”的論文,論文中圖靈首先提出“機器思維”的概念,他逐條反駁“機器不能像人那樣思維”的說法,并首次提出了“圖靈測試”的概念。圖靈提出“圖靈測試”的當(dāng)時,世界上有能力參與測試的計算機僅有幾臺,圖靈卻大膽預(yù)言,認(rèn)為到20世紀(jì)末,一定會有計算機通過“圖靈測試”,“人工智能”早晚有一天能與人類智能并駕齊驅(qū),并能為人類認(rèn)可。
真正的人工智能代表著一個功能齊全的人工大腦,可以推理、進(jìn)化、自我學(xué)習(xí)并做出類似人類的決定。圖靈曾經(jīng)討論制作一臺會下象棋的計算機的可能性,然而圖靈沒有打算利用強大的處理能力來計算出每一步棋可能的走法,他關(guān)注的焦點是能否讓機器通過不斷重復(fù)的練習(xí)“學(xué)會”如何下象棋。換句話說,機器也許可以嘗試不同的開局走法,然后從每次的勝利或失敗中完善自己的策略。然而這情況似乎只能出現(xiàn)在科幻小說中,離我們太過遙遠(yuǎn),至少以我們目前的科技水平是無法達(dá)到的。雖然機器能夠模仿特定任務(wù)的行為,但它們無法像人類一樣思考或行動。在物理安全行業(yè),機器學(xué)習(xí)和深度學(xué)習(xí)等人工智能的子集可以幫助組織篩選數(shù)據(jù)并處理現(xiàn)實世界的解決方案,例如面部識別或人數(shù)統(tǒng)計。智能自動化可以通過使用現(xiàn)有數(shù)據(jù)并基于該數(shù)據(jù)自動分析來進(jìn)一步幫助組織,最終有助于改進(jìn)運營和工作流程,并減少冗余響應(yīng)。但是這兩種技術(shù)都不是“智能”的,因為它們不能像人類一樣思考或行動。
誤解二:人工智能可以輕易解決所有問題,且不會犯任何錯誤
AI 是一個很棒的工具,但它也需要許多組件來解決用例——最具挑戰(zhàn)性的組件之一是用于學(xué)習(xí)算法的訓(xùn)練數(shù)據(jù)?;谌斯ぶ悄芗夹g(shù)的解決方案需要大量的相關(guān)訓(xùn)練數(shù)據(jù)。這是一個復(fù)雜的解決方案,需要執(zhí)行許多步驟才能將該信息集成到?jīng)Q策過程中,可見人工智能并不能簡簡單單就能解決所有問題。在安全領(lǐng)域應(yīng)用中利用人工智能是一個很好的機會,業(yè)界可以在市場教育方面共同努力,以避免這種誤解。
雖然人工智能是非常智能的,但是人工智能也是由程序組成的,如果是某方面引起的故障的話,那么人工智能可能會產(chǎn)生自相矛盾的邏輯,而無法真正“思考”的人工智能顯然處理不了這種自相矛盾的邏輯推理,因而在處理問題時就會顯得非常愚蠢。而科學(xué)家們認(rèn)為人工智能將很大程度上依賴其程序鎖定。他們不相信人工智能不會犯錯誤,或者反過來他們沒有聰明到可以理解我們希望他們能做什么。人工智能就是一個在方方面面都比人腦要更為聰明的智慧載體。在未來人工智能將會完全知道我們設(shè)計他們來做什么。科學(xué)家相信人工智能將只會做其程序編寫的任務(wù),但如果它足夠聰明的話,它會最終理解法律的精髓和人文的意義。
誤解三:人工智能就是一切,甚至可以為之犧牲隱私和個人自由
現(xiàn)在有一個普遍誤解是,人工智能等于老大哥,必須犧牲隱私和個人自由。當(dāng)如此多的流行文化和電視都關(guān)注“機器的崛起”時,這是可以理解的,就像在終結(jié)者中一樣。當(dāng)然,我們知道這個級別的真正“人工智能”尚不存在,我們只是在談?wù)摍C器學(xué)習(xí)和該技術(shù)的衍生產(chǎn)品。
我們知道,機器學(xué)習(xí)需要使用大量數(shù)據(jù)。但人工智能和機器學(xué)習(xí)的有效性并不需要以犧牲用戶隱私為代價,收集要授權(quán),使用有界限,存儲應(yīng)保護,這是人工智能時代兼顧高度智能化與隱私安全的重要原則,是我們的首要關(guān)注點,也是基本的價值觀。安全行業(yè)必須更好地教育客戶和潛在客戶,同時闡明基于人工智能的分析對他們收集的數(shù)據(jù)的作用。我們必須強調(diào)這樣一個事實,即 99.9% 的收集數(shù)據(jù)是完全匿名的。機器學(xué)習(xí)沒有做人類團隊做不到的事情,它只是以指數(shù)級的方式更高效地完成它。隨著我們超越安全用例,基于人工智能的技術(shù)有望改變我們的行業(yè),
誤解四:人工智能可以取代人類
這是一個細(xì)思極恐的事情,其實人工智能有能力自動完成人類工作的能力與它取代人類是兩回事,雖然技術(shù)的進(jìn)步和未來的失業(yè)往往是密不可分的。思考人工智能在未來可能扮演的角色無可厚非,但是我們更應(yīng)該關(guān)注的是后面幾十年的問題。人工智能主要完成的還是大規(guī)模自動化的工作。毫無疑問,人工智能將徹底接管包括從工廠做工到上層的白領(lǐng)工作在內(nèi)的許多現(xiàn)有的工作崗位。有專家預(yù)測,在美國有一半的工作崗位可能在不久的將來實現(xiàn)自動化。但這并不意味著我們不能適應(yīng)這種巨變。人和機器共同協(xié)作可以增加業(yè)務(wù)量,保持質(zhì)量,減少重要的業(yè)務(wù)流程的單位成本。這就消除了人工智能是機器代替人類的誤解。事實是,人工智能是關(guān)于機器增強人類的能力。
誤解五:人工智會毀滅人類
其實這種想法不是很牢靠的,這是因為現(xiàn)在還沒有證據(jù)保證人工智能會毀滅我們,或者我們將來一定沒有辦法來控制它。人工智能不討厭你,也不喜歡你,但你是由可以用做別的東西的原子組成的。當(dāng)人工智能如果有自己的意識,它會有強烈的動機以確保自己不被中斷或干擾,包括被關(guān)閉,或其目標(biāo)被改變,因為這樣這些目標(biāo)將無法實現(xiàn)。但萬事無絕對,也沒有人可以肯定人工智能會采取何種形式,以及它如何可能危及人類。人工智能實際上可以用于控制、調(diào)節(jié)和監(jiān)控其他人工智能。或者,它可能被灌輸人類價值,以及強制要求友好對待人類。
人工智能 (AI) 的概念在科幻小說世界和安全事實世界中都很常見。但是,這個術(shù)語被賦予的奇特的光環(huán)往往掩蓋或顛覆對現(xiàn)實世界特征的理解。AI 聽起來很有未來感,而且安防行業(yè)一直都在變得越來越具有未來感,但也有其局限性。只有將人工智能的虛構(gòu)方面與安全行業(yè)中的現(xiàn)實區(qū)分開,我們才能更好的理解人工智能。