自從ChatGPT發(fā)布以來(lái),人工智能的熱度居高不下。但是,就以生成文字為例,智能的算法是否也能在安全自動(dòng)化方面取得突破性進(jìn)展呢?答案是肯定的,而問題是:這如何實(shí)現(xiàn)呢?
實(shí)際上,“人工智能”(AI)一詞背后并沒有特別的魔法,它是純粹的數(shù)學(xué)。簡(jiǎn)單地說,AI是一種試圖模仿人類行為的程序代碼,目的是實(shí)現(xiàn)人類決策的自動(dòng)化。這項(xiàng)技術(shù)的基礎(chǔ)早在上世紀(jì)60年代就已建立。然而,直到現(xiàn)在有了功能強(qiáng)大的硬件、新概念和新算法,人工智能才有了突飛猛進(jìn)的發(fā)展。這些發(fā)展使得人工智能技術(shù)可以應(yīng)用于工業(yè)領(lǐng)域,專家們都紛紛預(yù)測(cè)全球經(jīng)濟(jì)將發(fā)生一場(chǎng)革命。
將人工智能和機(jī)械安全結(jié)合在一起是一門終極學(xué)問。因?yàn)锳I就是所謂的“黑匣子”:人們無(wú)法預(yù)測(cè)或理解復(fù)雜的系統(tǒng)是如何做出決定的。但這對(duì)于功能安全來(lái)說是絕對(duì)必要的。安全系統(tǒng)的每一個(gè)反應(yīng)都必須是合理的。在機(jī)械安全中實(shí)施人工智能時(shí),有三個(gè)方面是相關(guān)的:工業(yè)安全與信息安全、透明度和可靠性。
人工智能促進(jìn)機(jī)械安全
就透明度而言,目前的研究正是針對(duì)這一方面:解釋人工智能為何以及如何做出決策的能力。專家們正在使用“可解釋的人工智能”(Explainable AI)技術(shù),讓人們能夠理解人工智能的復(fù)雜系統(tǒng),從而提高其透明度。在可靠性方面,專家們正在使用算法和方法來(lái)量化不確定性。因此,人工智能系統(tǒng)能夠顯示其決策的確定或不確定程度,識(shí)別無(wú)效條目并做出相應(yīng)反應(yīng)。在工業(yè)安全和信息安全領(lǐng)域,研究人員使用形式化驗(yàn)證方法來(lái)驗(yàn)證人工智能是否安全無(wú)誤。
“在短期內(nèi),我們希望AI能夠提高生產(chǎn)效率。從長(zhǎng)遠(yuǎn)來(lái)看,我們希望能夠在安全相關(guān)的環(huán)境中使用人工智能,并從中獲利”,皮爾磁的高級(jí)開發(fā)副總裁 Mathias Holz?pfel 展望未來(lái)時(shí)說道。皮爾磁的專家正致力于人工智能技術(shù)以及人工智能與機(jī)械安全方面的最新研究。作為可靠的安全自動(dòng)化合作伙伴,皮爾磁不會(huì)對(duì)人工智能的使用聽之任之,而是會(huì)密切關(guān)注立法和標(biāo)準(zhǔn)的制定。