在恩智浦,我們會按照客戶提出的正式要求,為硬件開發(fā)相應(yīng)的功能。為了滿足客戶的要求,我們首先列出一些已知的輸入信息,也就是用例。用例可能是雷達(dá)傳感器在汽車中的位置(面朝前方或角落)、電動汽車電池的工作電壓、汽車駕駛艙內(nèi)的屏幕數(shù)量等。然后,我們再定義設(shè)計(jì),驗(yàn)證功能是否按照預(yù)期方式工作,而且我們不僅在模擬環(huán)境中驗(yàn)證,還在實(shí)地環(huán)境中驗(yàn)證。在實(shí)地環(huán)境中,因?yàn)闊o法控制功能實(shí)際接收到的輸入,所以要在選定的用例范圍內(nèi),將功能設(shè)計(jì)得盡可能穩(wěn)定可靠。
但對于人工智能而言,這個(gè)開發(fā)過程會有一點(diǎn)變化。我們?nèi)匀粫x用例,但還要為每個(gè)用例分配明確定義的輸出。我們會將這個(gè)任務(wù)交給計(jì)算機(jī)完成,然后再定義功能。從示例中學(xué)習(xí)的過程可稱為訓(xùn)練,我們要教計(jì)算機(jī)做出我們需要的響應(yīng)。
一旦對計(jì)算機(jī)進(jìn)行了用例訓(xùn)練,即可將這些知識轉(zhuǎn)移到設(shè)備,讓設(shè)備將知識應(yīng)用于實(shí)地環(huán)境,更好地處理難以預(yù)知的數(shù)據(jù),這個(gè)過程就稱為推理。它與非人工智能流程的關(guān)鍵差別在于,在人工智能的開發(fā)中,工程師不一定像過去那樣理解功能本身。
因此我們必須進(jìn)行評估,調(diào)節(jié)機(jī)器的行為,直至輸出的結(jié)果符合我們最初的預(yù)期。對于需要高計(jì)算量的設(shè)備,這個(gè)調(diào)節(jié)過程在云端進(jìn)行,而不是在邊緣進(jìn)行。
什么是安全的人工智能/機(jī)器學(xué)習(xí)?為什么我們需要它?
人工智能和機(jī)器學(xué)習(xí)將被應(yīng)用于汽車安全功能,因此必須確保它們不會違反安全規(guī)則。從汽車行業(yè)背景來思考人工智能和機(jī)器學(xué)習(xí)時(shí),汽車OEM面臨的問題是如何了解特定功能的風(fēng)險(xiǎn)級別,以及它們可能對人造成的傷害。因此,在定義功能時(shí),既要避免系統(tǒng)性故障,還要減少隨機(jī)故障。我們利用安全管理流程和安全架構(gòu)來滿足這些要求,從而在由人管理的開發(fā)中,實(shí)現(xiàn)設(shè)備監(jiān)控。
但是,僅遵循我們現(xiàn)有的開發(fā)流程是不夠的,因?yàn)橛?xùn)練和推理在本質(zhì)上有所不同。因此,我們需要定義不同的問題陳述。首先,我們必須了解訓(xùn)練數(shù)據(jù)是否存在系統(tǒng)性故障。其次,我們還必須了解人工智能模型是如何創(chuàng)建的。該模型是否會產(chǎn)生可能導(dǎo)致系統(tǒng)性故障的不必要偏差?此外,在推理過程中,模型的執(zhí)行是否存在隨機(jī)故障?
在這一方面,機(jī)器學(xué)習(xí)質(zhì)??梢园l(fā)揮作用,涉及到訓(xùn)練和評估步驟的完整性、正確性和一致性,涵蓋所有頂級安全流程和數(shù)據(jù)管理,其目的是確保使用的數(shù)據(jù)是正確和完整的,不存在任何偏差。
在推理層面上,安全機(jī)制可以確保硬件的完整性,而這些硬件可能是任何形式的硬件內(nèi)核。經(jīng)典的安全機(jī)制具有ECC/奇偶校驗(yàn)、鎖步和流量監(jiān)控功能。另外,其還能夠利用安全封裝器加以增強(qiáng),對數(shù)據(jù)進(jìn)行更多檢查,從統(tǒng)計(jì)上衡量安全性能。
恩智浦有關(guān)算法道德的白皮書闡述了恩智浦對人工智能開發(fā)完整性的看法,并探討了可靠人工智能的安全性和透明度。我們有一款名為Auto eIQ的專用軟件,可幫助開發(fā)人員評估和優(yōu)化訓(xùn)練模型,并將訓(xùn)練模型部署到目標(biāo)環(huán)境中,幫助我們持續(xù)提高模型的可靠性。