【中國傳動網 技術前沿】 麻省理工學院的研究人員最近開發(fā)出一種神經網絡,能夠以相對較高的準確度對個人患有認知功能障礙的可能性做出預測。因此在一定程度上,我們可以將其理解為一種抑郁癥檢測器。
當然,這種說法并不準確,我們將稍后詳加探討。
由麻省理工研究員TukaAlhanai、MohammadGhassemi以及JamesGlass組成的研究團隊在Interspeech2018大會上展示其工作成果。
根據相關論文,他們開發(fā)出一種無情境方法,可借此確保機器對人類的文本或音頻表達內容進行分析,從而檢測出該人的抑郁度評分。其中最為關鍵的,當然在于這套人工智能方案的“無情境”因素。
一般來講,治療師需要利用經過驗證的問題與直接觀察相結合,共同診斷對方的抑郁癥等精神健康狀況。而根據麻省理工學院團隊的說法,他們的人工智能能夠在無需條件性問題或者直接觀察的前提下,實現類似的效果。換言之,其不需要情景信息,而只需要數據資料。
下面來看該團隊所發(fā)布論文中的部分內容:
麻省理工學院研究人員詳細介紹一種神經網絡模型,該模型能夠通過訪談方式對原始文本及音頻數據進行解析,從而發(fā)現可能預示抑郁癥疾病的表達模式。在給定新主題的情況下,其能夠準確預測相關個體是否存在壓抑情緒,且不需要任何其它相關問題及答案信息。
那么,這到底屬于檢測還是預測?
雖然看似無關緊要,但檢測與預測實際上屬于完全不同的兩回事。預測個體是否存在抑郁傾向的算法僅僅代表一種標記數據,將被提交給治療師進行進一步審查。但對抑郁癥的檢測,則要求其給出的確定性結果確實與目標個體的精神狀態(tài)相符。
當然,研究人員們也意識到了這一點。論文第一作者TukaAlhanai表示,“這不是在對抑郁癥進行檢測,而是根據言語中的常見信號對個體的認知障礙問題做出一定程度的評估?!?/p>
幸好,看起來他們很明確地強調這是一種預測,而非檢測。但也正是這種微小的區(qū)別,使得這項工作在本質上具有可怕的影響。
為了測試這套人工智能方案,研究人員們進行了一項實驗,由人為控制的虛擬代理對142名受試者提出一系列問題,從而進行抑郁癥篩查。人工智能并沒有事先了解問題內容,而受訪者亦可自由以任何形式做出回答。問題的形式并非單項選擇,人工智能需要從語言線索當中辨別抑郁癥。
在這項研究中,參與者的回答將以文本及音頻形式進行記錄。在文本版本中,人工智能能夠在大約7個問答序列之后預測抑郁癥。但有趣的是,在音頻版本當中,人工智能需要大約30個序列才能做出決定。據研究人員稱,其平均準確率達到驚人的77%。
問題在哪?很明顯,相信任何能夠直接接受醫(yī)師診療的病患,都不會選擇這種預測方式。
在辦公室中觀察病人的治療師們顯然認為自己擁有遠超算法的診斷能力。而且這類人工智能方案與利用圖像識別/檢測癌癥不同。人類醫(yī)師可以通過醫(yī)學影像發(fā)現并清除癌癥(在大多數情況下),但卻無法利用同樣的方式驗證人工智能做出的抑郁癥診斷。
從理論角度講,當計算機與人類聆聽同一段對話并最終做出截然相反的抑郁癥診斷結論時,我們該如何判斷真?zhèn)?或者,如果大家愿意,那么在計算機發(fā)現對方存在潛在抑郁癥跡象時,我們是否也應進行相同的檢查以確保醫(yī)生做出的非抑郁癥判斷準確無誤?在這樣的情況下,自動化機制存在的意義是什么?
更重要的是,當醫(yī)療專業(yè)人員以外的人士使用這種“抑郁癥檢測器”時,又會引發(fā)怎樣的后果?論文中的某些表達似乎證明,這些算法確實是為了在高枕而麻省理工學院實驗環(huán)境之外的實際應用而開發(fā):
患有抑郁癥的病患將長年累月受到消極與悲傷情緒的困擾。要治療抑郁癥患者,必須首先對其做出診斷。而為了獲取診斷結果,受試個體必須主動與心理健康專業(yè)人士進行接觸。實際上,由于移動性、成本與動機等因素的限制,抑郁癥患者可能無法得到應有的專業(yè)關注。在這種情況下,人工智能方案提供的人類交流內容自動監(jiān)測能力將解決這些限制,并提供更好的抑郁癥篩查服務。
對人類通信進行自動監(jiān)控似乎代表著夢魘般的反烏托邦未來。我們可以想象,人們將在不知情的前提下面對一系列問答序列,并由機器對其心理健康情況做出評估。相信大多數人都會意識到,在未經同意的情況下利用神經網絡這類黑匣子進行心理健康評估絕不是什么好主意。
想象一下,如果企業(yè)利用“抑郁癥檢測器”這類人工智能方案在面試過程中對您進行心理狀況檢測,或者律師通過算法解釋您在子女監(jiān)護權案件中的表述,會引發(fā)怎樣可怕的后果乃至影響。
更糟糕的是,我們甚至能夠想到警察局利用人工智能黑匣子對嫌疑人在審訊過程中的精神狀態(tài)進行監(jiān)測。畢竟世界各地的執(zhí)法單位需要投入大量資金與寶貴時間對嫌疑人進行心理學側寫,而人工智能據稱能夠更好地“檢測”對方的情緒狀態(tài)。
可以想象,如果全面推出,這類解決方案最終一定會出現在審訊室、就業(yè)面試以及其它難以預知的場景當中。我們絕不應被人工智能的判斷所左右:機器絕對無法檢測到我們是否身為同性戀、有罪或者沮喪,它們只是在做出猜測。而身為人類,我們理應非常謹慎地對這種猜測結果加以運用。