終結者系列的科學家莫名其妙的相信AI,最終導致人類毀滅的結局。幸運的是,現實中的科學家更加謹慎,如果我們真的打算建造天網系統,讓AI主宰人類的未來,我們開發了一種前端技術,可以檢測AI神經網路中的敵對信號,
深度學習神經網路旨在通過權衡各種因素來模仿人腦,結果變成一個黑箱。人類再也無法分析內部的數據處理模式,只能通過輸入輸出來獲取結果,
雖然距離天網還有很長的路要走,但是人工智能已經開始主導一些領域的決策,比如自主駕駛、醫療診斷等。我們當然需要保證AI的神經網路系統的可靠性和可預測性。
麻省理工學院計算機科學和人工智能實驗室(CSAIL)的計算機科學家亞歷山大阿米尼(Alexander Amini)說:“我們不僅需要擁有高性能模型的能力,還需要知道它們何時不再值得信任,”
這種置信度評估方法被稱為“深度證據回歸”,它根據輸入數據質量對AI進行評分,訓練中使用的數據更準確全面,AI應該給我們更準確的預測,
盡管類似的保護措施以前已經被構建到神經網路中,但新工具在速度上非常出色,沒有過多的計算要求。它只運行一次,不多次,輸出結果時給人信心,
計算機科學家丹妮拉魯斯(Daniela Rus)說:“這個想法非常重要,而且適用范圍很廣,它可以用來評估依賴于機器學習模型的產品。通過估計學習模型的不確定性,我們還可以了解模型會帶來多少誤差,哪些缺失的數據可以改進模型,”
即使神經網路99%的時間保持正確,在現實生活中,丟失1%也會產生嚴重的后果,研究人員表示,盡管這項工作尚未經過同行審查,但他們認為新的簡化信任測試有助于提高實時安全性,
“我們看到更多的(神經網路)模型從研究實驗室流入現實世界,觸及人類生活,這可能危及我們的生命,這種方法的任何用戶,無論是醫生還是坐在汽車乘客座位上的人,都需要意識到與人工智能決策相關的任何風險或不確定性。”
完整的研究將在12月的神經科會議上發布,在線論文將被下載,
https://www . science alert.com/neural-networks-are-now-smart-today-to-know-when-then-be-trust