人類創造最終取代人類的可怕前景,早已是現代人心中揮之不去的陰影。
問題是,能不能把“服從人類”的思想寫進人工智能的底層邏輯?
幾乎肯定不會。
需要注意的是,要控制一個超出人類理解的超級智能,首先要了解他們的思維方式,但這無疑是矛盾的。
研究人員寫道:“這是因為超級智能是多方面的,所以有可能調動各種資源來實現人類可能無法理解的目標,更不用說控制了。”
他們的部分論點來自艾倫圖靈在1936年提出的停機時間問題,
關機問題是判斷任何一個程式是否能在限定時間內運行完,相當于下面的判斷問題:是否有程式P,對于任何一個輸入的程式W,都可以判斷出W會在限定時間內運行完或者處于無限循環中。
從邏輯上講,我們無法提前決定一個程式是可以運行到底,還是進入無限循環,回到AI,在超智能狀態下,任何為了防止AI傷害人類,毀滅世界而編寫的程式,都有可能進入無限循環,
“事實上,這使得包容算法不可用.”德國馬克斯普朗克人類發展研究中心的計算機科學家伊亞德拉赫萬說,
研究人員說,另一種保護自己的方法是限制超級智能的能力。比如AI可以和互聯網或者某些網路隔離,
但是研究人員指出,如果我們不打算用AI來解決人類無法解決的問題,為什么要去創造它呢?要限制AI的能力,最好不要一開始就開發AI。如果要推廣人工智能,那么超級AI出現后我們可能連——都不知道。這就是它的不可理解性,
研究發表于《人工智能研究雜志》,
https://www . science alert.com/calculations-show-it-d-be-不可能-control-a-rogue-super-smart-ai
獎賞
支付寶獎勵[x]
您的姓名:
獎勵金額:
5元10元15元20元50元100元GO