人工智能的最新發展引起了一些道德困境。
其中最重要的也許是人類是否可以控制自主機器。
人工智能驅動的機器人照顧家務或自動駕駛汽車(例如亞馬遜)的情況越來越普遍。
盡管這種技術使生活更輕松,但也會使生活更加復雜。
一個國際研究小組警告說,創建過于強大和獨立的軟件存在潛在的風險。
通過一系列理論計算,科學家們探索了如何控制人工智能。
根據發表在《人工智能研究門戶雜志》上的研究報告,他的結論是不可能的。
“控制世界的超級智能機器聽起來像科幻小說。
但是,已經有一些機器可以獨立執行某些重要任務,并且程序員不能完全理解他們的學習方式。
這種情況可能會變得“不可控制且對人類構成危險”??。
這項研究的合著者,馬克斯·普朗克人類發展研究所的曼努埃爾·塞布里安(Manuel Sebrian)說。
科學家們嘗試了兩種控制人工智能的方法。
一種是將其與Internet和其他設備隔離,從而限制其與外界的聯系。
問題在于,這將大大降低其執行為其創建的功能的能力。
另一種是設計一種“理論上包含算法”。
確保人工智能“在任何情況下都不會傷害人”。
但是,對當前計算范式的分析表明,無法創建此類算法。
“如果將問題分解為理論計算的基本規則,則表明指示AI不破壞世界的算法可能會無意間停止其自身的運行。
如果發生這種情況,我們將不知道遏制算法是否會繼續分析威脅。
或者它是否將不再包含有害的AI。
實際上,這使遏制算法無法使用”。
另一位研究人員Iyad Rahwan解釋說。
基于這些計算,問題在于沒有確定AI是否會損害世界的算法。
研究人員還指出,人類甚至可能都不知道何時會出現超級智能機器,因為確定設備是否具有卓越的智能和遏制問題是同一領域。