特斯拉電動汽車公司首席執(zhí)行官伊隆·馬斯克(Elon Musk)可能是人工智能技術快速發(fā)展的幕后推動力量之一,但他同時也是這種技術最直言不諱的批評者。馬斯克曾將研發(fā)人工智能比作“召喚惡魔”,宣稱智能機器將來可能會滅絕人類。
現(xiàn)在,馬斯克正資助37個研究項目,它們的目標就是確保人類將來能夠繼續(xù)控制人工智能系統(tǒng)。馬斯克通過總部位于波士頓的非營利組織“未來生命研究所”(FLI)資助諸多項目,這個組織致力于降低人類生存風險、確保人工智能的開發(fā)對人類有益。
馬斯克曾說過:“所有領先的人工智能專家都認為,人工智能的安全性非常重要。我同意他們的看法,為此我今天出資1000萬美元支持那些確保人工智能能讓人類受益的研究!薄拔磥砩芯克睆300多個申請項目中選出資助目標,包括:
1.美國加州大學伯克利分校和牛津大學的科學家計劃研發(fā)一種能夠了解人類喜好的機器,這可以幫助人工智能系統(tǒng)的行為更加像人,減少它們的機器理性;
2.杜克大學的研究團隊計劃利用計算機學、哲學和心理學建立機器人,它們可以在現(xiàn)實條件下做出道德判斷和決策;
3.丹佛大學的科學家希望找到一種方式,可以確保人類不會對機器人武器失控;
4.斯坦福大學的研究團隊正尋求機器人接管人類工作時的應對方案,這種假設很可能導致人類大量失業(yè);
5.斯坦福大學另一個團隊致力于解決當前人工智能程序的局限性,這些人工智能程序在現(xiàn)實世界中的表現(xiàn)與測試環(huán)境下完全不同;
5.牛津大學計劃為人工智能編寫道德規(guī)范,幫助決定哪類研究應該獲得資助;
6.牛津大學哲學家、《超級智能:方法、危險、戰(zhàn)略》(Superintelligence: Paths, Dangers, Strategies)一書作者尼克·博斯特羅姆(Nick Bostrom)想要創(chuàng)建牛津-劍橋研究中心,制定政府、行業(yè)領袖以及其他人都要強制遵守的政策,以此降低人工智能帶來的長期危險。
7.機器智能研究所的研究團隊計劃建立強大人工智能的玩具模型,觀察它們的行為方式,就像早期火箭先驅們建造玩具火箭,在建造真正火箭前對其進行測試一樣。
小編推薦閱讀