您的位置:首頁 > 業(yè)內(nèi)資訊 > 為抑制“殺人機器人”項目,馬斯克也是蠻拼的
特斯拉電動汽車公司首席執(zhí)行官伊隆·馬斯克(Elon Musk)可能是人工智能技術(shù)快速發(fā)展的幕后推動力量之一,但他同時也是這種技術(shù)最直言不諱的批評者。馬斯克曾將研發(fā)人工智能比作“召喚惡魔”,宣稱智能機器將來可能會滅絕人類。
現(xiàn)在,馬斯克正資助37個研究項目,它們的目標(biāo)就是確保人類將來能夠繼續(xù)控制人工智能系統(tǒng)。馬斯克通過總部位于波士頓的非營利組織“未來生命研究所”(FLI)資助諸多項目,這個組織致力于降低人類生存風(fēng)險、確保人工智能的開發(fā)對人類有益。
馬斯克曾說過:“所有領(lǐng)先的人工智能專家都認為,人工智能的安全性非常重要。我同意他們的看法,為此我今天出資1000萬美元支持那些確保人工智能能讓人類受益的研究!薄拔磥砩芯克睆300多個申請項目中選出資助目標(biāo),包括:
1.美國加州大學(xué)伯克利分校和牛津大學(xué)的科學(xué)家計劃研發(fā)一種能夠了解人類喜好的機器,這可以幫助人工智能系統(tǒng)的行為更加像人,減少它們的機器理性;
2.杜克大學(xué)的研究團隊計劃利用計算機學(xué)、哲學(xué)和心理學(xué)建立機器人,它們可以在現(xiàn)實條件下做出道德判斷和決策;
3.丹佛大學(xué)的科學(xué)家希望找到一種方式,可以確保人類不會對機器人武器失控;
4.斯坦福大學(xué)的研究團隊正尋求機器人接管人類工作時的應(yīng)對方案,這種假設(shè)很可能導(dǎo)致人類大量失業(yè);
5.斯坦福大學(xué)另一個團隊致力于解決當(dāng)前人工智能程序的局限性,這些人工智能程序在現(xiàn)實世界中的表現(xiàn)與測試環(huán)境下完全不同;
5.牛津大學(xué)計劃為人工智能編寫道德規(guī)范,幫助決定哪類研究應(yīng)該獲得資助;
6.牛津大學(xué)哲學(xué)家、《超級智能:方法、危險、戰(zhàn)略》(Superintelligence: Paths, Dangers, Strategies)一書作者尼克·博斯特羅姆(Nick Bostrom)想要創(chuàng)建牛津-劍橋研究中心,制定政府、行業(yè)領(lǐng)袖以及其他人都要強制遵守的政策,以此降低人工智能帶來的長期危險。
7.機器智能研究所的研究團隊計劃建立強大人工智能的玩具模型,觀察它們的行為方式,就像早期火箭先驅(qū)們建造玩具火箭,在建造真正火箭前對其進行測試一樣。
小編推薦閱讀
本站所有軟件,都由網(wǎng)友上傳,如有侵犯你的版權(quán),請發(fā)郵件[email protected]
湘ICP備2022002427號-10 湘公網(wǎng)安備:43070202000427號© 2013~2025 haote.com 好特網(wǎng)