
防偽查詢
產(chǎn)品分類
聯(lián)系方式
深圳市豹點(diǎn)科技有限公司
地 址:深圳市南山區(qū)桃園路
田廈國際中心B座1235
郵 編:518052
聯(lián)系人:李先生
電 話:189 4870 7815
手 機(jī):189 2467 2967
傳 真:0755-8670 3785
E-mail:felix411@cnbaod.com
網(wǎng) 址:cocosms.cn
在英國《獨(dú)立報(bào)》發(fā)表的專欄文章中,霍金和其他科學(xué)家們認(rèn)為,忽視人工智能的危險(xiǎn)可能是“人類歷史上最嚴(yán)重的錯(cuò)誤”,而且沒有對(duì)可能包含的風(fēng)險(xiǎn)進(jìn)行充分的研究。
文章列舉了幾種人工智能領(lǐng)域的成就,包括無人駕駛汽車,Siri和贏得“Jeopardy”的計(jì)算機(jī)。然而,“類似的成就在未來幾十年其將帶來的后果面前可能會(huì)顯得很蒼白?!?/span>
科學(xué)家們繼續(xù)表示,“潛在益處是巨大的,文明提供的一切都是人類智慧的產(chǎn)物;我們不能預(yù)計(jì)當(dāng)這種智慧被AI放大之后,我們可以得到什么。但是消除戰(zhàn)爭,疾病和貧困應(yīng)該是最重要的事情。成功發(fā)明AI將是人類歷史上最大的事件。
不幸的是,這也可能是最后一件,如果我們不嘗試學(xué)習(xí)怎樣避免相關(guān)的風(fēng)險(xiǎn)的話。短期來看,世界各國的軍隊(duì)正考慮能夠選擇毀滅目標(biāo)的自動(dòng)化武器,聯(lián)合國和人。權(quán)組織已經(jīng)倡議禁止相關(guān)的武器。從中期來看,就像Erik Brynjolfsson和Andrew McAfee在第二機(jī)器時(shí)代(The Second Machine Age)中強(qiáng)調(diào)的那樣,AI可能會(huì)重塑我們的經(jīng)濟(jì),在給我們帶來大量財(cái)富的同時(shí),也帶來巨大的混亂。
科學(xué)家表示,我們可能無法阻止機(jī)器人自我完善獲得超級(jí)智能?!拔覀兡軌蛳胂螅珹I可以駕馭金融市場、人類領(lǐng)袖,甚至發(fā)展出我們不能理解的軍事武器,人工智能的短期影響取決于由誰來控制它,而長期影響則取決于它是否能夠被控制?!?/span>
文章是由霍金與伯克利大學(xué)的計(jì)算機(jī)科學(xué)教授Stuart Russell,麻省理工學(xué)院的物理學(xué)教授Frank Wilczek和Max Tegmark合作的論文的一部分。
文章素材來自由約翰尼·德普(Johnny Depp)和摩根·弗里曼(Morgan Freeman)主演的新片《超驗(yàn)駭客》。電影描述了人類兩種截然相反的未來。其中一條路,AI擁有非常強(qiáng)大的能力,是生活的重要組成部分,掌管著人類生活的方方面面。另一條則是完全相反的道路。不過霍金警告,也只能在科幻電影如此輕易忽視類似的人工智能。