當前位置:愛純凈 > 系統(tǒng)資訊 > 霍金再發(fā)新警告:人工智能或通過戰(zhàn)爭摧毀人類

霍金再發(fā)新警告:人工智能或通過戰(zhàn)爭摧毀人類

霍金再發(fā)新警告:人工智能或通過戰(zhàn)爭摧毀人類

更新時間:2017-03-14 文章編輯:愛純凈 信息來源:網(wǎng)絡 閱讀次數(shù):

  人工智能(AI)技術自誕生之日起,其理論和技術日益成熟,可應用的領域也在不斷擴大。然而該技術的不斷進步,卻引發(fā)了著名物理學家史蒂芬·霍金(Stephen Hawking)的擔憂!據(jù)外媒報道,繼2015年9月拋出“人工智能威脅論”之后,霍金日前再次發(fā)聲表達了他對該技術的憂慮之處。

霍金再發(fā)新警告:人工智能或通過戰(zhàn)爭摧毀人類

  本月8日,霍金向英國《獨立報》表示,人類必須建立有效機制盡早識別威脅所在,防止新科技(人工智能)對人類帶來的威脅進一步上升。

  霍金表示:“自從人類文明形成以來,來自生存能力優(yōu)勢群體的侵略就一直存在,而未來新科技(人工智能)進一步發(fā)展便可能具備這種優(yōu)勢,它們可能會通過核戰(zhàn)爭或生物戰(zhàn)爭摧毀我們。因此人類需要利用邏輯和理性去控制未來可能出現(xiàn)的威脅。”

  霍金還就如何應對人工智能的威脅給出了自己的建議。霍金認為,人類可以組成某種形式的“世界政府”來防范人工智能可能帶來的威脅,但他同時認為“世界政府”本身也有問題,因為這樣一個政府可能會施行暴政。

  實際上,霍金是人工智能技術的支持者,霍金認為,如今AI似乎已經(jīng)滲透到各個領域,包括推動自動汽車進步,支持Facebook的廣告篩選功能,并通過蘋果Siri、亞馬遜Alexa等虛擬助理與世界各地的人們互動。AI甚至可幫助根除長期存在的社會挑戰(zhàn),比如疾病和貧困等。

  但霍金也一直對AI帶來的潛在挑戰(zhàn)表示擔憂。2015年9月,霍金在美國網(wǎng)站reddit的AMA(問我任何問題)專欄中談到,他擔心聰明能干的AI會讓人類滅亡;艚鸨硎荆“一個超級聰明的AI可以非常好地實現(xiàn)它的目標,如果這些目標都沒有與我們人類一致,我們人類就麻煩了。”

  近年來,隨著人工智能技術蓬勃發(fā)展,其潛在的威脅受到越來越多科學家的關注。

  英國牛津大學教授、人類未來研究所創(chuàng)始人Nick Bostrom表示:“我認為改善全球治理很有必要,不僅可應對AI帶來的危險挑戰(zhàn),也可解決擺在我們面前的其他巨大挑戰(zhàn)。隨著世界不斷分化,我們在不斷開發(fā)出越來越強大的工具,我不確定人類是否能夠無限期生存下去。”

  對比霍金等人“人工智能將威脅人類”的觀點,普林斯頓大學計算機科學教授Edward Felten更關注眼下人工智能技術帶來的影響,他表示:“AI主要有兩個經(jīng)濟風險:第一,工人具備的技能與未來工廠所需要的技能可能不匹配。第二,通過增加資本所有者和某些高級技工的回報,AI可能加劇經(jīng)濟不平等性。”

  此外,Edward Felten還表示,目前在計算機科學領域中還不存在足以促使機器智能水平突然加速提高的完美基礎。至于人工智能目前曝光出的部分威脅性,則可以通過調整公共政策解決,比如重新分配生產(chǎn)力。

上一篇:外媒:李在镕在看守所中“遙控”三星
下一篇:報告顯示全球平均網(wǎng)速為7Mbps,韓國26…
留言與評論(共有 條評論)
驗證碼:

本類最新列表

最熱系統(tǒng)下載