ad9_210*60
關鍵詞:
台灣網  >   新聞中心  >   國際

霍金警告人工智慧危險性 稱其若失控很難被阻止

2016年06月29日 15:18:00  來源:中新網
字號:    

  資料圖:著名天體物理學家霍金。記者 張子揚 攝

  中新網6月29日電 據外媒報道,著名天體物理學家史蒂芬霍金認為,人工智慧應該在符合倫理道德和安全措施要求的情況下開發,因為脫離人類控制之下的機器很難被阻止住。

  美國知名記者拉裏金對霍金進行了採訪。霍金在採訪中承認,他不認為發展人工智慧一定能讓人類朝好的方向發展。

  霍金錶示:“當機器發展到能自己演化的重要階段之時,它們的目標與人類願望之間的相符程度就很難預料了。”

  他指出,人工智慧可以比人類的智慧發展得更快。

  資料圖:著名天體物理學家霍金。

  他説:“有益的人工智慧可以與人類共存,並擴大人類的可能性。但失控的人工智慧很難被阻止。在開發人工智慧時必須保證符合道德倫理與安全措施的要求。”

  他認為,有益的人工智慧將出現在人類生活的各方面。

  霍金説:“想像一下那些可以對科學家想法迅速作出評價、更早地查出癌症、並預測證券市場走勢的人工智慧!它們將影響到我們的經濟,影響到我們的決策,並在整體上影響我們的生活。”

[責任編輯:張曉靜]

相關內容