霍金呼籲禁止使用殺人機器人 外媒:中國會得利

時間:2015-07-30 08:57   來源:時代》週刊

  資料圖片:韓國的國産戰鬥機器人。(圖片源於網路)

  美國《時代》週刊網站7月28日報道稱,物理學家斯蒂芬霍金和特斯拉汽車公司首席執行官埃隆馬斯克,與數十名人工智慧和機器人專家在27日發表的公開信中,一道呼籲禁止使用“攻擊性自動武器”。

  “人工智慧技術目前的發展已經使其在幾年內、而不是幾十年內成為可行——即使法律上不可行事實上也是可以實現的,這樣的情況危險極大,”這封公開信説。《衛報》報道説這封信將在布宜諾斯艾利斯舉辦的人工智慧國際聯合大會上宣讀。“自動武器被稱為繼火藥、核武器之後的第三次戰爭革命。”

  這封公開信把無需人類命令便能夠選擇並攻擊目標的人工智慧武器,與無人機和巡航導彈等人類選擇打擊目標的武器有所區別。這封信中還説,雖然對軍隊官兵來説,人工智慧技術可以令戰區更加安全,但這種不受人類控制的武器會引發“全球性人工智慧軍備競賽”。

  “它們流入黑市或落入恐怖分子和獨裁者之手不過是時間問題,”這封信的署名者們警告道。“人工智慧可以通過多種方式使戰場對人類、尤其是平民來説更加安全,而不必通過創造殺戮新工具這種方式。”

  英國《金融時報》網站7月27日發表題為《科學家提醒,要警惕殺人機器人軍備競賽》的報道稱,科技界的一些大人物呼籲全球禁止“殺人機器人”,他們提醒説,越過這一界限,將開啟新一輪全球軍備競賽。

  人工智慧領域的1000多位專家在一封公開信中表明瞭干預態度。在這封信上署名的包括宇宙學家斯蒂芬霍金教授、特斯拉公司首席執行官埃隆馬斯克,以及蘋果公司合夥創始人史蒂夫沃茲尼亞克。

  儘管“機器人士兵”仍處於“紙上談兵”階段,可是計算能力和人工智慧的迅速進步,增加了軍方在20年內把機器人士兵派上戰場的可能性。

  這封請願書于28日在布宜諾斯艾利斯舉行的國際人工智慧聯合大會上遞交。該信警告説,繼火藥與核武器的發明之後,可以獨立確定和襲擊目標且不需人類進行任何干預的武器系統的開發,將會帶來“第三次戰爭革命”。

  它描繪了未來衝突的可怕情形,類似于系列電影《終結者》中的場景。

  該信説:“對於執行暗殺、破壞國家穩定、征服民眾或選擇性殺死特定民族等任務,自主式武器是理想選擇。”

  “因此,我們認為,人工智慧軍備競賽對人類而言是無益的。人工智慧可以讓戰場變得對人類——尤其平民——而言更安全的方式有許多種,不用創造新的殺人工具。”

  聯合國也擔心其所謂的“致命性自主式武器”的開發,以至於它去年召開了有史以來第一次此類會議,討論新科技帶來的風險。

  加利福尼亞大學伯克利分校的人工智慧領域專家、該信的署名者之一斯圖爾特拉塞爾之前曾警告説,機器人武器系統可能使得人類“毫無防禦能力”。

  該信是今年第二封猛烈抨擊將人工智慧引入到戰場上的信。不過,在呼籲禁止這些武器系統方面,這封最新的請願書強硬有力得多。該信是由生命未來研究所協調寫成的。

  生命未來研究所是由包括Skype公司合夥創始人揚塔林在內的眾多志願者于2014年創建的。馬斯克和霍金均是該研究所科學顧問委員會的成員。

  自主式殺人機器人的想法對許多軍方人士而言具有吸引力,因為它們提供了重要的對敵優勢,其部署不會令本國部隊的任何人處於危險中,而且長期來看,比起必須支援和保護人員的先進武器,如戰鬥機,它們的成本應該更加低廉。

  五角大樓是機器人研究的最大支援者之一。2013年,其智庫之一海軍研究處發給塔夫茨大學、布朗大學、倫斯勒理工學院、喬治敦大學和耶魯大學等多所大學的研究人員一筆研究經費,高達750萬美元,讓其研究如何能教會自主式機器人分辨對錯。

  西方軍事規劃者擔心,如果他們沒能致力於研究這一技術,那麼他們可能會將新一輪軍備競賽的領導權讓給潛在對手,比如中國。

編輯:李傑

相關新聞

圖片