"殺人機器人",似乎已被公認是下一輪軍用技術的製高點。全球中美俄英法韓等主要軍事大國,紛紛加大研發投入,爭相打造無需人類駕駛員、操縱者的"鋼鐵雄師"。但同時,這引發的倫理爭議與安全擔憂日漸升溫。一批機器人和 AI 領域的專家、企業家以及技術領袖,正呼籲聯合國禁止"殺人機器人"的開發和使用。今日,來自 26 個國家的 116 名專家,由馬斯克和 DeepMind 聯合創始人 Mustafa Suleyman 領頭,發布公開信正號召全麵禁止自主武器。
Elon Musk
Mustafa Suleyman
聯合國最近已投票通過開啟對此類軍用武器的正式討論,這包括自主化的無人機、坦克、機關槍。馬斯克等這批人已向聯合國提交一份公開信——希望在此時,即正式討論開始前進行呼籲,推動聯合國製定決議製止這波全球已經開啟的"殺人機器人"軍備競賽。
在公開信中,這批技術領袖們對將主持該討論的聯合國常規武器會議警告稱,這輪軍備競賽極有可能導致"人類戰爭形式發生第三次革命",前兩次分別由火藥和核武器引發。他們寫道:
"一旦研發出來,致命自主武器將使未來戰爭擴大到前所未有的規模,戰爭進展的速度也將超過人類對時間的理解。這類武器很有可能成為恐怖的代名詞,獨裁者、恐怖分子能把它們用到無辜平民上,也有可能被黑客利用,讓自主武器做出我們不希望看到的行為。
留給我們做出行動的時間並不多。一旦這個潘多拉魔盒開啟,關上就難了。"
此前,AI 專家曾警告,以現在的人工智能技術和發展速度,部署全自主武器將在幾年內變得可行。雖然,AI 武器能讓戰場對軍隊服役人員來說變得更安全——更多人不需要上前線;但專家們擔心能自主行動的進攻性武器,將極大降低戰爭的門檻,導致更大量的人類傷亡。
該公開信在今天 IJCAI 的開幕致辭上公布,得到了機器人以及 AI 領袖不少知名專家學者的支持。公開信全文以及署名者名單見此。他們強調做出緊急行動的重要性,尤其聯合國把討論該問題的會議時間推遲到了今年 11 月,原計劃是今天。
這批聯合署名公開信的專家,呼籲把"在道德倫理上站不住腳"的致命自主武器係統,加入聯合國自 1983 年生效的特殊常規武器大會 (CCW) 武器禁用名錄。後者包括化學武器以及蓄意以致盲為目的的激光武器。
新南威爾士大學人工智能教授 Toby Walsh 對此表示:
"幾乎所有技術都有兩麵性,AI 同樣如此。
它能幫助我們解決許多當前麵臨的社會問題:不平等、貧困、氣候變化帶來的挑戰以及仍未消退的全球金融危機。但是,同樣的技術也能用到自主武器上,讓戰爭(進一步)工業化。
我們需要在今天做出決定,到底什麼樣的未來才是我們想要的。"
大家很熟悉的馬斯克是該領域的活躍人物。他很早就對前瞻性的 AI 政策立法進行了多次呼籲,把人工智能說成是人類的頭號生存威脅。馬斯克的說法造成很大爭議,不少頂級學者以及意見領袖表達了不同觀點,包括 Ray Kurzweil 與紮克伯格。不少公眾可能認可 AI 對人類社會有很大破壞潛力這一說法,但同時認為真正造成"破壞"還離得遠。
Clearpath Robotics 創始人 Ryan Gariepy 表示:
"與其它科幻小說裏的 AI 潛在應用不一樣,自主武器係統研發正處在一個拐點,它對無辜平民造成殺傷的威脅非常現實,也有可能造成全球不穩定。"
AI 頂會 IJCAI 被專家們用作討論致命自主武器係統的論壇,已經不是第一次了。兩年前,包括馬斯克和霍金在內的數千名 AI、機器人專家以及行業領袖在該大會上簽署了另一封公開信,呼籲與今天相似的武器禁令。這推動了聯合國對致命自主武器開啟正式討論。
核武器的威脅還未解決,人類又將麵臨另一個自己製造出來的生存威脅。
via the Guardian
馬斯克等26國ai技術領袖上書 要求聯合國禁止"殺人機器 …馬斯克等26國AI技術領袖上書 要求聯合國禁止"殺人機器人"的研發 ...全球中美俄英法韓等主要軍事大國,紛紛加大研發投入 ... 這引發的倫理爭議與安全擔憂日漸升溫。一批機器人和 AI 領域的專家、企業家以及技術領袖,正呼籲聯合國禁止"殺人機器人"的開發和使用。今日,來自 26 個國家的 116 名專家,由馬斯克 …
馬斯克等 26 國 AI 技術領袖公車上書,要求聯合國禁止"殺人機器人 ...
相關文章
没有评论:
发表评论