Discover millions of ebooks, audiobooks, and so much more with a free trial

Only $11.99/month after trial. Cancel anytime.

自主武器: 人工智能將如何接管軍備競賽?
自主武器: 人工智能將如何接管軍備競賽?
自主武器: 人工智能將如何接管軍備競賽?
Ebook335 pages1 hour

自主武器: 人工智能將如何接管軍備競賽?

Rating: 0 out of 5 stars

()

Read preview

About this ebook

什麼是自主武器


致命自主武器是一種自主軍事系統,可以根據程序化的約束和描述獨立搜索和交戰目標,並且可以在空中、陸地、水上、水下或太空中運行。


>


您將如何受益


(I) 關於以下主題的見解和驗證:



第1章:致命自主武器
第2章:軍用機器人
第3章:PackBot
第4章:通用原子MQ-9死神
第5章:守門員CIWS
第6章:通用原子MQ-1捕食者
第7章:Guardium
第8章:THeMIS
第9章:人工智能軍備競賽
第10章:存在來自通用人工智能的風險
第 11 章:人工智能接管
第 12 章:灰膠


(II) 回答公眾關於自主武器的熱門問題。
(III) 自主武器在軍隊許多戰場使用的真實例子。
(IV) 17 個附錄簡述各行業266項新興技術,360度全方位了解自主武器技術。


這本書是給誰看的


專業人士、本科生和研究生、愛好者、業餘愛好者,以及想要超越任何類型自主武器的基礎知識或信息的人。

Language中文
Release dateOct 31, 2021
自主武器: 人工智能將如何接管軍備競賽?

Related to 自主武器

Titles in the series (3)

View More

Related ebooks

Reviews for 自主武器

Rating: 0 out of 5 stars
0 ratings

0 ratings0 reviews

What did you think?

Tap to rate

Review must be at least 10 words

    Book preview

    自主武器 - Fouad Sabry

    引號

    "最不幸的是,研究人員瘋狂地構建基於人工智慧的自主武器系統,卻沒有意識到它可以徹底摧毀人類。

    • 阿米特·雷、同情人工智慧 AI 5.0 - 帶區塊鏈、BMI、無人機、IOT 和生物識別技術的 AI

    "現在是停止構建基於人工智慧的自主武器系統,將更多的人工智慧精力集中在構建同情的人工智慧系統以服務人類的時候了。

    • 阿米特·雷、同情人工智慧 AI 5.0 - 帶區塊鏈、BMI、無人機、IOT 和生物識別技術的 AI

    "機器可以做很多事情,但它們不能創造意義。他們不能為我們回答這些問題。機器不能告訴我們我們重視什麼,我們應該做出什麼選擇。我們正在創造的世界是一個將擁有智慧機器的世界,但它不適合它們。對我們來說,這是一個世界。

    • 保羅· 沙爾, 無國軍: 自主武器與戰爭的未來

    "伊薩克·阿西莫夫在他的故事中創造了現在標誌性的機器人三定律來管理機器人:1 機器人不得傷害人類,或者通過不作為,允許人類受到傷害。2 機器人必須服從人類的命令,除非這些命令與第一定律相衝突。3 機器人必須保護自己的存在,只要這種保護不與第一或第二定律相衝突。

    • 保羅· 沙爾, 無國軍: 自主武器與戰爭的未來

    "自主和半自主武器系統的設計應使指揮官和操作人員能夠對使用武力進行適當程度的人類判斷。

    • 保羅· 沙爾, 無國軍: 自主武器與戰爭的未來

    自主武器

    作者的其他書籍

    1 - 智能機器

    2 - 大腦計算機介面

    3 - 沼澤智慧

    4 - 自動駕駛車輛

    5 - 自主 無人機

    6 - 自主機器人

    7 - 自主武器

    ***

    十億知識淵博

    自主武器

    人工智慧將如何接管軍備競賽?

    福阿德·薩布里

    版權

    自主武器版權©2021年由福阿德·薩布里。保留所有權利。

    保留所有權利。未經作者書面許可,不得以任何形式或任何電子或機械手段(包括資訊存儲和檢索系統)複製本書的任何部分。唯一的例外是審閱者,他可能會在評論中引用簡短的摘錄。

    封面由福阿德·薩布里設計。

    這本書是一部小說。姓名、人物、地點和事件要麼是作者想像的產物,要麼是虛構的。與實際人員、生死、事件或地區的任何相似之處都是巧合。

    獎金

    您可以發送電子郵件到 1BKOfficial.Org®自主武器s@gmail.com 主題為自主武器:自主機器人將如何登上時代雜誌封面? ,或者只需點擊此 連結 並按兩下發送您的電子郵件用戶端,您就會收到包含本書前幾章的電子郵件。

    福阿德·薩布里

    存取 1BK 網站

    www.1BKOfficial.org

    前言

    我為什麼要寫這本書?

    寫這本書的故事開始於 1989年,那時 我是一名高三學生中學的學生。

    它非常 像 STEM(科學、技術、工程和數學)學校,現在 在許多先進國家都有。

    STEM 是一門基於以跨學科和應用方法對學生進行四個特定學科 (科學、技術、工程和數學 ) 教育的理念的課程。此術語通常用於處理學校的教育政策或課程選擇。它對勞動力發展、國家安全關切和移民政策有影響。

    圖書館每周上課一次,每個學生可以自由選擇任何書籍,閱讀1小時。課程的目的是鼓勵學生閱讀教育課程以外的科目。

    在圖書館里,當我看著書架上的書時,我注意到了巨大的書,總共5000頁,共5個部分。書名是「技術百科全書」,它描述了我們周圍的一切,從絕對零到半導體,幾乎每一個技術,在那個時候,用五顏六色的插圖和簡單的詞來解釋。我開始讀百科全書,當然,我不能完成它在每周1小時的類

    所以,我說服我父親買了百科全書。我父親在我生命的開始,為我買了所有的技術工具,第一台電腦和第一本技術百科全書,都對我和我的事業有很大的影響。

    今年暑假我完成了整部百科全書,然後我開始觀察宇宙是如何運作的,以及如何把這些知識運用到日常事務中。

    我對這項技術的熱情開始於30多年前,現在 的旅程還在繼續。

    這本書是《新興技術百科全書》的一部分,這是我試圖給讀者同樣的驚人經驗,我在高中時,但而不是第20c entury技術,我更感興趣的是21c entury新興技術,應用和行業解決方案。

    《新興技術百科全書》將由365本書組成,每本書 將聚焦於一項新興技術。您可以在本書的結尾閱讀「即將推出」 部分的新興技術清單及其按行業分類。

    365 本書, 讓讀者有機會在一年內每天增加對一項新興技術的瞭解。

    ***

    介紹

    我是怎麼寫這本書的?

    在每本書的「新興技術百科全書」,我試圖得到即時,原始的搜索見解,直接從人們的頭腦,試圖回答他們的問題,新興技術。

    谷歌每天有30億次搜索,其中20%是從未見過的。它們就像是人民思想的直接一行。

    有時是「如何去除紙張堵塞」。其他時候,他們只敢與谷歌分享痛苦的恐懼和秘密渴望。

    為了發現關於「自主武器」的內容想法尚未開發的金礦,我使用許多工具收聽谷歌等搜尋引擎的自動完成數據,然後迅速找出每一個有用的短語和問題,人們都在問自主武器這個關鍵詞。

    它是人們洞察力的金礦, 我可以用它來創造新鮮、超有用的內容、產品和服務。善良 的人,像你一樣,真的很想要。

    人搜索是有史以來收集到的最重要的人類心理資料集。 因此,這本書是一個活 的產品, 並 不斷更新越來越多的答案,關於"自主武器「的新問題,問的人,就像你和我一樣,想知道這個新興的技術,並希望瞭解更多

    寫這本書的方法是更深入地了解人們如何圍繞自主武器搜索,揭示問題和疑問,我不一定認為我的頭頂,並回答這些問題在超級容易和易於理解的單詞,並導航這本書

    因此,在寫這本書時,我已確保它盡可能優化和有針對性。這本書的目的是幫助人們進一步瞭解和增長他們對「自主武器」的知識。我試圖盡可能密切地回答人們的問題, 並展示更多。

    這是一個夢幻般的,美麗的方式來探索問題和問題,人們有,並直接回答他們,並增加洞察力,驗證和創造力的書的內容-甚至推介和建議。這本書揭示了豐富,不那麼擁擠,有時令人驚訝的領域,重新搜索的需求,否則我不會達到。毫無疑問,在用這種方法閱讀了這本書之後,我有望增加潛在讀者的知識。

    我採用了一種獨特的方法,使這本書的內容總是新鮮的。這種方法依賴於通過搜索傾聽工具傾聽人們的想法。這種方法說明我:

    與讀者見面,了解他們所處的位置,這樣我就能創建相關內容,引起共鳴,並推動對 主題的更多理解。

    將手指牢牢地放在脈搏上,這樣當人們以新的方式談論這項新興技術時,我就能獲得更新 ,並 監控趨勢。

    發現隱藏的問題寶藏需要有關新興技術的答案,以發現意想不到的見解和隱藏的利基,提高 內容的相關性,並給 它一個制勝的優勢。

    停止浪費時間在內臟上,猜測讀者想要的內容,用人們需要的東西填滿書的內容,告別基於猜測的無盡內容想法。

    做出可靠的決定,並承擔更少的風險,讓前排座位的人 想讀什麼,想知道 - 即時 - 並使用搜索數據作出大膽的決定,哪些主題包括和哪些主題排除。

    簡化我的內容製作,以識別內容創意,而無需手動篩選個人意見,以節省數天甚至數周的時間。

    通過回答問題,幫助人們以直接的方式增加知識,這真是太好了。

    我認為這本書的寫作方法是獨一無二的,因為它整理,並跟蹤重要的問題,讀者在搜尋引擎上問。

    ***

    確認

    寫一本書比我想像的要難,也比我想像的更有回報。如果沒有著名研究人員完成的工作,這一切都是不可能的,我想感謝他們努力增加公眾對這一新興技術的認識。

    ***

    奉獻

    對開明者,那些以不同的方式看待事物,希望世界變得更好的人——他們不喜歡現狀或現存狀態......你可以與他們意見相左太多,你可以與他們爭論更多,但你不能忽視他們,你不能低估他們,因為他們總是改變事情...他們推動人類前進,而有些人可能認為他們是瘋狂的或業餘的,其他人看到天才和創新者,因為那些開明到足以認為他們可以改變世界的人,是那些誰這樣做,並帶領人民到啟蒙。

    ***

    碑文

    "30 年後,機器人可能會成為《時代》雜誌的封面最佳首席執行官。 機器 會做人類無法做到的事情。 機器將與人類合作,而不是成為人類最大的敵人。

    ***

    內容表

    引號

    自主武器

    作者的其他書籍

    自主武器

    版權

    獎金

    前言

    介紹

    確認

    奉獻

    碑文

    內容表

    第一章:致命自主武器

    第二章:軍用機器人

    第 3 章: 包機器人

    第四章:通用原子MQ-9收割機

    第五章:守門員

    第6章:一般原子MQ-1捕食者

    第七章 警衛

    第八章: 赫米斯

    第九章:人工智慧軍備競賽

    第10章:人工智慧的存在風險

    第11章:AI收購

    第 12 章: 灰色古

    結語

    關於作者

    即將推出

    附錄:每個行業的新興技術

    ***

    第一章:致命自主武器

    飛行測試期間的BAE系統科拉克斯

    致命自主武器 (LAW) 是一種自主軍事裝置,可以根據指定的限制和描述自主搜索和攻擊目標。致命自主武器系統 (LAWS)、自主武器系統 (AWS)、機器人武器、殺手機器人或屠宰機器人是 LAW 的其他名稱。LAW可以應用於空氣、陸地、水、水下或太空。截至2018年,現有系統的自主性受到限制,因為攻擊的最終命令是由人類發出的,儘管某些防禦性系統也有例外。

    作為武器自主

    自主在各個領域具有不同的內涵。它可能是指機器在沒有人工干預工程的情況下操作的能力。在哲學中,它可能與一個人的道德獨立性有關。在政治學方面,它可能與一個區域的自我治理能力有關。在軍事武器發展方面,自主武器和非自主武器之間的區別並不象其他領域那麼明顯。自治概念中包含的具體規範可能在研究人員、州和組織之間差別很大。

    許多人對製造致命自主武器有不同的想法。凱斯西儲大學法學院的希瑟·羅夫(Heather Roff)認為,自主武器系統是能夠學習和適應其'根據部署環境的變化而發揮作用'的武裝武器系統,以及能夠自行做出射擊決定的武器系統。與彼得·阿薩羅和馬克·古布魯德等學者的定義相比,這種自主武器系統的概念相當高,如下所示。

    像彼得·阿薩羅和馬克·古布魯德這樣的學者正試圖降低標準,將更多的軍事系統歸為自主系統。他們爭辯說,任何能夠在沒有人類監督員干預、決定或確認的情況下提供致命武力的武器系統都有資格成為自主武器。據古布魯德說,自主武器系統是在沒有人類參與的情況下部分或完全運作的武器系統。他認為,為了被貼上自主的標籤,武器系統不需要完全靠自己作出決定。相反,只要它積极參與「準備過程」 的一個或多個階段,從定位目標到最終射擊,它就應被視為自主的。

    另一方面,其他團體正在提高自主武器系統的標準。聯合王國 國防部 將自主武器系統定義為能夠理解更高層次意圖和方向的裝置,該系統可以根據對環境的理解和感知採取適當行動,達到目標狀態。它 能夠 從一組選擇中選擇行動方針,而不依賴人類的監督和控制,然而,這種人與系統的互動可能仍然存在。雖然自主無人駕駛飛機的整體活動是可以預測的,但個別行為可能並非可預測。

    因此,在各國之間起草條約需要對什麼是自主武器作出廣泛承認的定義。

    自動防禦系統

    至少從17世紀開始使用的地雷和至少從17世紀就開始使用的海軍地雷是兩種最古老的機械觸發致命武器。1997年《渥太華條約》禁止在包括美國、俄羅斯和亞洲和中東大部分地區在內的幾個國家使用殺傷人員地雷。

    LAW 的當前示例包括自動「硬殺」主動保護系統,例如自 20 世紀 70 年代以來用於保衛船舶的雷達制導 CIWS 系統(例如美國法蘭克斯 CIWS)。這種系統可以根據操作人員提供的參數自主探測和攻擊接近的導彈、火箭、火炮、飛機和水面艦艇。坦克也有類似的系統,如俄羅斯競技場,以色列獎盃和德國AMAP-ADS。在韓國和以色列,各種可能向個人和車輛射擊的固定哨兵槍正在使用中。許多導彈防禦系統,如鐵穹,能夠自主瞄準。遠端武器站是安裝在軍車上的自動炮塔。

    需要快速反應是這些系統中沒有「迴圈中的人」 的主要原因。一般來說,它們被雇用來保護人員和設施免受來襲炮彈的侵害。

    自主進攻系統

    例如,無人機或無人駕駛航空器就是具有更高自主性的系統的例子,"手無寸鐵的BAE系統塔拉尼斯噴氣推進戰鬥無人機原型可以導致未來戰鬥空中系統,該系統可以自主搜索、識別和定位敵人,但只有在任務指揮部授權的情況下才能與目標交戰。它也有能力保護自己免受對方飛機 海因斯 (2013年),第45頁。諾斯羅普·格魯曼X-47B無人機 能夠 在航空母艦上起降(2014年就證明瞭這一點),目前正在開發成無人駕駛航母發射的機載監視和打擊(UCLASS)系統。

    塞爾維亞路虎後衛拖車與「米洛奇」跟蹤戰鬥機器人。

    據《經濟學人》報導,隨著技術的進步,未來自主水下車輛的應用可能包括掃雷、雷設、在爭議地區建立反潛感測器網路、使用主動聲納巡邏、為載人潛艇提供補給以及作為低成本導彈平臺。美國《核態勢評論》在2018年聲稱,俄羅斯正在開發一種代號為「狀態6」的「新型洲際、核武裝、核動力、海底自主魚雷」。。

    俄羅斯聯邦正在努力製造人工智慧導彈、無人機、無人駕駛車輛、軍用機器人和醫療機器人。

    2017年,以色列部長阿約布·卡拉透露,以色列正在製造像蒼蠅一樣小的軍事機器人。2018年10月,中國國防企業諾林科(Norinco)的高級官員曾毅發表演講,稱在未來戰場上,沒有人會戰鬥,在衝突中使用致命自主武器是不可避免的。2019年,美國國防部長馬克•埃斯珀(MarkEsper)指責中國出售無人駕駛飛機,這些無人機能夠在無人干預的情況下殺人。

    2019年,英國陸軍部署了新的自動駕駛汽車和軍用機器人。

    美國海軍正在組建無人駕駛艦艇的「幽靈」艦隊。

    道德和法律問題

    美國政策中使用的標準

    自主的。武器系統的設計應允許指揮官和操作者對使用武力行使可接受的人類判斷水準,根據美國目前的理論。然而,該政策要求,在沒有進一步人工干預的情況下,殺人或使用動能的自主武器系統必須經認證符合適當水準和其他標準,而不是此類武器系統不能達到這些標準,因此是被禁止的。

    自動檢測和攻擊目標的「半自主」獵人殺手甚至不需要認證。2016年,美國國防部副部長羅伯特•Work表示,五角大樓不會將致命權力委託給機器做出判斷,但可能需要重新考慮,因為威權政權可能會這麼做。

    2016年10月,美國總統巴拉克•奧巴馬(Barack Obama)聲稱,他在職業生涯的早期就擔心,未來美國總統使用無人機作戰可能會在世界各地持續作戰,其中許多是秘密戰鬥,無需任何問責或民主辯論。自 2018 年以來,美國國家安全人工智慧委員會 一直負責 美國與安全相關的人工智慧。

    2019年10月31日,美國國防部國防創新委員會發佈了一份報告草案,概述了人工智慧武器化的五項原則,併為國防部合乎道德地使用人工智慧提出了12項建議,以確保人類操作者能夠始終 研究 「黑匣子」並瞭解殺鏈過程。報告的執行情況令人十分擔憂。

    可能違反道德和國際行為

    加州大學伯克利分校的計算機科學教授斯圖爾特·羅素表示,他之所以關注法律,是因為他相信法律是不道德和不人道的。這種技術的根本問題是,它使戰鬥人員和非戰鬥人員之間難以區分。

    一些人(例如,Noel Sharkey 2012)擔心勞斯將違反國際人道主義法,特別是區分原則,該原則要求將戰鬥人員與非戰鬥人員區分開來,並規定相稱原則,要求平民傷亡與軍事目標成正比。這種擔心有時被提出來作為徹底禁止「殺手機器人」的理由,但值得懷疑的是,這種擔心可以用來為不違反國際人道主義法的法律辯護。

    一些人聲稱,勞斯混雜了誰應對具體殺人負責的界限,儘管湯瑪斯·辛普森和文森特·穆勒認為,他們可能會更容易記錄誰提供了哪項指示。同樣,史蒂文· 烏姆佈雷洛、菲爾·托雷斯和安傑洛·德·貝利斯認為,如果勞斯的技術能力至少與人類士兵一樣準確,那麼人類士兵在戰鬥中的心理缺陷就證明只僱用這類道德勞斯是正當的。同樣,他們建議採用對價值敏感的設計方法,作為制定這些法律的潛在框架,以便這些法律符合人類價值觀和國際人道主義法。

    禁止勞斯的運動

    LAWs的想法引發了激烈的爭論,特別是關於「殺手機器人」在不遠的將來遊蕩世界的風險。阻止殺手機器人運動成立於2013年。2015年7月,1,000多名人工智慧科學家簽署了一份聲明,警告人工智慧軍備競賽的危險,並宣導禁止自主武器。這封信是在布宜諾斯艾利斯舉行的第24屆人工智慧國際聯席會議(IJCAI-15)上遞交的,由斯蒂芬·霍金、伊隆·馬斯克、史蒂夫·沃茲尼亞克、諾姆·喬姆斯基、Skype聯合創始人賈恩·塔林和谷歌DeepMind聯合創始人德米斯·哈薩克等人共同簽署。

    據PAX(阻止殺手機器人運動的創始組織之一)稱,全自動武器(FAWs)將降低開戰的門檻,將士兵從戰場上撤走,讓公眾遠離戰爭經驗,讓政治家和其他決策者在決定何時以及如何開戰方面有更大的迴旋餘地。他們警告說,一旦部署,FAW將使民主控制戰爭更加困難。這是關於這個主題的小說《殺死決定》的作者,IT專家丹尼爾·蘇亞雷斯也警告說:他相信,通過要求少數人開戰,它將把權力集中在少數人手中。

    有些網站反對發展LAWs,建議如果人工智慧在武器指定方面應用的研究繼續下去,就會提出不利的武器。這些網站定期更新有關道德和法律問題的新聞,以便用戶能夠趕上有關國際會議的新新聞,並研究有關LAW的出版物。

    在各種情況下,羅馬教廷敦促國際社會禁止使用法律。2018年11月,羅馬教廷常駐聯合國觀察員伊萬·尤爾科維奇大主教指出,"必須迅速採取行動,防止軍備競賽以及不平等和不穩定的加劇:現在是防止法律成為未來戰爭現實的時候了。教會擔心現代武器技術有可能不可逆轉地改變戰鬥的性質,產生與人類活動的疏遠,並質疑社會的人性。

    截至2019年3月29日,出席聯合國峰會辯論的多數政府支援禁止法律。少數政府,包括澳大利亞、以色列、俄羅斯、英國和美國,都反對這項禁令。

    沒有禁令,但監管

    第三種選擇是控制自主武器系統的使用,而不是禁止。軍事人工智慧軍備控制幾乎肯定會使有效技術規範所體現的新國際準則制度化,以及專家團體的積極監測和非正式(跟蹤二)外交,以及法律和政治核查進程。

    [第 1 章結尾]

    References

    Crootof, Rebecca (2015). The Killer Robots Are Here: Legal and Policy Implications. 36 Cardozo L. Rev: 1837 – via heinonline.org.

    Johnson, Khari (31 January 2020). Andrew Yang warns against 'slaughterbots' and urges global ban on autonomous weaponry. venturebeat.com. VentureBeat. Retrieved 31 January 2020.

    Roff, Heather (2015). Lethal Autonomous Weapons and Jus Ad Bellum Proportionality.

    Asaro, Peter (2012). On Banning Autonomous Weapon Systems: Human Rights, Automation, and the Dehumanization of Lethal Decision-Making. Red Cross. 687: 94.

    Autonomy without Mystery: Where do you draw the line?. 1.0 Human. 2014-05-09. Retrieved 2018-06-08.

    Unmanned aircraft systems (JDP 0-30.2). GOV.UK. Retrieved 2018-06-08.

    Taylor & Francis Group. www.taylorfrancis.com. Retrieved 2018-06-08.

    Getting to grips with military robotics. The Economist. 25 January 2018. Retrieved 7 February 2018.

    US says Russia 'developing' undersea nuclear-armed torpedo. CNN. 2018. Retrieved 7 February 2018.

    Russia is building a missile that can makes its own decisions. 2017-07-20.

    Russia's digital doomsday weapons: Robots prepare for war - Russia Beyond. 2017-05-31.

    'Comrade in Arms': Russia is developing a freethinking war machine. 2017-08-09.

    Rise of the Machines: A look at Russia's latest combat robots. 2017-06-06.

    Is Terminator back? Russians make major advances in artificial intelligence. 2016-02-10.

    Virtual trainer for robots and drones developed in Russia. 2017-05-15.

    Kara: I wasn't revealing state secrets about the robots - Jerusalem Post.

    Mini-nukes and inspect bot weapons being primed for future warfare. 2017-03-17.

    Allen, Gregory. Understanding China's AI Strategy. Center for a New American Security. Center for a New American Security. Retrieved 11 March 2019.

    Is China exporting killer robots to Mideast?. Asia Times. 2019-11-28. Retrieved 2019-12-21.

    British Army to operationally deploy new robots in 2019 | March 2019 Global Defense Security army news industry | Defense Security global news industry army 2019 | Archive News year.

    http://navyrecognition.com/index.php/news/defence-news/2019/march/6898-us-navy-plans-to-build-an-unmanned-ghost-fleet.html

    US Department of Defense (2012). Directive 3000.09, Autonomy in weapon systems (PDF). p. 2.

    Gubrud, Mark (April 2015). Semi-autonomous and on their own: Killer robots in Plato's Cave. Bulletin of the Atomic Scientists.

    Pentagon examining the 'killer robot' threat. Boston Globe. 30 March 2016.

    Barack Obama on 5 Days That Shaped His Presidency. Daily Intelligencer. 2016-10-03. Retrieved 3 January 2017.

    Devereaux, Ryan; Emmons, Alex (2016-10-03). Obama Worries Future Presidents Will Wage Perpetual, Covert Drone War. The Intercept. Retrieved 3 January 2017.

    Stefanik, Elise M. (2018-05-22). H.R.5356 - 115th Congress (2017–2018): National Security Commission Artificial Intelligence Act of 2018. www.congress.gov. Retrieved 2020-03-13.

    Baum, Seth (2018-09-30). Countering Superintelligence Misinformation. Information. 9 (10): 244. doi:10.3390/info9100244. ISSN 2078-2489.

    United States. Defense Innovation Board. AI principles : recommendations on the ethical use of artificial intelligence by the Department of Defense. OCLC 1126650738.

    Russell, Stuart (27 May 2015). Take a stand on AI weapons. International Weekly Journal of Science. 521.

    Sharkey, Noel E. (June 2012). The evitability of autonomous robot warfare*. International Review of the Red Cross. 94 (886): 787–799. doi:10.1017/S1816383112000732. ISSN 1816-3831.

    Müller, Vincent C. (2016). Autonomous killer robots are probably good news. Ashgate. pp. 67–81.

    Umbrello, Steven; Torres, Phil; De Bellis, Angelo F. (2020-03-01). The future of war: could lethal autonomous weapons make conflict more ethical?. AI & Society. 35 (1): 273–282. doi:10.1007/s00146-019-00879-x. hdl:2318/1699364. ISSN 1435-5655. S2CID 59606353.

    Umbrello, Steven; Wood, Nathan Gabriel (2021-04-20). Autonomous Weapons Systems and the Contextual Nature of Hors de Combat Status. Information. 12 (5): 216. doi:10.3390/info12050216 – via MDPI.

    Nyagudi, Nyagudi Musandu (2016-12-09). Doctor of Philosophy Thesis in Military Informatics (OpenPhD #openphd ) : Lethal Autonomy of Weapons is Designed and/or Recessive. Retrieved 2017-01-06.

    Simpson, Thomas W; Müller, Vincent C. (2016). Just war and robots' killings. Philosophical Quarterly. 66 (263): 302–22. doi:10.1093/pq/pqv075.

    Musk, Hawking Warn of Artificial Intelligence Weapons. WSJ Blogs - Digits. 2015-07-27. Retrieved 2015-07-28.

    Gibbs, Samuel (27 July 2015). Musk, Wozniak and Hawking urge ban on warfare AI and autonomous weapons. The Guardian. Retrieved 28 July 2015.

    Deadly Decisions - 8 objections to killer robots (PDF). p. 10. Retrieved 2 December 2016.

    Front page. Ban Lethal Autonomous Weapons. 2017-11-10. Retrieved 2018-06-09.

    Holy See renews appeal to ban killer robots. Catholic News Agency. Retrieved 2018-11-30.

    Gayle, Damien (2019-03-29). UK, US and Russia among those opposing killer robot ban. the Guardian. Retrieved 2019-03-30.

    Bento, Lucas (2017). No Mere Deodands: Human Responsibilities in the Use of Violent Intelligent Systems Under Public International Law. Harvard Scholarship Depository. Retrieved 2019-09-14.

    Geist, Edward Moore (2016-08-15). It's already too late to stop the AI arms race—We must manage it instead. Bulletin of the Atomic Scientists. 72 (5): 318–321. Bibcode:2016BuAtS..72e.318G. doi:10.1080/00963402.2016.1216672. ISSN 0096-3402. S2CID 151967826.

    Maas, Matthijs M. (2019-02-06). How viable is international arms control for military artificial intelligence? Three lessons from nuclear weapons. Contemporary Security Policy. 40 (3): 285–311. doi:10.1080/13523260.2019.1576464. ISSN 1352-3260. S2CID 159310223.

    Ekelhof, Merel (2019). Moving Beyond Semantics on Autonomous Weapons: Meaningful Human Control in Operation. Global Policy. 10 (3): 343–348.

    Enjoying the preview?
    Page 1 of 1