0
| 本文作者: 李雨晨 | 2017-08-18 09:47 |
美國國防情報局( Defense Intelligence Agency )總部華盛頓總部的墻上寫滿了潦草的計算機代碼和技術筆記。其中有一行字在房間后墻的中心特別顯眼:
“普通民眾的意見,評論和玩笑都應該被注意。”
這句話最初來源于基地組織訓練手冊,上至恐怖網絡的頭目,下至底層的步兵都被告知:即使是最平常的通信也能提供關于敵人的寶貴經驗。它被貼在另一句話旁邊,這是來自美國國防情報局局長 Vincent Stewart 的話,他說“90%的情報是公開的。”
據雷鋒網了解,2017年7月12日,新美國安全中心發布《人工智能與國家安全》報告,分析了人工智能技術對國家安全的潛在影響。信息無處不在,無論它是有意還是無意地收集到的,無論是個人的還是數字的,情報工作者都能從來源、監視和社交媒體中獲取越來越多的數據,這些數據很容易就會超出他們對信息的篩選、分類和組織信息的能力范圍。但是如果沒有情報,下一個襲擊美國城市的計劃可能會成功,下一次伏擊美國軍隊的行為都可能是致命的。
“現在有這么多的數據,”迪克森(Robert Dixon Jr )說,他是 DIA 創新辦公室的項目和轉型特別顧問,“一切都是關于信息,你需要能夠預測你的對手下一步會做什么。”
數十年來,美軍在情報方面投資包括:研發更好的傳感器以收集更多情報;開發更好的網絡以傳輸數據;投入更多人力監視信息直至發現有效情報。Cukor上校說,“我們的勞動力被海量數據所淹沒,長時間盯著某個事物的確不應該是主要由人類來完成的。美國的分析師不可能得到收集到的全部數據,我們也不能計算出他們到底錯過了多少信息。”因此, DIA 的情報工作的重點之一是迅速推進機器學習的技術或者 AI 來識別所謂的“趨勢,模式或大數據組織”,以此來緩解分析人員的負擔。
美國將 AI 視為在戰場上使用的國家安全工具。 AI 也成為識別和轉移網絡攻擊的關鍵工具,而這些網絡攻擊發生的速度太快,任何人無法預見和消除,這些缺陷更加令人不安。
埃森哲安全部總經理兼政府網絡安全問題常務顧問 Matt Devost 表示:“現在行業的發展落后于形勢,網絡防御并沒有跟上攻擊的速度。“我們缺乏人力資本,所以我們沒有足夠的技術人員來開展不斷擴大的網絡防衛任務。”
“這意味著我們必須增加擁有 AI 和機器學習的人才,來從人類層面獲得更多的價值。”
新美國安全中心發布的《人工智能與國家安全》報告表示, AI 技術進展主要發生在民用企業或學術界,美國政府機構處于落后狀態。然而, AI 對國家安全起到至關重要的影響。如機器學習技術可使一些勞動密集型工作的自動化程度大幅提升,如衛星獲取的圖像分析和網電攻防領域等。報告認為,未來隨著技術的持續進步,AI 將像核武器、飛機、計算機和生物技術一樣,日益成為影響國家安全的變革性技術。
然而,讓制定戰爭計劃的高層頭疼的是,在過去的幾十年里,美國都是以一種緩慢而繁瑣的方式支出防御資金,這是一種傳統。這種方式只允許謹慎地開發新項目,比如一艘航空母艦,它的設計可以持續幾十年。這種模式顯然無法跟上伊斯蘭極端分子利用社交媒體進行恐怖活動的速度。
因此,通過其新的創新中心辦公室, DIA 正在嘗試一種新的方式來征求 AI 專家的意見。實驗室的技術人員和分析師收到了私營企業展示的產品,這些公司相信他們的產品能夠解決 DIA 已經發現的問題。這已經是該項目6個月以來的第三次會議。
雷鋒網了解到,參與者可以獲得25萬美元的種子資金,為 DIA 開發項目或技術以評估潛在的投資。到目前為止,該機構在上一財年的六個項目中已經投入了200萬美元。這筆錢來自于一個專用的 DIA 預算,盡管它也與國防創新實驗小組( DIUx )合作,為一些項目提供資金。
“pitch days”是國防部加大力度投資于更靈活的作戰技術的一部分,從最近的趨勢中參考了像 DIUx 這樣的辦公室,在前國防部長 Ash Carter 的領導下,為目前的戰爭迅速找到現代工具。
“政府過去一直都非常官僚主義,注重結構、嚴謹,有時不愿意改變,”迪克森說。“這將簡化流程并提高效率。”
DIA 目前正在考慮資助的各種技術都是直接從間諜電影中獲得的。上周推出的一個公司實際上引用了杰森·伯恩(Jason Bourne)的電影系列,來展示它如何追蹤一個特定的面孔——在這個例子中,演員馬特·達蒙(Matt Damon)——橫跨一系列不同的視頻片段。這樣的程序可以自動識別多個監控攝像頭的目標,就像那些驚悚片通常描述的那樣。
據 breakingdefense 網站上個月的報道,在大量私營企業的推動下,人工智能技術將很快用于作戰。美軍計劃在6個月以內,開始使用商用人工智能算法來分析整理關于“伊斯蘭國”極端組織的大量情報數據。
Drew Cukor上校說,“我們將在2017年底之前將人工智能算法引入作戰區域,唯一的方法就是與商業伙伴合作。”
Integral Mind的總裁 Daniel Osher 表示,他已經開發了一個工具用來幫助解釋文化差異,例如宗教在社會中所扮演的角色,然后創建一個可以準確預測國際事件如何演變的程序。Osher 表示,他的方案本可以預料到導致索馬里1993年“黑鷹墜落”的暴力起義,并準確地預測了2015年“聯合綜合行動計劃”——伊朗核協議,最終如何確定包括每一方要求的結果以及他們最終將如何同意。
這項技術是基于他所稱的“思維導圖”(mind maps),他的公司通過與特定國家的人進行有針對性的訪談來創建計算機程序,確定影響他們決定的因素,以預測他們對某些挑釁的反應。這可能有助于美國目前對抗極端主義的戰爭,在那里贏得當地的支持和消滅敵人一樣重要。
在向 DIA 分析師和技術人員完成陳述之后, Osher 表示,“這是一場模糊的戰爭,你必須讓人們相信你是對的。”“頭腦正在成為新的戰場,這可以讓他們知道該信任誰和如何影響他們...”
可以不靠人操控就擊發的防御武器激起了軍備控制倡導者和一些軍事戰略家的警惕,他們擔心這將使得智能武器在攻擊和防御方面的應用平衡變得難以維持。
雷鋒網了解到,美國還沒有完善的法律來管理人工智能,或者解釋有關人類在決策過程中應該如何參與的關鍵問題,尤其是決定計算機何時可以自行選擇是否執行致命行動。
“你永遠不能把人帶出這個圈子。”Dixon 表示。他對保護措施的實施有高度的信心,防止例如無人機自己決定是否應該發射導彈。
加州大學伯克利分校的人工智能專家、一個禁止自動武器運動的領導者 Stuart J.Russell 說:“我們必須分清楚這中間的界限,而且必須站在正確的那一邊。”
事實上,在一些科技界人士以及軍事戰略人士看來,把殺戮的決策權留給機器,其實就是在倡導新的、很可能導致不穩定局面的軍備競賽。
“我們正在做的是為了國家的國家安全,這是一種激勵。”Dixon 補充說。
其他專家則擔心更多看似良性的決策,可能會產生更大的災難性后果。未來主義者擔心的是未來機器可以決定削弱某個國家的貨幣,給自己的軍事力量帶來更大的優勢,從而加速全球金融崩潰。
新美國安全技術和國家安全項目中心主任、前國防部長顧問 Paul Scharre 表示:“這是一個嚴峻的挑戰。之前他曾為無人機等新時代的技術制定規則。““這不是不使用這項技術的理由,但當我們考慮如何使用它時,我們需要考慮人機界面、透明度、人工智能的脆弱性,以及如何訓練人們使用系統。”
他說,在許多方面,除了探索美國軍方如何更好地使用人工智能之外,沒有其他選擇。
“我們被數據淹沒了,”Scharre說。“我們從恐怖分子和其他行動中收集了大量的數據,并通過這些數據進行篩選,但是單靠人力來實現是不現實的。”
雷峰網原創文章,未經授權禁止轉載。詳情見轉載須知。