忽視安全,人工智能將從“風(fēng)口”掉落到“火山口”—高考人工智能


2017年,人工智能首次寫入《政府工作報告》,自此,人工智能飛至“風(fēng)口”,已遠遠超過前60年的速度高速發(fā)展??僧?dāng)人們醉心于新鮮事物帶來的全新體驗,卻忽視了其暗藏的安全問題。如果安全問題沒有得到充分重視,人工智能很有可能會掉落到風(fēng)險巨大的“火山口”
 忽視安全,人工智能將從“風(fēng)口”掉落到“火山口”—高考人工智能

  2017年,人工智能首次寫入《政府工作報告》,自此,人工智能飛至“風(fēng)口”,已遠遠超過前60年的速度高速發(fā)展??僧?dāng)人們醉心于新鮮事物帶來的全新體驗,卻忽視了其暗藏的安全問題。如果安全問題沒有得到充分重視,人工智能很有可能會掉落到風(fēng)險巨大的“火山口”。

 忽視安全,人工智能將從“風(fēng)口”掉落到“火山口”—高考人工智能

  人工智能惡意使用的安全威脅

 忽視安全,人工智能將從“風(fēng)口”掉落到“火山口”—高考人工智能

  2月底,來自O(shè)penAI、人類未來研究所、牛津大學(xué)、劍橋大學(xué)等14家機構(gòu)和高校的共26名學(xué)者在arXiv上發(fā)表一篇名為《人工智能的惡意使用:預(yù)測、預(yù)防和緩解》(The Malicious Use of Artificial Intelligence:Forecasting,Prevention,andMitigation)的研究成果報告(以下簡稱《報告》)。《報告》的重點內(nèi)容是在未實施充分的防御時,人工智能惡意使用所存在的潛在安全威脅。

  《報告》詳細分析了人工智能在三個安全領(lǐng)域(數(shù)字安全、物理安全和政治安全)有可能發(fā)生的安全威脅,并舉出代表性的例子證明其可能性。數(shù)字安全方面,將出現(xiàn)合成聲波、自動黑客攻擊和數(shù)據(jù)下毒等新型安全攻擊;物理安全方面,不法分子可將無人機或其他物理系統(tǒng)變成攻擊的武器;政治安全方面,人工智能可以檢測數(shù)據(jù)做有針對性的宣傳,造成侵犯隱私和左右輿論等安全威脅。

  《報告》認為,人工智能不僅擴大現(xiàn)存安全威脅,還會引入新的安全威脅和改變現(xiàn)有威脅的典型特征。通過人工智能,完成對人類攻擊者來說不可能完成的攻擊,并非難事。此外,安全人員開發(fā)的人工智能系統(tǒng)也會給惡意攻擊者帶來新的可乘之機。而且《報告》也相信伴隨著人工智能應(yīng)用的快速發(fā)展,安全攻擊將會更高效、更具有針對性、難于歸因且難以防守,這將在很大程度上改變傳統(tǒng)網(wǎng)絡(luò)安全威脅的典型特征。

  《報告》中至少有兩處強調(diào),人工智能可以達到攻擊規(guī)模和攻擊效率兩者平衡,而這直接改變了傳統(tǒng)網(wǎng)絡(luò)安全威脅的特征,更高效、更精準、更匿名將成為安全威脅的新特征。以更高效為例,傳統(tǒng)攻擊中,攻擊者往往需要在兩者之間取舍,而人工智能系統(tǒng)超過人類能力的潛力將會增加預(yù)計攻擊有效性的準確度,使得由人工智能自動化完成的網(wǎng)絡(luò)攻擊更高效,且這種高效的攻擊現(xiàn)目前并未有實質(zhì)性的預(yù)防措施;以更精準為例,在規(guī)模和效率均能達到最優(yōu)效果之后,攻擊者便有精力將其攻擊限制在具有某些特性的目標上,識別和分析潛在目標進行更為精準的攻擊;以更匿名為例,攻擊者使用人工智能自動化攻擊系統(tǒng)進行攻擊,而非親自執(zhí)行。

  “一點也不意外”的黑客操作

  “隨著人工智能應(yīng)用的普及,安全威脅會不斷增加,更多的應(yīng)用會把應(yīng)用的輸入接口直接或間接暴露出來。同時封閉系統(tǒng)的攻擊面也會隨著時間和環(huán)境而轉(zhuǎn)化。”近期,由360安全研究院發(fā)布的《AI安全風(fēng)險白皮書》(以下簡稱《白皮書》)指出人工智能,特別是深度學(xué)習(xí)領(lǐng)域帶來的安全威脅?!栋灼氛J為,被大家熟知的AlphaGo人工智能應(yīng)用是因為并不與外界有直接的交互,所以安全威脅相對較小,如果人工智能要想應(yīng)用落地就必須考慮安全問題。

  在《報告》發(fā)表之前,兩位通訊作者Miles Brundage和Shahar Avin合寫一篇較為簡單的介紹性文章,文章標題表達了作者的擔(dān)憂--《利用AI來犯罪只是時間問題》(It‘s only a matter of time before criminals turnAIs against us)(以下簡稱“文章”)。

  文章認為人工智能研究人員在開發(fā)新應(yīng)用程序時需要考慮安全因素,如果不這樣做,黑客就會利用人工智能進行惡意活動。人工智能和所有新技術(shù)一樣都具有兩面性,會以各種方式使社會受益,但同樣也會以各種方式被惡意使用。文章舉出無人機、自動駕駛車等網(wǎng)絡(luò)物理系統(tǒng)被黑客惡意使用的例子,自動駕駛車可能會帶來車禍,便宜的商業(yè)無人機可能會被改造成面部識別導(dǎo)彈。

  《報告》中給出了相應(yīng)威脅的假設(shè)性案例,例如,某安全管理系統(tǒng)的管理員瀏覽網(wǎng)站時,被一則模型火車的廣告吸引,并點開下載小冊子。此時攻擊已經(jīng)開始,小冊子一旦被打開,黑客就能窺視他的電腦,獲得安全管理系統(tǒng)的用戶名和密碼。至于管理員看到的廣告,則是黑客根據(jù)其個人興趣,結(jié)合人工智能精心設(shè)計的“陷阱”。而這樣的操作正是黑客使用基于“強化學(xué)習(xí)”和其他AI技術(shù)來控制一大批半自動機器人程序,通過廉價的個性宣傳精確地目標人群。這樣一個8人釣魚團隊就能達到8000人的水平。類似的技術(shù)操作和實現(xiàn)效果在作者看來,“一點也不意外”。

  “一點也不意外”的黑客操作近日被指出很有可能已經(jīng)在操縱美國大選。美國特別顧問Robert Muller曾公開指出,俄羅斯有一個80多人的全職專業(yè)團隊破壞2016年美國總統(tǒng)選舉。通過使用虛假的美國公民身份,利用社交媒體平臺和其他網(wǎng)絡(luò)媒體來推進他們的計劃。“一點也不意外”的黑客操作同樣發(fā)生在我國。2017年,浙江警方破獲了一起利用人工智能犯罪,侵犯公民個人信息案。專業(yè)黑客用深度學(xué)習(xí)技術(shù)訓(xùn)練機器,讓機器能夠自主操作,批量識別驗證碼?!昂芏虝r間就能識別上千上萬個驗證碼。”當(dāng)時的辦案民警介紹。

  全社會共同討論才是問題正解

  《報告》中,作者不無擔(dān)憂地表示:如果沒有制定出足夠的防御措施,我們可能很快就會看到假設(shè)性的攻擊成為現(xiàn)實。

  中國社科院文化法制研究中心研究員劉明接受《科技日報》采訪時說,技術(shù)帶來的問題,有時也可以用技術(shù)發(fā)展來解決。當(dāng)攻擊方用上了導(dǎo)彈大炮,防御方就不能只用“小米加步槍”?!叭绻庾R到自己所在行業(yè)存在人工智能帶來的威脅,自身加強防范就很重要?!蓖瑫r他也表示,如果用技術(shù)防御技術(shù),“這可能是一場無止境的技術(shù)攻防戰(zhàn)。”

  此外,道德和法律也是如何解決人工智能衍生問題的兩大關(guān)鍵詞。哈佛法學(xué)院互聯(lián)網(wǎng)法教授Jonathan Zittrain說,“我擔(dān)心,在技術(shù)的幫助下,我們的系統(tǒng)將變得更加復(fù)雜和緊密連合,人類的可操控性會下降。并且這里(編者注:利益相關(guān)者)沒有任何一個方面需要考慮道德倫理問題?!背藳]有考慮道德問題之外,關(guān)于“道德”或“公平”的概念也是十分含糊不清且難以界定。對此,英國科普作家PhilipBall表示,當(dāng)新的技術(shù)出現(xiàn)之后,肯定會隨之而來許多新的道德問題,這是一個需要全人類共同面對的挑戰(zhàn),還需要全社會來參與討論。

  在《報告》中也給出了緩解威脅的四點建議:

  決策者應(yīng)與技術(shù)研究人員密切合作,調(diào)查、預(yù)防和減輕人工智能潛在的惡意用途;

  人工智能的研究人員有責(zé)任采取一切可能的措施,幫助促進技術(shù)的有益使用,防止有害用途;

  研究現(xiàn)有較為成熟的解決雙重用途問題的實踐方法,并研究是否適用與人工智能領(lǐng)域;

  尋求更廣泛的交流。不僅包括,用戶、決策者、網(wǎng)絡(luò)安全和人工智能研究人員以及相關(guān)企業(yè),還應(yīng)該包括倫理學(xué)家和其他利益相關(guān)者。

  The Verge就此發(fā)表評論性文章表示,作者旨在希望通過更多的對話和更多的行動解決行業(yè)問題。

  (本文綜合整理自arxiv、雷鋒網(wǎng)、鳳凰科技、科技日報、The Verge等)

網(wǎng)上報名
  • 姓名:
  • 專業(yè):
  • 層次: ??分數(shù):
  • 電話:
  • QQ/微信:
  • 地址:

文中圖片素材來源網(wǎng)絡(luò),如有侵權(quán)請聯(lián)系644062549@qq.com刪除

轉(zhuǎn)載注明出處:http://www.tengyi66.com