「埃爾法哥哥」自動駕駛汽車安全的五個組成部分

「埃爾法哥哥」自動駕駛汽車安全的五個組成部分

「埃爾法哥哥」自動駕駛汽車安全的五個組成部分//草丁生活 http://life.caoding.cn/

在所有的人工智能解決方案中 , 我認為自動駕駛汽車的網絡安全是最關鍵的方面 。 一個影響人類生活的事件不僅可以擾亂一個受害的公司 , 而且可以擾亂整個行業 。 人們很快就會對這些技術失去信任 , 這是合情合理的 。 舉個例子 , 在亞利桑那州的一次事件中 , 一名自動駕駛汽車在街上殺死了一名婦女 。 這起案件引起了轟動 , 研究人員開始關注自動駕駛汽車中人工智能系統的安全問題 。 2014年 , 首批關于對抗性攻擊的論文發表后 , 人工智能安全問題成為討論的話題 。 兩年后 , 研究人員從理論轉向實踐 , 并開始將理論攻擊應用于實際解決方案 。 從那時起 , 自動駕駛汽車的人工智能系統由于其重要性而成為人們關注的重點領域之一 。 隨著自動駕駛汽車越來越普遍 , 其安全性也受到質疑 , 人們正在討論生產自動駕駛汽車的公司必須遵守的許多規定 。 根據州議會全國會議發布的一份報告 , 41個州和哥倫比亞特區已經考慮了無人機汽車法案 , 而眾議院在國會擱置之前已經通過了hr3388法案 , 該法案要求自動駕駛車輛必須遵守統一的標準 。 考慮到所有相關的擔憂 , 我相信 , 如果未來圍繞自動車網絡安全的事件不停止 , 自動車的聲譽將被粉碎 。 讓我們來看看一些可能被攻擊的人工智能驅動的自動駕駛汽車組件 , 這只是整個各種方式中的一小部分 。

圖像識別系統

圖像識別系統能夠檢測道路標志 。 然而 , 2016年有公開的證據表明 , 他們可以通過特殊的貼紙和涂鴉來欺騙 。 這導致了2017年的改善 , 結果更好 。 所謂對抗性的例子就是那些在視覺上指向一個類別的圖像 , 然而人工智能系統卻錯誤地將它們識別為來自另一個類別的圖像 , 例如一輛汽車正在檢測一個右轉而不是一個停車標志 。

目標檢測系統

有人可能會說 , 自動駕駛汽車不需要識別路標 , 他們應該在未來從其他渠道收集這些信息 , 比如來自知道所有道路規則的服務器的加密通信 。 不幸的是 , 在世界范圍內部署這樣的系統需要花費太多的時間 。 此外 , 即使路標是不必要的 , 汽車將不得不檢測其他汽車和行人有效 。 這就是目標檢測分析和語義分割算法發揮作用的地方 , 然而 , 就像任何深度學習算法一樣 , 它們也容易受到敵對性攻擊 。 中佛羅里達大學的研究人員分析了通過偽裝來隱藏汽車的可能性 。 繞過對象檢測器的想法并不是一個新的 , 但首次提出的霍迪尼攻擊 。 盡管如此 , 我們應該記住 , 這項研究描述了一個針對自動駕駛汽車的實際案例 。

語義分割系統

語義分割是一個人工智能的任務 , 它允許汽車檢測另一個物體的邊緣 。 牛津大學的研究人員發布了一項研究 , 展示了他們如何成功演示了對語義分割系統的實際攻擊 , 這種攻擊可以對人類的生命構成真正的威脅 。 基恩安全實驗室的研究人員發現 , 一些自動駕駛汽車可以通過在道路上貼上幾個標簽來制造“假車道”在研究過程中 , 汽車自治系統認出這些標志是原來車道的延續 , 導致汽車轉入一條可能會迎面而來的車道 。

語音識別系統

不幸的是 , 視知覺并不是唯一一個針對自動駕駛汽車的攻擊載體 。 車輛可以通過識別來自無線電的錯誤命令來欺騙 。 浙江大學的一群安全研究人員發明了海豚攻擊聲學技術 , 這種技術可以通過向語音識別系統發送惡意命令來實施無聲攻擊 。 黑客還可以發送包含對抗性攻擊的廣告信息給無線電臺 , 并在自動模式下在道路上制造混亂 。

LiDAR「埃爾法哥哥」自動駕駛汽車安全的五個組成部分

大多數自動駕駛汽車都有一個特殊的系統 , 叫激光雷達 , 代表光探測和測距 。 2019年7月 , 密歇根大學的研究人員發表了第一篇關于激光雷達系統遭受實際攻擊的論文 。 入侵LiDAR的方法類似于常見的深度學習模型的入侵方法 , 但是只是針對LiDAR功能做了一些修改 。 這些包括使用激光二極管引入對抗性信號和后處理的限制 。

應該做些什么?

根據我的經驗 , 自動駕駛汽車 , 就像其他任何物聯網解決方案一樣 , 不應該有任何軟件或硬件漏洞 。 更重要的是 , 您必須確保后端的算法是安全的 。 雖然很多人關注硬件、軟件和無線安全 , 但是通常對算法的安全性關注不夠 。 深度學習等機器學習技術應該接受針對所有人工智能威脅的測試 , 包括對抗性的例子、投毒、隱私問題和后門 。 越來越多有關無人駕駛汽車的安全相關文章正在發表 。 由于自動駕駛汽車可以保護我們最親近和最親愛的人的生命 , 我們都應該負起責任來幫助汽車行業 , 讓供應商在汽車真正上市之前解決這些問題 。 ?「埃爾法哥哥」自動駕駛汽車安全的五個組成部分