安全動(dòng)態(tài)

安全研究人員提醒AI助理需謹(jǐn)防人耳聽不到的“海豚攻擊”

來源:聚銘網(wǎng)絡(luò)    發(fā)布時(shí)間:2018-05-14    瀏覽次數(shù):
 

信息來源:secdoctor

中美研究人員已經(jīng)驗(yàn)證了一種可向 Siri 等 AI 助理發(fā)出“隱藏式攻擊命令”的方法,因其采用了人耳察覺不到的音頻,從而強(qiáng)迫智能助理執(zhí)行非機(jī)主下達(dá)的惡意命令。《紐約時(shí)報(bào)》指出,如果被別有用心的人得逞,這種攻擊手段可用于撥打電話、打開網(wǎng)站、甚至更糟糕的事情。根據(jù)來自加州、伯克利、以及喬治城大學(xué)的學(xué)生團(tuán)隊(duì)在本月發(fā)表的一篇研究論文,他們甚至可以將惡意命令嵌入音樂錄音或口述文本中。

當(dāng)在亞馬遜 Echo 或蘋果 iPhone 附近播放時(shí),普通人只能聽到單純的歌曲或語音。但智能設(shè)備能夠撿拾起一條潛在的指令,比如向購物車中添加一些東西。

往更危險(xiǎn)的層面去講,惡意攻擊者可以下達(dá)鎖門、卷錢、或購買線上商品等操作 —— 盡管在通常情況下,為了不引起事主的注意,事情都是靜悄悄地進(jìn)行、涉及金額也不會(huì)太大。

然而論文作者之一、來自加州大學(xué)博客利分校的五年制計(jì)算機(jī)安全博士生 Nicholas Carlini 堅(jiān)信,或許早已有惡意攻擊者實(shí)施過類似的技術(shù):

我們想要知道自己是否能夠讓它變得更加隱秘,雖然沒有證據(jù)表明這些技術(shù)已經(jīng)跑出了實(shí)驗(yàn)室,但它被人利用只是時(shí)間的問題。我的的猜測(cè)是,惡意攻擊者早已雇人干過我提到的事情。

【視頻】:Dolphin Attack_ Inaudible Voice Command

去年的時(shí)候,美國普林斯頓和中國浙江大學(xué)的研究人員們已經(jīng)執(zhí)行過類似的測(cè)試,證明了 AI 助理可以通過不被人耳所聽到的音頻給激活。

如上方的“海豚攻擊”演示所示,研究人員打造了一臺(tái)可以下達(dá)隱藏命令的發(fā)送器,并順利地讓手機(jī)執(zhí)行了撥打特定電話的操作(另有拍照和發(fā)送短信等測(cè)試)。

當(dāng)然,海豚攻擊的范圍是有限的,因?yàn)楣粽弑仨氉銐蚪咏邮茉O(shè)備。

 
 

上一篇:2018年05月13日 聚銘安全速遞

下一篇:2018年05月14日 聚銘安全速遞