人間に聞こえない音を使って、有害になり得る命令を複数の人気音声アシスタントに発する方法が、ある研究チームによって発見された。 中国の浙江大学研究チームは、「DolphinAttack」と呼ぶ手法が「Siri」「Google Now」「Cortana」「Alexa」を搭載するさまざまなハードウェアに対して有効であることを実証した。 同研究チームは、攻撃者が人間に聞こえない音声命令を悪用する仕組みを示す概念実証攻撃も行った。それには、Siriに「iPhone」で「FaceTime」通話を発信するよう命じる攻撃や、Google Nowにスマートフォンを機内モードに切り替えるよう指示する攻撃、さらには、「Audi」のカーナビゲーションシステムを操作する攻撃まで含まれる。 今回発見された、さまざまなハードウェアに有効な攻撃手法は極めて低コストで実行可能で、必要なのは、わずか3ドルで入手可能な増幅器と