У голосових помічників Siri, Alexa і Google Assistant виявлена ​​небезпечна уразливість, яка може привести до катастрофи

Як відомо, кожен з представлених в даний час «розумних» помічників Siri, а також Alexa і Google Assistant, управляються за допомогою голосових команд. Але несподівано надійшла інформація, що вони також здатні сприймати ті приховані команди, які уловлюються вухом людини.

Вченим з США і Китаю вдалося встановити, що управління обладнанням можна виконати при залученні команд з радіо, YouTube роликів і білого шуму, що, безсумнівно, є величезною загрозою існуючої безпеки. Простіше кажучи, зловмисники можуть змусити помічника відкрити їм заблоковану двері будинку, крім того, виконати переказ грошових коштів, набрати вказаний номер телефону і т.д. Власник не зможе вловити в звучала усного мовлення або музиці існуючу для себе небезпеку. При відкритому вікні ІІ, вбудований в помічника, може вловлювати видану йому команду на відстані, рівному 7, 6 м.

Дослідники провели експерименти, після яких з’ясували, що невеликі зміни, що вносяться до аудіофайли, можуть прибирати необхідні команди і замінювати їх тим звуком, який машина по-різному ідентифікує. В цей же час людина не зможе вловити ніякої різниці. При приглушені роботи пристрою відповіді і зовсім не будуть чутні користувачеві.

Подібного роду проблема є абсолютно новою через те, що вона не доступна людському вуху. Раніше в рекламних роликах поміщали відкриті фрази, які активували помічників, але зараз можна говорити про підсвідомому впливі, що таїть у собі реальну загрозу, проти якої поки немає ніяких законних методів впливу.

З виявленою проблемою необхідно розібратися якнайшвидше, інакше може статися катастрофа. За попередніми даними, кількість голосових помічників у всьому світі через два роки може перевищити число всіх людей, які проживають на земній кулі. Що стосується США, то тут «розумних» помічників в кожному житловому приміщенні може бути відразу кілька штук.

Всі виробники поінформовані про наявність небезпечної уразливості, але що вони збираються зробити, поки не повідомляється. Компанія Apple стверджує, що її продукт має обмеження на виконання команд, Amazon говорить про те, що вона вже вжила заходів забезпечення безпеки своїх колонок Echo, а Google інформує стурбованих користувачів про те, що Assistant має функції захід прихованих команд.

Ссылка на основную публикацию