Дослідження томського вченого допоможуть відбивати хакерські атаки на нейромережі

18

З впровадженням нових it-технологій розширюється і спектр кіберзагроз. Один з нових напрямків хакерського впливу-атаки на машинне навчання. Вчені всього світу зараз працюють над пошуком ефективних, випереджаючих способів захисту. Молодий вчений інституту прикладної математики і комп’ютерних наук томського держуніверситету антон ніколаєв досліджує атаки на машинне навчання і механізми їх запобігання. Результати його роботи послужать основою для розробки нових підходів до захисту нейронних мереж від різного роду кібернападів.

– це завдання зараз вкрай актуальна, оскільки методи машинного навчання все активніше використовуються в самих різних областях-автономному водінні – розпізнаванні осіб і голосу, біометрії, задачах класифікації та виявлення об’єктів, медичній діагностиці, – розповідає аспірант іпмкн тгу антон ніколаєв (науковий керівник доцент іпмкн денис колегов). – відповідно, ті чи інші методи і алгоритми, що працюють в даних областях, схильні до всіляких атак. Складність (як для атакуючого, так і для захищає) полягає в тому, що позначені системи вкрай складні в своєму пристрої, і захист, як і напад, вимагають складного багаторівневого підходу на всіх етапах взаємодії системи з користувачем.

Як зазначає антон, успішна атака на систему, що працює на базі машинного навчання і різних навчаються алгоритмів, може привести до критичних наслідків не тільки для бізнесу, але і для життя людини. Наприклад, впровадження в системи автономного водіння – до того, що системи розпізнавання знаків «переплутають» сигнал «стоп» з обмеженням швидкості, не побачать заборонний сигнал світлофора або сам автомобіль зійде з дороги на величезній швидкості.

Успішна атака на біометричні системи і розпізнавання осіб може відкрити доступ до секретних приміщень, даних або навіть фінансових рахунків в системах онлайн-банкінгу. Всі ці проблеми можуть призвести до серйозних репутаційних ризиків і фінансових втрат.

“механізми атак на подібні системи можуть бути абсолютно різними. Найпопулярніші включають генерацію деяких невеликих змін в об’єкті (звуці, зображенні, тексті) або, простіше кажучи, спеціального «шуму», який веде до того, що система неправильно розпізнає або класифікує даний об’єкт, – пояснює антон ніколаєв. – наприклад, певного роду наклейка на дорожній знак може змусити систему розпізнавання дорожніх знаків побачити замість одного знака інший. Або ж спеціальний макіяж на обличчі може змусити систему розпізнавання осіб побачити в одній людині іншого”.

В процесі машинного навчання можлива поява «зазорів» або неоднозначних ситуацій, завдяки їм зловмисники можуть заміщати одні результати іншими. Завдання досліджень аспіранта іпмкн тгу-виявити найбільш ефективні методи наближення до кордонів таких “зазорів” або прикордонних значень. Це знання дозволить зрозуміти, як саме можна знизити число подібних «слабких ланок» при атаках і в експлуатації.

На основі результатів проведених досліджень молодий вчений створить нові алгоритми або платформне рішення для захисту методів машинного навчання від зовнішнього впливу.

Додамо, що поряд з цим , збережених в хмарних сервісах. Як інструмент підвищення безпеки вони використовують спеціалізовані шифри і реалізують схеми захисту, менш схильні до злому, ніж просто «прозоре» шифрування.