Ученые НТИ создали инструмент для проверки защищенности ИИ-систем
В Центре компетенций Национальной технологической инициативы (НТИ) по технологиям хранения и анализа больших данных МГУ создали инструмент, который позволяет проверить устойчивость систем искусственного интеллекта к кибератакам.
По сути, это веб-сайт, на котором можно загрузить модели машинного обучения в облако, где они в автоматическом режиме тестируются на защищенность к разного рода атакам. После этого пользователь получает как оценку возможности системы сохранять работоспособность в условиях внешних воздействий и изменений, так и версию дообученной модели, более устойчивой к атакам.
Это решение подходит для любых систем, спроектированных на базе нейросетевых моделей. Как отметил эксперт Центра, доцент факультета вычислительной математики и кибернетики МГУ Денис Гамаюнов, чаще всего киберпреступники атакуют системы автопилотирования грузовых машин и поездов, системы распознавания речи, а также системы идентификации объектов на изображениях.
Прототип инструмента уже работает: сообщается, что его использует ряд крупных российских клиентов для обеспечения кибербезопасности своих ИИ-продуктов.
Источник: «RT на русском»
Изображение: Freepik
Подписывайтесь на каналы Let AI be в Telegram и «ВКонтакте» — оставайтесь в курсе главных новостей в сфере искусственного интеллекта!