Let AI be

Яркий онлайн-журнал про искусственный интеллект (Artificial Intelligence, AI)

 

Свяжитесь с нами

Пресс-релизы, предложения об инфопартнерстве и сотрудничестве,
в том числе запросы на рекламу, присылайте на почту редакции:

Ждем вас в соцсетях

Ученые НТИ создали инструмент для проверки защищенности ИИ-систем

Ученые НТИ создали инструмент для проверки защищенности ИИ-систем

В Центре компетенций Национальной технологической инициативы (НТИ) по технологиям хранения и анализа больших данных МГУ создали инструмент, который позволяет проверить устойчивость систем искусственного интеллекта к кибератакам.

По сути, это веб-сайт, на котором можно загрузить модели машинного обучения в облако, где они в автоматическом режиме тестируются на защищенность к разного рода атакам. После этого пользователь получает как оценку возможности системы сохранять работоспособность в условиях внешних воздействий и изменений, так и версию дообученной модели, более устойчивой к атакам.

Это решение подходит для любых систем, спроектированных на базе нейросетевых моделей. Как отметил эксперт Центра, доцент факультета вычислительной математики и кибернетики МГУ Денис Гамаюнов, чаще всего киберпреступники атакуют системы автопилотирования грузовых машин и поездов, системы распознавания речи, а также системы идентификации объектов на изображениях.

Прототип инструмента уже работает: сообщается, что его использует ряд крупных российских клиентов для обеспечения кибербезопасности своих ИИ-продуктов.

Источник: «RT на русском»

Изображение: Freepik

Подписывайтесь на каналы Let AI be в Telegram и «ВКонтакте» — оставайтесь в курсе главных новостей в сфере искусственного интеллекта!

 

You don't have permission to register