Искусственный интеллект: как превратить помощника в диверсанта
ИИ уже полностью интегрировался в нашу жизнь: он дает советы, анализирует и упорядочивает информацию, пишет книги и делает фильмы. И все это - на основе открытых данных. Однако такая открытость несет серьезные угрозы - особенно в стратегических отраслях. В чем наибольшая уязвимость ИИ?
То, о чем мы давно говорили, становится реальностью - поговорим о киберугрозах для ИИ, и какие это несет нам опастости. Теперь подробнее.
Агентство нацбезопасности США (NSA) вместе с разведками Великобритании, Австралии и Новой Зеландии впервые обнародовало публичный отчет о киберугрозах для ИИ. Документ системно объясняет, как именно можно сломать или отравить искусственный интеллект. Главная уязвимость - отравление данных (data poisoning).
ИИ учится на массивах открытой информации. Если туда намеренно подмешать фейковые или искривленные данные, модель начинает принимать ошибочные решения
ИИ учится на массивах открытой информации. Если туда намеренно подмешать фейковые или искривленные данные, модель начинает принимать ошибочные решения. Кстати, о том, что российские пропагандисты так работают с ИИ - известно давно. Не верите? Тогда сделайте эксперимент. Спросите у ИИ об обороне Бахмута. А затем сделайте запрос на русском языке об "освабаждении Артемовска". Вы будете удивлены результатом.
Стоимость такой атаки от $60 до $1000. Доступно. Дешево. Эффективно. Не удивляйтесь, если вам напишет ИИ, что вода кипит при 50 °C. Значит, кто-то ему дал такие данные. А теперь представьте, что этот ИИ управляет дронами на поле боя или отвечает за промышленную безопасность. Одна ложная лента данных - и рой дронов может выйти из-под контроля именно во время атаки, или критическое предприятие выйдет из строя.
Вместо выводов. ИИ - уже часть нашей жизни. Поэтому нужно думать о его безопасности, и это не только об алгоритмах. Это о качестве данных, контроле доступа и встроенной устойчивости к манипуляциям.
Комментарии