Комплексный подход к защите ИИ. Как обезопасить нейросети в приложениях от атак

Технологии искусственного интеллекта все чаще применяются в пользовательских и бизнес-приложениях для автоматизации самых разных процессов и оперативной аналитики данных. В то же время модель, которая не контролируется разработчиком, может быть подвержена атакам и компрометации. О видах атак на модели нейросетей и способах их предотвращения рассказывает руководитель департамента разработки Guardant (бизнес-направление Компании «Актив») Михаил Бакаляров.

Нейросеть как интеллектуальная собственность

Сегодня нам уже сложно представить мир без технологий искусственного интеллекта: нейросети находят все большее применение как в повседневной жизни, так и в самых разных бизнес-процессах. И, скорее всего, это только начало: ведь методики ML постоянно совершенствуются, а количество направлений развития искусственного интеллекта продолжает расти. На данный момент наиболее востребованными среди них можно назвать голосовые помощники, распознавание и генерацию изображений, системы автономного вождения, медицинскую диагностику, биометрические системы. В этих категориях на рынке существует уже достаточное количество зрелых решений, приносящих реальную пользу. Например, по оценке Яндекса, к 2023 году генеративный ИИ использовали уже около 20% российских компаний.

При этом очевидно, что разработка модели и получение необходимого результата от машинного обучения требуют значительных финансовых и временных вложений. Обученная модель, как интеллектуальная собственность разработчика, является для него крайне ценным ресурсом. Любая потенциальная хакерская атака на нее может нанести ему серьезный ущерб. Общаясь с поставщиками программного обеспечения, компонентом которого служит ML-модель, мы видим их обеспокоенность данной проблемой и интерес к внедрению дополнительной защиты своих разработок.

Продолжение на сайте it-world.ru