Не отставать! О применении технологий искусственного интеллекта в области безопасности

BIS Journal №3(50)2023

7 августа, 2023

Не отставать! О применении технологий искусственного интеллекта в области безопасности

В настоящее время технологиям искусственного интеллекта уделяется самое пристальное внимание ведущими государствами мира. Это связано прежде всего с тем, что за последние несколько лет решения, основанные на методах машинного обучения, продемонстрировали на практике высокую эффективность в различных прикладных областях. Фактически можно говорить о происходящей последние несколько лет революции в области технологий искусственного интеллекта. 

 

ПРОРЫВ 2022 ГОДА

За последний год произошло много событий в области технологий искусственного интеллекта. Среди наиболее ярких стоит отметить релизы генеративных моделей, способных по текстовому запросу генерировать изображения или видео (например, MidJourney 5.1 [1], Deforum (SD) [2], Kandinsky 2.1 [3] и др.), а также больших языковых моделей, позволяющих решать широкий спектр задач обработки естественного языка, в том числе обрабатывать мультимодальные данные и вести диалог с человеком (например,GPT 4 [4], PaLM 2 [5], GigaChat [6], Ya.GPT [7] и др.). Таким образом, события последнего года сделали ИИ годом генеративных и языковых моделей. 

Эти тенденции подтверждаются и различными аналитическими отчётами. Например, Stanford Institute for Human-Centered Artificial Intelligence в своём отчёте «2023 AI Index Report» отмечает, что среди значимых систем машинного обучения, выпущенных в 2022 году, самым распространённым классом систем стали языковые модели, а вторым наиболее распространённым типом систем стали мультимодальные системы (рис. 1) [8].

Рисунок 1. Количество значимых систем машинного обучения по сферам

 

Помимо большого числа релизов самих моделей, также наблюдается тенденция к радикальному сокращению сроков их внедрения. Ярким примером стал выпуск номера журнала Cosmopolitan, обложка которого была сгенерирована с помощью нейросетевой модели DALL-E 2 (рис. 2) [9]. Необходимо отметить, что в данном случае с момента релиза модели до её «реального» применения прошло около двух месяцев, в то время как ещё в недалёком прошлом проходили годы, прежде чем научно-технические изыскания исследователей находили своё реальное применение.

Рисунок 2. Обложка журнала Cosmopolitan, сгенерированная с помощью DALL-E 2

 

Конечно, этот пример не единственный: компания Adobe анонсировала Adobe Firefly [10], Microsoft заявила о встраивании языковых моделей в свои продукты [11] и т. д. Очевидно, что в ближайшем будущем мы станем свидетелями всё большей интеграции моделей машинного обучения в различные привычные нам продукты.

 

НЕ ТОЛЬКО ВО БЛАГО

Нельзя сказать, что современные достижения в области технологий искусственного интеллекта используются только во благо. К сожалению, за последний год участились примеры применения генеративных моделей для дезинформации. Одним из наиболее резонансных случаев стали массовые публикации изображений с бывшим президентом США Д. Трампом в день предъявления ему обвинений [12]. Серия изображений очень быстро стала вирусной и получила широкое распространение сначала в социальной сети Twitter, а затем в СМИ. Таким образом, уже сегодня так называемые фейк-ньюс не просто стали текстовой заметкой, а обрели сопровождающий медиаконтент, позволяющий ещё больше завоёвывать доверие читателей. Ещё одним резонансным примером публикаций в СМИ изображений, сгенерированных с помощью модели машинного обучения, стала публикация Amnesty International про жестокое обращение с протестующими в Колумбии [13].

 

НЕОБХОДИМО ОТМЕТИТЬ

На текущий момент сложились все предпосылки, что примеры таких публикаций будут появляться всё чаще, а используемый в них контент будет неотличим от реального. Необходимо отметить следующее.

  • Радикально сократилась стоимость и время генерации синтетического контента. Это произошло настолько стремительно, что люди, работающие в креативной индустрии, начали устраивать забастовки [14]. Инструменты для создания изображений на основе искусственного интеллекта неоднократно подвергались критике со стороны художников и дизайнеров, прежде всего из-за высокой скорости работы автоматических систем при относительно неплохом качестве работы.
  • Простота масштабирования. Значительные успехи в цифровизации способствовали сверхбыстрому росту числа пользователей сервисов на основе генеративных и больших языковых моделей. По некоторым оценкам аудитория чат-бота ChatGPT, вышедшего в 2023 г., достигла отметки в 1 млн пользователей за несколько дней, в то время как несколько лет назад на подобное достижение понадобилось бы годы. Успех подобных решений среди пользователей подталкивает разработчиков к дальнейшему развитию, и в ближайшем будущем стоит ожидать существенного улучшения качества работы подобных систем.
  • Разнообразие и отсутствие дублирования. Сам принцип работы моделей машинного обучения основан на процессе обобщения большого количества данных, созданных руками человека, взятых из различных источников, а затем эффективной комбинаторики данных, участвовавших в процессе обучения. За счёт использования большого количества данных от разных авторов, с разными культурными и лингвистическими особенностями генеративные технологии зачастую способны создавать контент более убедительный, чем сделанный человеком.

 

ПРОГНОЗ ОЧЕВИДЕН

Принимая во внимание вышесказанное, можно сделать вывод, что в относительно недалёком будущем появятся системы, способные добиваться доверия человека самостоятельно. За счёт возможности поддержания беседы, генерации медиаконтента, а также динамической персонализации грань между «искусственным собственником» и реальным человеком окончательно сотрётся. 

По сути, на сегодняшний день сложились все предпосылки для создания «искусственного информационного агента», который может применяться для создания специального информационного окружения вокруг пользователей, удобного владельцу подобного сервиса. Иными словами, речь идёт про создание «информационного пузыря» вокруг отдельных пользователей или их групп, целью которого может быть влияние на их отношение к каким-либо резонансным событиям. 

 

ТРИ КАТЕГОРИИ РИСКА

Безусловно, подобные риски не остаются без внимания как в России, так и за рубежом. Достаточно резонансным событием стал анонс Европейским союзом The Artificial Intelligence Act — закона о технологиях искусственного интеллекта. Основная идея закона состоит в разделении систем искусственного интеллекта по трём категориям риска: неприемлемые, высокие и иные. 

Приложения и системы, использующие технологии искусственного интеллекта и создающие неприемлемые риски, предлагается запретить. Для систем с высоким уровнем риска наложить определённые юридические ограничения и требования. И наконец, системы, которые явно не запрещены или не перечислены как высокорисковые, в основном оставить нерегулируемыми. 

Примечательно, что в качестве одной из мотиваций для разработки данного закона приведено следующее: «Системы искусственного интеллекта влияют на то, какую информацию вы видите в интернете, предсказывая, какой контент вам интересен, собирают и анализируют персональные данные для обеспечения соблюдения законов или персонализации рекламы, а также используются для диагностики и лечения рака. Другими словами, искусственный интеллект влияет на многие аспекты вашей жизни» [15]. 

 

КОДЕКС ЭТИКИ

Среди активностей, происходящих в нашей стране, стоит отметить «Кодекс этики в сфере ИИ» — систему рекомендательных принципов и правил, предназначенных для создания среды доверенного развития технологий искусственного интеллекта в России, разработанную при поддержке государства компаниями из Альянса в сфере искусственного интеллекта (Газпромнефть, МТС, ВК, РФПИ, Сбер, Яндекс) совместно с научным сообществом и общественными институтами [16]. Главное его отличие от приведённого выше европейского закона — то, что он носит рекомендательный характер и присоединение осуществляется на добровольной основе, таким образом, кодекс не является обязательным к исполнению. 

 

ЧТО ДЕЛАТЬ?

Тем не менее, по мнению автора, развёртывание полномасштабных работ по противодействию сформовавшимся угрозам за счёт развития генеративных и языковых моделей и иным угрозам в области искусственного интеллекта должно осуществляться не только в области регуляторики. Принимая во внимание, что подавляющее большинство информационного пространства представлено зарубежными сервисами и ресурсами, необходимо создание отечественных технических систем, которые тоже могут быть основаны на технологиях искусственного интеллекта и направлены на решение следующих задач: выявление модифицированного медиаконтента, оценка ангажированности рекомендательных сервисов, противодействие уязвимостям, специфичным для моделей машинного обучения, и других. 

При этом выполнение подобных работ должно происходить при соблюдении следующих принципов:

  • своевременный мониторинг результатов прорывных исследований и трендов развития технологий в области технологий искусственного интеллекта и выработка мер по парированию вновь возникающих угроз, при их наличии;
  • консолидация ресурсов основных государственных заказчиков работ в области технологий искусственного интеллекта и исключения прямого дублирования работ, проводимых отдельными отечественными научными коллективами, стимулирование поиска и развития прорывных технологий, в том числе путём применения соревновательных принципов при решении сходных задач различными методами; 
  • стандартизация требований, предъявляемых к программным компонентам, реализующим технологии ИИ, а также формирование системы оценки функциональной надёжности систем искусственного интеллекта. 

 

Литература

[1] Midjourney documentation. Материалы сайта https://docs.midjourney.com/docs/models. 06.06.2023

[2] Deforum Stable Diffusion GitHub. Материалы сайта https://github.com/deforum-art/deforum-stable-diffusion. 06.06.2023

[3] Kandinsky 2.1. Материалы сайта https://www.sberbank.com/promo/kandinsky/. 06.06.2023

[4] GPT-4 is OpenAI’s most advanced system, producing safer and more useful responses Материалы сайта https://openai.com/gpt-4. 06.06.2023

[5] Zoubin Ghahramani. Introducing PaLM 2. Материалы сайта https://blog.google/technology/ai/google-palm-2-ai-large-language-model/. 06.06.2023

[6] GigaChat Умеет отвечать на вопросы, вести диалог, написать код, нарисовать картинку по запросу. И всё на русском языке. Материалы сайта https://developers.sber.ru/portal/products/gigachat?attempt=1. 06.06.2023

[7] Новая нейросеть от Яндекс Ya.GPT уже в Алисе! Материалы сайта https://dzen.ru/a/ZGT4uLX07SoefRQD. 06.06.2023

[8] The AI Index 2023 Annual Report. Nestor Maslej и др. AI Index Steering Committee, Institute for Human-Centered AI, Stanford University, Stanford, [Электронный ресурс] — https://aiindex.stanford.edu/report/

[9] Gloria Liu. The World’s Smartest Artificial Intelligence Just Made Its First Magazine Cover, Материалы сайта https://www.cosmopolitan.com/lifestyle/a40314356/dall-e-2-artificial-intelligence-cover/. 06.06.2023

[10] Adobe Unveils Firefly, a Family of new Creative Generative AI. Материалы сайта https://news.adobe.com/news/news-details/2023/Adobe-Unveils-Firefly-a-Family-of-new-Creative-Generative-AI/default.aspx. 08.06.2023

[11] Yusuf Mehdi. Reinventing search with a new AI-powered Microsoft Bing and Edge, your copilot for the web. Материалы сайта https://blogs.microsoft.com/blog/2023/02/07/reinventing-search-with-a-new-ai-powered-microsoft-bing-and-edge-your-copilot-for-the-web/. 08.06.2023

[12] Matt Novak. Viral Images Of Donald Trump Getting Arrested Are Totally Fake (For Now). Материалы сайта https://www.forbes.com/sites/mattnovak/2023/03/19/viral-images-of-donald-trump-getting-arrested-are-totally-fake/?sh=231c17984aed. 08.06.2023

[13] Amnesty International criticised for using AI-generated images. Материалы сайта https://www.theguardian.com/world/2023/may/02/amnesty-international-ai-generated-images-criticism. 08.06.2023

[14] Chloe Xiang. Artists Are Revolting Against AI Art on ArtStation. Материалы сайта https://www.vice.com/en/article/ake9me/artists-are-revolt-against-ai-art-on-artstation. 08.06.2023

[15] The Artificial Intelligence Act. Материалы сайта https://artificialintelligenceact.eu/. 08.06.2023

[16] Кодекс этики в сфере ИИ. Материалы сайта https://ethics.a-ai.ru/. 08.06.2023

Стать автором BIS Journal

Смотрите также

Подписаться на новости BIS Journal / Медиа группы Авангард

Подписаться
Введите ваш E-mail

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных

01.03.2024
Банки будут строже следить за криптотранзакциями, связанными с дропперами
01.03.2024
Холода прошли, но голос берегите — скамеры усиленно собирают слепки
01.03.2024
Лишение банковской лицензии — это ещё не всё
01.03.2024
«Они подобны смартфонам на колёсах». В США проверят «умные» авто из Китая
01.03.2024
Набиуллина: Дважды «красные» клиенты будут исключаться из реестра
01.03.2024
Банк России усовершенствует платформу цифрового рубля
01.03.2024
Организации здравоохранения США стали жертвами массовых кибератак
29.02.2024
«ИнфоТеКС» — о проблемах стандартизации ИБ
29.02.2024
Почему нормативные акты выполняются формально
29.02.2024
Почему затянулся переход на российские решения

Стать автором BIS Journal

Поля, обозначенные звездочкой, обязательные для заполнения!

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных