«Искусственный интеллект» как Deepfake на базе «естественного» интеллекта. Национальные особенности ловли рыбы в мутной воде

21 декабря, 2021

«Искусственный интеллект» как Deepfake на базе «естественного» интеллекта. Национальные особенности ловли рыбы в мутной воде

Тему этого материала подсказала недавняя публикация своеобразного «реферата» по сферам применения «искусственного интеллекта» (ИИ) в банках (см. BIS Journal №4 (43) 2021, с. 12-19) и обрамляющих его материалов на эту тему вкупе с тем, что было сказано про угрозы ИИ на SOC-Форуме 2021.

Для начала уместно оговориться, что скрижали эпохи цифровой трансформации определяют термин Deepfake достаточно узко:

«Deepfake (дипфейк) – конкатенация слов «глубинное обучение» (англ. deep learning) и «подделка» (англ. fake), методика синтеза изображения, основанная на  искусственном интеллекте» (https://ru.wikipedia.org/wiki/Deepfake).

Однако в обороте используется и более обобщённое представление о Deepfake. Для примера можно привести следующее определение: «Дипфейки – это синтетически произведённый медиаконтент, в котором оригинальный человек (тот, кто изначально находится на фото или видео) замещается другим человеком» (https://rb.ru/opinion/deepfake-how/).

Интересно отметить, что в этом определении (не свободном от недостатков) вместо слова «изображение» используется более широкий термин – «медиаконтент», а технология ИИ не выделяется особо в качестве технологии «синтеза» Deepfake.

Уместно предположить, что совместное использование понятий «медиаконтент» и «человек» позволяет не сводить Deepfake только к изображению и голосу, а распространить это понятие и на то, что сегодня небезосновательно называется контентом.

Анализ определений вкупе с понятиями об аналогии и здравом смысле позволяет понимать под Deepfake в числе прочего и понятийную «синтетику», которую с определёнными целями и в чьих-то интересах, а иногда и по недомыслию пытаются «запарить» аудитории вместо «натуральных» смыслов.

В качестве примера понятийной «синтетики» можно привести вульгаризацию понятия «искусственный интеллект». Это одна из жертв Deepfake-синтеза, основанного на т.н. «естественном» («человеческом») интеллекте. Ядром этого синтеза стали спекулятивные рассуждения на тему ИИ, подмена и смешение понятий, логические противоречия, вольное обращение с терминологией.

При этом изустные спекуляции – это зачастую «пурга», содержимое которой после расшифровки аудиозаписи порой не укладывается не только в каноны доказательственной фактологии, но и в каноны фонетики и стилистики родной речи.

Но и вычищенные редакторами тексты выглядят этакими «удалецкими скасками», из которых следует, что ИИ уже натурально существует, «он» пишет стихи, перемещает автомобили по городским улицам и в ближайшей перспективе благотворно скажется на росте ВВП как в мире, так и в отдельно взятых странах. При этом обращает на себя внимание то обстоятельство, что об успешных кейсах по использованию ИИ чаще рассуждают представители отделов продаж вендоров, менеджеры корпоративных проектов и государственные чиновники, занесённые карьерной движухой в сферу ИТ.

Обилие примеров сказанному можно найти в упомянутом ранее «реферате», скомпонованном по методологии, описанном в известном мультфильме: «Во-первых, сладкое портит фигуру. Во-вторых, иди спать! В-третьих, делай уроки! А что ж еще, что-то ещё надо? … Да, вспомнила: вымой руки!».

Если судить по заголовкам, то машинный интеллект – это быстрее и лучше человека. Но быстрее человека считает уже арифмометр. А может ли что-то сделать лучше человека система, которая не только «на текущем этапе развития не способна выходить за рамки запрограммированной в нём аксиоматики, определяющей в числе прочего, и стратегию её самообучения?» (в скобках практически цитата из одного из материалов в BIS Journal №4 (43) 2021), но и не способна «поддерживать разговор в «человеческом стиле»» (почти цитата из упомянутого «реферата»).

«Реферат» утверждает, что ИИ успешен в кредитном скоринге. Но, по-видимому, «услужливый дурак опаснее врага», ведь не просто так Центробанк РФ бьёт в колокола из-за чрезмерной закредитованности населения.

«ИИ вместо человека?» – это ещё один из подразделов «реферата». И знак вопроса – это своеобразная соломка, на которую можно будет упасть в случае предъявления претензий со стороны тех, кто входит в число жертв тех «30-50% проектов RPA с элементами ИИ», которые терпят неудачу.

Кстати, 30% или 50% ? Чем определяется такая погрешность измерений ?

При этом нет оснований полагать, что авторы упомянутого «реферата» по применениям ИИ в банках и скомпонованных вокруг него материалов на эту тему не осведомлены «о мифах и рифах» проблематики.

Но когда кругом стоит гвалт на тему ИИ, и, что более важно, просматриваются новые возможности для доступа к проектным бюджетам, то «кто б за ними не повлёкся ?». И вот мы наблюдаем банальную картину криков «Ура!» и тучу взметнувшихся в воздух «чепчиков».

Хотя люди, авторитетные в сфере ИТ на глобальном уровне, позволяют себе далеко не парламентские высказывания об «искусственном интеллекте», вроде определения ИИ «на текущем этапе развития» термином «алгоритм идиотизма» (Стив Возняк). Это определение ИИ было дано на Cyber Polygon 2021 во время онлайн-конференции.

А на недавнем SOC-Форуме 2021 Владимир Дрюков, директор центра мониторинга и реагирования на киберугрозы Solar JSOC, Ростелеком-Солар, высказал мнение о том, что тотальной автоматизации в отрасли ждать в обозримом будущем не стоит: «Мы не имеем на руках ни одной технологии, хотя бы близко подошедшей к решению этой задачи. На практике новые решения разрабатывают минимум четыре года, затем еще лет семь тестируют. Поэтому если и говорить об этом, то в контексте 20-30-летней перспективы».

В чём же тогда причины назойливых попыток уже сейчас создать в головах просвещённого обывателя (в том числе и высокопоставленного) представление об успехах мифического «искусственного интеллекта», вместо того, чтобы без лишней помпы заниматься конкретными вопросами совершенствования алгоритмов для анализа Больших Данных в разных отраслях, совершенствования технологии речевого ввода информации в текстовые редакторы, и прочими «малыми делами»?

На эту тему можно сконструировать ряд теорий, связанных с прагматичным желанием ИТ-отрасли поддерживать темпы роста своего бизнеса (а для этого нужна маркетинговая трескотня), с попытками нахождения политиками инструментов для управления и купирования социальной активности граждан (а для этого нужно сформировать образ конкурента в виде ИИ), с необходимостью компенсации падения трудового энтузиазма персонала на фоне растущего разрыва в доходах «верхов» и «низов» (но не более продуктивным ли окажется сокращение упомянутого разрыва вместо подготовки почвы для появления новых луддитов?), с желанием государственных, корпоративных и ВУЗовских чиновников (как бы они официально не назывались) пилить новые бюджеты («Непоборимое, знать, зло. Нате, берите! Чорт с вами …» / А.П. Чехов).

Уместно заметить, также, что в нашем государстве почва для спекуляций на тему ИИ особенно «унавожена» разгромом науки прикладной и науки академической. В результате функции по выполнению НИОКР переходят в организации, для которых подобные работы никогда не были профильными. Речь идёт о банках, ритейле, страховых компаниях. А в этих структурах реклама – двигатель прогресса.

А разговоры об ИИ в коридорах новообразований вроде ВШЭ и «Шанинки» легко объясняются тем, что если ещё полвека тому назад для открытия новых законов и построения моделей требовалось утомительное естественное умственное напряжение, то сегодня этот процесс заменяется перемалыванием массивов данных на вычислительных машинах. Ведь, как известно, продаётся не вдохновенье, а «рукопись», то бишь отчёт. И зачастую не один раз. А раз так, то зачем думать, когда есть Open Source ML-библиотеки и гранты. Или Open Source ML-библиотеки и естественные монополии.

Неприятие спекуляций на теме ИИ можно было бы счесть придирками, вспомнив известную поговорку «Хоть горшком назовите, …», если бы не свежий пример с «нано»-спекуляциями, обернувшимися пшиком в совокупности с многомиллиардным долгом спекулянтов. А если добавить к этому спекуляции на тему легализации ИИ в правовом поле как самостоятельного субъекта, то дело в ситуации просматриваются не только финансовые угрозы. А точнее, усматриваются попытки легитимизация финансовых угроз и угроз безопасности правом. И это при том, что, как отметил на SOC-Форуме 2021 Дмитрий Гадарь, отвечающий за все аспекты ИБ- и кибербезопасности Банка Тинькофф, «чем больше происходит информатизации, автоматизации, внедрения новых технологий, тем больше эти угрозы [угрозы со стороны «технологий ИИ». Прим. автора] растут».

Стать автором BIS Journal

Смотрите также

Подписаться на новости BIS Journal / Медиа группы Авангард

Подписаться
Введите ваш E-mail

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных

18.04.2024
У нас есть GitHub дома. Вместо нацрепозитория готовое решение от вендора?
18.04.2024
Минэк создаст профильную комиссию по ИИ-расследованиям
18.04.2024
Видеоидентификация клиентов банков уже в этом году?
18.04.2024
Дано: смартфон. Форма: «Аквариус». Суть: «Лаборатория Касперского»
18.04.2024
Члены АБД утвердили отраслевой стандарт защиты данных
17.04.2024
ФСТЭК будет аттестовать не готовое ПО, а процесс его разработки
17.04.2024
Китайцы используют карты «Мир» для бизнес-платежей
17.04.2024
Хакеры вернулись к вербовке «народных» роутеров
17.04.2024
В 2023 году российские вендоры продали решений и услуг на 3,1 трлн рублей
17.04.2024
Антифрод-ИИ-платформа «Сбера» сводит на нет практически все попытки скамеров

Стать автором BIS Journal

Поля, обозначенные звездочкой, обязательные для заполнения!

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных