Мегатренд #4. Синтетические медиа

Синтетические медиа становятся новым типом кибер-риска  для бизнеса.

 

Определение  подлинности информации будет иметь решающее значение для защиты репутации компании и повышения эффективности бизнеса. Во всем мире сегодня бизнес, правительства и СМИ сталкиваются со значительным дефицитом доверия. И хотя причин тому несколько, конечный результат тот же: различное восприятие реальности и фактов. Доступ к информации в нашем, становящемся все более цифровым мире, оказался палкой о двух концах, и ситуация ухудшается, поскольку становится все проще и быстрее создавать и распространять ложную информацию. Теперь стало проще, чем когда-либо, создавать реалистичные графические, аудио-, видео- и текстовые материалы для событий, которые никогда не происходили.

 

Кроме того, наличие продвинутых инструментов цифрового редактирования значительно упрощает  редактирование аудиовизуальной информации, манипулирование контекстом  и обменом сообщениями — это называется «мелкими подделками».


Что такое «мелкая подделка» (shallowfake) ?

Мелкий фейк, в отличие от дипфейка, — это метод манипулирования медиаконтентом без использования технологии машинного обучения и алгоритмических систем. Вместо этого shallowfakes используют простое программное обеспечение для редактирования видео для изменения существующего медиаконтента.

Shallowfake не требует использования систем глубокого обучения, что принципиально отличает их от более известного феномена deepfake.

Обратите внимание на удаление слова «глубокий» в слове «мелкая подделка». Если исключить системы глубокого обучения из процесса манипулирования медиа, термин «неглубокий» будет подразумевать противоположный (но похожий) метод создания.

Тот факт, что мелкие подделки не создаются с использованием ИИ, не делает их заметно отличными по качеству или количеству от более известных «дипфейков». Он просто указывает, как создавался контент и каких типов технологий избегали в производственном процессе


 

Дезинформация — полностью сфабрикованная или выборочно редактируемая существующая информация — размещенная на платформах социальных сетей, может распространяться как снежный ком, оказывая всеобъемлющее и глубокое влияние на общественное мнение и поведение. До сих пор главными мишенями синтетических СМИ были избирательные кампании, политики и знаменитости. Теперь же риск начинает проявляться и для бизнеса, который может столкнуться со значительными последствиями для репутации бренда, лояльности клиентов и других факторов.

 

ПРОТИВОДЕЙСТВИЕ КОРПОРАТИВНЫМ КИБЕРУГРОЗАМ

 

При наличии достаточного количества данных, алгоритмы искусственного интеллекта могут генерировать достоверные аудио, видео и текст, показывающие, что кто-то делает и говорит то, что он никогда не делал или не говорил. Злоумышленники могут использовать синтетический цифровой контент для мошенничества, клеветы,вымогательства и манипулирования рынком. Выпущенное в нужный момент видео-дипфейк, на котором генеральный директор заявляет, что результаты деятельности компании не оправдывают ожиданий, может вызвать резкое падение акций. Фальшивые аудиозаписи, на которых исполнительный директор признается в подкупе должностных лиц, — отличный инструмент для вымогательства. В случае их публикации, такие сообщения могут нанести серьезный ущерб репутации, оттолкнуть клиентов, повлиять на доходы и способствовать нестабильности финансовых рынков.

 

Пока многие СМИ были сосредоточены манипуляциях с использованием видео, уже прошли первые атаки с использованием аудио-фейков. В 2020 году появились сообщения о трех успешных дипфейк-аудио атаках, в которых использовался голос генерального директора с запросом срочного перевода денег от финансового директора.  Бухгалтер, посчитав запрос подлинным, инициировал денежный перевод, в результате чего были украдены миллионы долларов.

 

Особенно уязвимы отрасли, которые полагаются на визуальные доказательства. В страховой отрасли, при обработке претензий в цифровом формате, клиентам предлагается предоставить цифровые фотографии повреждение. Нетрудно понять, как злоумышленники могут использовать подделанные фотографии для обмана страховых компаний.

 

Выборочное редактирование исходного аудио, видео или текста с изменением его предполагаемого значения или повторное использование старых цифровых носителей и представление их как новых или текущих, возможно, даже хуже.

 

Обратите внимание, что видео 2011 года, в котором потребители заполняют продуктовый магазин в пригороде Амстердама в преддверье распродажи, было представлено как паника из-за короновируса в 2021 году.

 

Оригинал https://www.youtube.com/watch?v=P4OVGUQL_tk

Тоже самое, но опубликованное в 2021 году,  https://www.youtube.com/watch?v=5fupRPu-dHY

 

Несмотря на то, что видео является настоящим, оно было вырвано из контекста и во время повышенной тревожности  может вызвать ненужную панику. А теперь представьте себе последствия, если бы интервью управляющего сетью супермаркетов было отредактировано таким же образом, где бы он признался в чрезвычайно низких запасах продуктов. Хотя мы еще не видели череды дипфейков, нацеленных на частный сектор, все равно компаниям нужно быть готовыми. Искажение реальности, вызванное любым типом атаки, затруднит для публики возможность поверить любой последующей информации, которую они читают, слышат или видят.

 

ТЕХНОЛОГИЧЕСКОЕ РЕШЕНИЕ?

 

Кибератаки не новость для бизнеса.

 

Фишинг, спам и вредоносное ПО преследуют компании с момента появления Интернета, стимулируя растущий набор инструментов и методов для смягчения угроз и реагирования на них. Сегодня уже понятно, что нам нужен совершенно новый набор антител для борьбы с рисками, создаваемыми синтетическими медиа. Компании, занимающиеся кибербезопасностью, стартапы, академические институты и правительственные учреждения изучают и развивают средства аутентификации видео, фотографий и текста в Интернете — наш анализ показывает, что количество патентов, поданных в этой сфере, выросло на 276% в период с 2007 по 2017 год.

 

Разрабатываемые методы восстановления доверия к цифровым технологиям СМИ включают:

 

  1. Цифровая криминалистика. Обычно этот подход, который используется постфактум, этот определяет выдуменные медиа путем поиска несоответствий в освещении и тенях на изображении или паттернов моргания глаз в видео. В некоторых случаях используется машинное обучение для анализа несоответствий на уровне пикселей, которые могут обмануть человеческий глаз.
  2. Цифровые водяные знаки. Это помогает выявлять поддельный контент, размещая скрытые метки на изображениях или видео. Такие подписи могут быть встроены в программное обеспечение для камер, динамиков и других устройств для создания контента, чтобы автоматически отмечать изображения, видео или аудио в момент их создания.
  3. Хеширование и блокчейн. Этот метод делает еще один шаг вперед по созданию цифровых водяных знаков. После создания, контент помечается с указанием даты, времени, местоположения и информации на уровне устройства, которая определяет, как он был создан. Затем хеш-представление контента записывается в общедоступную цепочку блоков, создавая неизменяемую копию непосредственно из источника. Журнал аудита устанавливает происхождение путем записи будущих изменений.

 

У каждого решения есть свои плюсы и минусы. Хотя эти методы предоставляют некоторые способы выявления подделки, будет ли их достаточно, чтобы ограничить производство и распространение поддельной информации? А как насчет мелких подделок, которые создаются на основе фактического содержания, но манипулируют первоначально задуманным сообщением?

 

МУЛЬТИИНСТРУМЕНТАЛЬНЫЙ ПОДХОД

 

Методы искусственного интеллекта, позволяющие создавать поддельный контент, становятся все более изощренными и доступными, что позволяет создавать их, не обладая профессиональными навыками. Те, кто создает фальшивые медиа, и эксперты, борющиеся за их раскрытие, заняты игрой в кошки-мышки. Каждый раз, когда появляются новые методы обнаружения, алгоритмы учатся создавать реалистичные подделки, которые их обходят. В конце концов, отличить оригинальный контент от поддельного может стать практически невозможно.

 

Кроме того, огромный объем информации, публикуемой в Интернете, делает устрашающим обнаружение фейков в реальном времени, не говоря уже о попытках развенчать неизмененное видео, вырванное из контекста посредством редактирования. Спорная информация — независимо от ее подлинности — может мгновенно стать вирусной, и к тому времени, когда будет доказана подделка, ущерб уже будет нанесен. Такие методы, как цифровая криминалистика и обнаружение на основе машинного обучения, будут иметь решающее значение для выявления носителей, не имеющих информации о происхождении.

 

Проблема для цифровых водяных знаков или систем отслеживания на основе блокчейнов заключается в том, что они требуют новых политик цифровой публикации для платформ социальных сетей, требующих, чтобы каждый фрагмент загруженного контента имел печать подлинности. Установление происхождения с момента создания потребует установки нового программного обеспечения на аппаратном обеспечении от динамиков до камеры, которые могут увеличить стоимость. И стандарты происхождения должны быть приняты и применяться во всем мире, чтобы это было действительно эффективно. Это, в свою очередь, вызывает опасения, что такая система может иметь непредвиденные  последствия для таких чувствительных на сегодня вопросов, как право на неприкосновенность частной жизни, наблюдение и сама демократия.

 

В конечном итоге практические решения должны будут основываться на всех подходах, включая те, которые выходят за рамки технологий.

 

Компаниям необходимо будет организовать обучение медийной грамотности и критическому мышлению, обучая сотрудников обнаруживать фальшивую информацию.

 

В школах такое обучение успешно помогло учащимся лучше распознавать фейковые новости.

 

Отделам по связям с общественностью и маркетингу необходимо будет более осмотрительно относиться к тому, сколько и какая информация от высшего руководства открыта для публики  и какие технологии используются для установления происхождения и целостности цифрового контента, распространяемого через Интернет.

 

Политики и регулирующие органы сталкиваются с еще более серьезными проблемами. Некоторые могут рассматривать технологии проверки как нарушение свободы слова и частной жизни. И если эти инструменты станут решением де-факто, они должны быть доступны каждому; в противном случае только те, кто может себе это позволить, смогут публиковать свой контент.

 

Законодательные органы по всему миру изучают, как лучше всего решить проблему синтетических медиа. Однако для того, чтобы любая политика была значимой, необходимы механизмы обеспечения соблюдения, аудита и соблюдения.