Мегатренд #4. Синтетические медиа

Синтетические медиа становятся новым типом кибер-риска  для бизнеса.

 

Определение  подлинности информации будет иметь решающее значение для защиты репутации компании и повышения эффективности бизнеса. Во всем мире сегодня бизнес, правительства и СМИ сталкиваются со значительным дефицитом доверия. И хотя причин тому несколько, конечный результат тот же: различное восприятие реальности и фактов. Доступ к информации в нашем, становящемся все более цифровым мире, оказался палкой о двух концах, и ситуация ухудшается, поскольку становится все проще и быстрее создавать и распространять ложную информацию. Теперь стало проще, чем когда-либо, создавать реалистичные графические, аудио-, видео- и текстовые материалы для событий, которые никогда не происходили.

 

Кроме того, наличие продвинутых инструментов цифрового редактирования значительно упрощает  редактирование аудиовизуальной информации, манипулирование контекстом  и обменом сообщениями — это называется «мелкими подделками».


Что такое «мелкая подделка» (shallowfake) ?

Мелкий фейк, в отличие от дипфейка, — это метод манипулирования медиаконтентом без использования технологии машинного обучения и алгоритмических систем. Вместо этого shallowfakes используют простое программное обеспечение для редактирования видео для изменения существующего медиаконтента.

Shallowfake не требует использования систем глубокого обучения, что принципиально отличает их от более известного феномена deepfake.

Обратите внимание на удаление слова «глубокий» в слове «мелкая подделка». Если исключить системы глубокого обучения из процесса манипулирования медиа, термин «неглубокий» будет подразумевать противоположный (но похожий) метод создания.

Тот факт, что мелкие подделки не создаются с использованием ИИ, не делает их заметно отличными по качеству или количеству от более известных «дипфейков». Он просто указывает, как создавался контент и каких типов технологий избегали в производственном процессе


 

Дезинформация — полностью сфабрикованная или выборочно редактируемая существующая информация — размещенная на платформах социальных сетей, может распространяться как снежный ком, оказывая всеобъемлющее и глубокое влияние на общественное мнение и поведение. До сих пор главными мишенями синтетических СМИ были избирательные кампании, политики и знаменитости. Теперь же риск начинает проявляться и для бизнеса, который может столкнуться со значительными последствиями для репутации бренда, лояльности клиентов и других факторов.

 

ПРОТИВОДЕЙСТВИЕ КОРПОРАТИВНЫМ КИБЕРУГРОЗАМ

 

При наличии достаточного количества данных, алгоритмы искусственного интеллекта могут генерировать достоверные аудио, видео и текст, показывающие, что кто-то делает и говорит то, что он никогда не делал или не говорил. Злоумышленники могут использовать синтетический цифровой контент для мошенничества, клеветы,вымогательства и манипулирования рынком. Выпущенное в нужный момент видео-дипфейк, на котором генеральный директор заявляет, что результаты деятельности компании не оправдывают ожиданий, может вызвать резкое падение акций. Фальшивые аудиозаписи, на которых исполнительный директор признается в подкупе должностных лиц, — отличный инструмент для вымогательства. В случае их публикации, такие сообщения могут нанести серьезный ущерб репутации, оттолкнуть клиентов, повлиять на доходы и способствовать нестабильности финансовых рынков.

 

Пока многие СМИ были сосредоточены манипуляциях с использованием видео, уже прошли первые атаки с использованием аудио-фейков. В 2020 году появились сообщения о трех успешных дипфейк-аудио атаках, в которых использовался голос генерального директора с запросом срочного перевода денег от финансового директора.  Бухгалтер, посчитав запрос подлинным, инициировал денежный перевод, в результате чего были украдены миллионы долларов.

 

Особенно уязвимы отрасли, которые полагаются на визуальные доказательства. В страховой отрасли, при обработке претензий в цифровом формате, клиентам предлагается предоставить цифровые фотографии повреждение. Нетрудно понять, как злоумышленники могут использовать подделанные фотографии для обмана страховых компаний.

 

Выборочное редактирование исходного аудио, видео или текста с изменением его предполагаемого значения или повторное использование старых цифровых носителей и представление их как новых или текущих, возможно, даже хуже.

 

Обратите внимание, что видео 2011 года, в котором потребители заполняют продуктовый магазин в пригороде Амстердама в преддверье распродажи, было представлено как паника из-за короновируса в 2021 году.

 

Оригинал https://www.youtube.com/watch?v=P4OVGUQL_tk

Тоже самое, но опубликованное в 2021 году,  https://www.youtube.com/watch?v=5fupRPu-dHY

 

Несмотря на то, что видео является настоящим, оно было вырвано из контекста и во время повышенной тревожности  может вызвать ненужную панику. А теперь представьте себе последствия, если бы интервью управляющего сетью супермаркетов было отредактировано таким же образом, где бы он признался в чрезвычайно низких запасах продуктов. Хотя мы еще не видели череды дипфейков, нацеленных на частный сектор, все равно компаниям нужно быть готовыми. Искажение реальности, вызванное любым типом атаки, затруднит для публики возможность поверить любой последующей информации, которую они читают, слышат или видят.

 

ТЕХНОЛОГИЧЕСКОЕ РЕШЕНИЕ?

 

Кибератаки не новость для бизнеса.

 

Фишинг, спам и вредоносное ПО преследуют компании с момента появления Интернета, стимулируя растущий набор инструментов и методов для смягчения угроз и реагирования на них. Сегодня уже понятно, что нам нужен совершенно новый набор антител для борьбы с рисками, создаваемыми синтетическими медиа. Компании, занимающиеся кибербезопасностью, стартапы, академические институты и правительственные учреждения изучают и развивают средства аутентификации видео, фотографий и текста в Интернете — наш анализ показывает, что количество патентов, поданных в этой сфере, выросло на 276% в период с 2007 по 2017 год.

 

Разрабатываемые методы восстановления доверия к цифровым технологиям СМИ включают:

 

  1. Цифровая криминалистика. Обычно этот подход, который используется постфактум, этот определяет выдуменные медиа путем поиска несоответствий в освещении и тенях на изображении или паттернов моргания глаз в видео. В некоторых случаях используется машинное обучение для анализа несоответствий на уровне пикселей, которые могут обмануть человеческий глаз.
  2. Цифровые водяные знаки. Это помогает выявлять поддельный контент, размещая скрытые метки на изображениях или видео. Такие подписи могут быть встроены в программное обеспечение для камер, динамиков и других устройств для создания контента, чтобы автоматически отмечать изображения, видео или аудио в момент их создания.
  3. Хеширование и блокчейн. Этот метод делает еще один шаг вперед по созданию цифровых водяных знаков. После создания, контент помечается с указанием даты, времени, местоположения и информации на уровне устройства, которая определяет, как он был создан. Затем хеш-представление контента записывается в общедоступную цепочку блоков, создавая неизменяемую копию непосредственно из источника. Журнал аудита устанавливает происхождение путем записи будущих изменений.

 

У каждого решения есть свои плюсы и минусы. Хотя эти методы предоставляют некоторые способы выявления подделки, будет ли их достаточно, чтобы ограничить производство и распространение поддельной информации? А как насчет мелких подделок, которые создаются на основе фактического содержания, но манипулируют первоначально задуманным сообщением?

 

МУЛЬТИИНСТРУМЕНТАЛЬНЫЙ ПОДХОД

 

Методы искусственного интеллекта, позволяющие создавать поддельный контент, становятся все более изощренными и доступными, что позволяет создавать их, не обладая профессиональными навыками. Те, кто создает фальшивые медиа, и эксперты, борющиеся за их раскрытие, заняты игрой в кошки-мышки. Каждый раз, когда появляются новые методы обнаружения, алгоритмы учатся создавать реалистичные подделки, которые их обходят. В конце концов, отличить оригинальный контент от поддельного может стать практически невозможно.

 

Кроме того, огромный объем информации, публикуемой в Интернете, делает устрашающим обнаружение фейков в реальном времени, не говоря уже о попытках развенчать неизмененное видео, вырванное из контекста посредством редактирования. Спорная информация — независимо от ее подлинности — может мгновенно стать вирусной, и к тому времени, когда будет доказана подделка, ущерб уже будет нанесен. Такие методы, как цифровая криминалистика и обнаружение на основе машинного обучения, будут иметь решающее значение для выявления носителей, не имеющих информации о происхождении.

 

Проблема для цифровых водяных знаков или систем отслеживания на основе блокчейнов заключается в том, что они требуют новых политик цифровой публикации для платформ социальных сетей, требующих, чтобы каждый фрагмент загруженного контента имел печать подлинности. Установление происхождения с момента создания потребует установки нового программного обеспечения на аппаратном обеспечении от динамиков до камеры, которые могут увеличить стоимость. И стандарты происхождения должны быть приняты и применяться во всем мире, чтобы это было действительно эффективно. Это, в свою очередь, вызывает опасения, что такая система может иметь непредвиденные  последствия для таких чувствительных на сегодня вопросов, как право на неприкосновенность частной жизни, наблюдение и сама демократия.

 

В конечном итоге практические решения должны будут основываться на всех подходах, включая те, которые выходят за рамки технологий.

 

Компаниям необходимо будет организовать обучение медийной грамотности и критическому мышлению, обучая сотрудников обнаруживать фальшивую информацию.

 

В школах такое обучение успешно помогло учащимся лучше распознавать фейковые новости.

 

Отделам по связям с общественностью и маркетингу необходимо будет более осмотрительно относиться к тому, сколько и какая информация от высшего руководства открыта для публики  и какие технологии используются для установления происхождения и целостности цифрового контента, распространяемого через Интернет.

 

Политики и регулирующие органы сталкиваются с еще более серьезными проблемами. Некоторые могут рассматривать технологии проверки как нарушение свободы слова и частной жизни. И если эти инструменты станут решением де-факто, они должны быть доступны каждому; в противном случае только те, кто может себе это позволить, смогут публиковать свой контент.

 

Законодательные органы по всему миру изучают, как лучше всего решить проблему синтетических медиа. Однако для того, чтобы любая политика была значимой, необходимы механизмы обеспечения соблюдения, аудита и соблюдения.

 

Мегатренд #3. Будущее мышления

Технологии коренным образом меняют наш образ мышления. И хотя мы уже понимаем, какой эффект оказывают социальные сети и смартфоны на наше поведение и сознание, грядущая волна технологий, таких как искусственный интеллект, роботы и беспилотные транспортные средства, могут оказать еще более значительное влияние.  Это может быть серьезным испытанием не только для индивидуумов, но и для компаний и правительств, с точки зрения их взаимодействия с клиентами, сотрудниками и гражданами.

 

Вот краткий перечень того, как меняется наш разум по мере распространения мобильных устройств и социальных сетей.

 

Зависимость

Мы не можем отложить наши смартфоны! Зависимость достигла такой степени, что теперь имеет свое собственное название: номофобия. Опрос показал, что 66% взрослых британцев зависимы от своих телефонов. В среднем, миллениумы проверяют свой телефон 150 раз в день. Наш анализ показывает, что освещение в новостях зависимости от смартфонов увеличилось на 251% с 2017 по 2018 год. Появляются все новые и новые доказательства того, что зависимость от смартфонов пагубно влияет на психическое здоровье, включая депрессии и суицидальное поведение.

 

Поляризация.

Основная причина того, что наши телефоны вызывают такую ​​зависимость, заключается в том, что они стали основным средством доступа к социальным сетям. И мы все чаще используем такие платформы не только для связи с друзьями, но и для получения новостей — именно поэтому социальные сети ассоциируются с такими тревожными тенденциями, такими как растущая поляризация общества и снижение социального доверия.

 

Данные Pew Research показывают резкое возрастание политической поляризации в США с середины 1990-х годов, и аналогичные тенденции наблюдаются по всему миру. Социальные сети — не единственный фактор этих сдвигов; они происходили до появления социальных сетей. Такие явления, как растущее экономическое неравенство и фрагментация вещательных и печатных СМИ,  также сыграли свою роль. Но «эхо-камеры» и информационные пузыри («пузыри фильтров»)  в социальных сетях все больше разделяют и отдаляют друг от друга различные слои общества.

 


Эхо-камера — понятие в теории СМИ, представляющее собой ситуацию, в которой определённые идеи, убеждения усиливаются или подкрепляется путём передачи сообщения или его повторением внутри закрытой системы (партия, круг единомышленников, субкультура) При этом подобные сообщения заглушают другие аналогичные информационные потоки. Иными словами, любые высказывания приводят не к дискуссиям, а к поддакиванию и поддержке единомышленников. Адресаты, находящиеся в такой «закрытой» системе, создают сообщения, слушают сами себя и соглашаются сами с собой. В эту закрытую систему не попадает никакая альтернативная информация.

 

Пузырь фильтров (англ. «Filter bubble») — понятие, разработанное интернет-активистом Илаем Парайзером (англ. Eli Pariser) и описанное в его одноимённой книге: негативная сторона персонализированного поиска, явления, при котором веб-сайты определяют, какую информацию пользователь хотел бы увидеть, основываясь на информации о его месторасположении, прошлых нажатиях и перемещениях мыши, предпочтениях и истории поиска. В результате веб-сайты показывают только информацию, которая согласуется с прошлыми точками зрения данного пользователя. Вся иная информация, как правило, пользователю не выводится.

Примером этого являются Google и другие поисковые системы с персонализированными результатами поиска, а также Facebook с персонализированной лентой новостей, которая с каждым действием пользователя наполняется всё более и более персональными результатами. Так, если у пользователя есть два друга в социальной сети, один делает посты с поддержкой президента, а другой с его критикой, и пользователь делится первыми, а вторые игнорирует, то постепенно в его ленте будут появляться посты со всё более ярко выраженной высокой оценкой президента. Соответственно, он получает намного меньше противоречащей своей точке зрения информации и становится интеллектуально изолированным в своём собственном информационном пузыре.


 

Бизнес-модель социальных платформ заключатся в предоставлении пользователям бесплатного доступа, а затем, зависит от максимизации вовлечения пользователей и дальнейшей монетизации платформы.  Благодаря миллионам экспериментов в реальном времени, программисты и контент-дизайнеры достигли значительных успехов в этой области.

 

В результате, приложения для социальных сетей и телефоны, на которых они находятся, были разработаны таким образом, чтобы приводить к зависимостям, подпитываемым дофамином, — от лент с бесконечной прокруткой до отложенных уведомлений и алгоритмов, которые направлены на максимальное вовлечение пользователя в контент.

 

Критическое мышление

Мы также становимся свидетелями более фундаментального сдвига: в том, как мы анализируем информацию, интерпретируем ее и даже отличаем факты от вымысла. Учтите, что барометр доверия Эдельмана   показывает, что примерно 6 из 10 человек в 27 странах уже не уверены, что правда, а что нет. Это удивительно, что это происходит в то время, когда практически вся информация в мире мгновенно доступна любому, у кого есть смартфон  в кармане.

 

Отчасти проблем заключается в том, что наши мобильные устройства предоставили нам доступ не только к информации; они также способствовали распространению дезинформации и фейков.

 

Иногда это доходит до абсурда — например, растущая популярность теории плоской земли – но иногда может быть по-настоящему опасно, например, движения против прививок.

 

Разумеется, в научном сообществе существует широкий консенсус в отношении того, что наша планета действительно имеет сферическую форму и что безопасность и эффективность вакцин намного перевешивают их риски. Но одним из результатов снижения доверия является то, что многие люди больше не доверяют экспертам с докторской степенью и медицинскими степенями.

 

Наш анализ показывает, что в 2019 году освещение фейковых новостей и теорий заговора в новостях увеличилось на 93%, оставаясь относительно неизменным три года назад.

 

Другие когнитивные способности

Наша способность сосредотачиваться также снижается. Исследование 2019 года, проведенное учеными из Технического университета Дании, показывает, что  продолжительность концентрации внимания сокращается во всем мире – что и неудивительно в то время, когда большая часть нашего общения сводится к коротким твитам и меседжам, и когда мы постоянно отвлекаемся на напоминая уведомления и напоминания.

 

Точно так же, исследователи из Университета Макгилла обнаружили доказательства того, что возросшая зависимость от GPS может полностью изменить навигационные способности человека, которые люди  издавна приобретали при использовании печатных карт и ментальных компасов.

 

Наконец, исследователи в университете Северной Дакоты обнаружили, что чтение онлайн связано со снижением объема запоминаемой информации. Еще более примечательно то, что эта тенденция проявляется во всех возрастных группах, опровергая расхожее мнение о том, что у молодого поколения больше возможностей учиться с использованием цифровых медиа.

 

А ВОТ И ЧЕЛОВЕЧЕСКОЕ «ДОПОЛНЕНИЕ»

 

Это, вероятно, совсем неполный список того, что происходит. Исследователи только начинают изучать влияние социальных и мобильных технологий на наше мышление и поведение. Тем временем, технологии идут вперед. Стоит подумать и подготовиться к тому влиянию, которое новый виток инноваций может оказать на наши когнитивные способности.

 

Подумайте, как социальные сети подорвали нашу способность распознавать правду благодаря технологиям, которые позволяют любому легко создавать вводящие в заблуждение статьи или поддельные фотографии.

 

До сих пор видео оставалось недоступным для продавцов фейковых новостей, но с появлением дипфейков ситуация быстро меняется.

 

Насколько наша способности отличать факты от вымысла будет подорвана, когда deepfake-видео станут мейнстримом? Или подумайте, как автономные транспортные средства  будут использовать влияние GPS, чтобы подорвать как нашу способность ориентироваться, так и нашу способность управлять автомобилем.

 

Вполне возможно, что сегодняшние самые маленькие дети могут прожить всю свою жизнь, даже не сдав экзамен по вождению и не сверяясь с картой, напечатанной или цифровой.

 

Наконец, подумайте, что могут делать интерфейсы мозг-машина. Хотя перспектива прямого общения с компьютерами с помощью мозговых волн кажется многим научной фантастикой, исследователи добились заметных успехов в этом направлении.

 

Трудно сказать, какие технологии, напрямую взаимодействующие с нашим мозгом, могут повлиять на когнитивные способности человека, но они наверняка повлияют на то, как мы думаем.

 

ПОЛОЖИТЕЛЬНАЯ СТОРОНА ПСИХИЧЕСКОГО РАССТРОЙСТВА

 

Картина не мрачна и обречена. Хотя технологии могут, в некоторой степени, отрицательно влиять на наши умственные способности, они также дают нам мгновенный доступ к огромным объемам информации и вычислительным мощностям. Обсуждаемые здесь технологии создают огромные преимущества для пользователей, включая удобство, возможность подключения и мобильность. Они способствуют позитивным изменениям в нашем мышлении и поведении, от мотивации людей к более здоровому образу жизни до предоставления им возможности откладывать больше на пенсию.

 

Наша цель не отрицать такие преимущества, а сосредоточить внимание на тревожном наборе рисков.

 

Уже предпринимаются некоторые шаги по снижению этих рисков.

 

Например, исследователи из Австралии разработали новый шрифт Sans Forgetica, призванный помочь пользователям лучше запоминать информацию, которую они читают в Интернете. Новые приложения и функции смартфонов позволяют пользователям измерять и ограничивать время, которое они проводят на своих устройствах.

 

Социальные сети делают положительные шаги, например, скрывают лайки в лентах пользователей и запрещают дипфейки.

 

Все это обнадеживающие шаги, но они ничтожны по сравнению с масштабом проблемы. Еще очень многое предстоит сделать.

 

ВЫВОДЫ

 

Мы уже видим влияние социальных сетей на социальную сплоченность и демократию. Что следующее поколение технологий сделает с осознанным гражданством, доверием и нашим общим чувством реальности? Хотя кампании по дезинформации до сих пор наиболее заметно атаковали выборы, весьма вероятно, что вскоре они будут нацелены и на компании.

 

Руководители HR-подразделений должны будут бороться за мотивацию сотрудников работать с максимальной отдачей в условиях технологической зависимости и сокращения объема внимания.

 

Маркетинговым службам необходимо будет коренным образом переосмыслить брендинг и рекламу, если потребители станут все больше зависеть от технологий при принятии решений о покупке.

 

Отделы по связям с инвесторами и общественностью должны будут проявлять бдительность в отношении новых форм дезинформации, требующих набора навыков, которыми у них, вероятно, на сегодня нет.

 

Будущее мышления потребует серьезного переосмысления от всех участников общества: граждан, компаний, правительств.