Чтобы способствовать передаче технологий семантической криминалистики в промышленность и правительство, DARPA приступит к работе по укреплению защиты от манипулирования средствами массовой информации
Угроза манипулирования СМИ неуклонно возрастает по мере того, как автоматизированные технологии манипулирования становятся все более доступными, а социальные сети продолжают создавать благоприятную среду для распространения вирусного контента.Скорость, масштаб и широта, с которой могут разворачиваться массовые кампании по дезинформации, требуют вычислительных средств защиты и автоматизированных алгоритмов, помогающих людям различать, какой контент является реальным, а какой - манипулятивным или синтезированным, почему и как.В рамках программы Semantic Forensics (SemaFor), а ранее программы Media Forensics, инвестиции DARPA в исследования по обнаружению, атрибуции и определению характеристик манипулятивных и синтезированных медиа, известных как deepfakes, привели к созданию сотен аналитических разработок и методов, которые могут помочь организациям и частным лицам защитить себя от множества угроз, связанных с манипулятивными медиа.Благодаря тому, что проект SemaFor находится на заключительном этапе, инвестиции DARPA позволили системно снизить риски разработок, что открывает путь к новой эре защиты от растущей угрозы глубоких подделок. Теперь агентство призывает более широкое сообщество, включая коммерческую промышленность и научные круги, ведущие исследования в этой области, использовать эти инвестиции.Чтобы поддержать этот переход, агентство запускает два новых проекта, призванных помочь более широкому сообществу продолжить развитие защиты от манипулятивных медиа.Первый проект включает в себя аналитический каталог, содержащий ресурсы с открытым исходным кодом, разработанные в рамках SemaFor для использования исследователями и промышленностью. По мере развития и появления новых возможностей они будут добавляться в этот репозиторий.Второй проект представляет собой открытую исследовательскую работу сообщества под названием AI Forensics Open Research Challenge Evaluation (AI FORCE), целью которой является разработка инновационных и надежных моделей машинного обучения или глубокого обучения, способных точно обнаруживать синтетические изображения, созданные ИИ. В рамках серии мини-задач AI FORCE предлагает участникам создать модели, способные отличить подлинные изображения, в том числе те, которые могли быть подвергнуты манипуляциям или редактированию с использованием неиндивидуальных методов, от полностью синтетических изображений, сгенерированных искусственным интеллектом. Эта работа начнется 18 марта и будет связана с программной страницей SemaFor. Желающие получить уведомление могут подписаться на информационный бюллетень Управления информационных инноваций.По мнению исследователей DARPA и SemaFor, для разработки и внедрения решений, направленных на борьбу с угрозами манипулирования СМИ, необходимы согласованные усилия коммерческого сектора, медиа-организаций, внешних исследователей и разработчиков, а также политиков. SemaFor предоставляет инструменты и методы, необходимые для помощи людям в этом проблемном пространстве."Наши инвестиции привели к появлению новых возможностей, которые своевременны, необходимы и готовы развиваться", - сказал д-р Уил Корви, руководитель программы DARPA по семантической криминалистике. "С помощью промышленности и научных кругов по всему миру программа Semantic Forensics готова поделиться тем, что мы начали, чтобы укрепить экосистему, необходимую для защиты подлинности в цифровом мире".Более подробную информацию о вышеупомянутых мероприятиях и ресурсах можно найти на сайтах https://www.darpa.mil/program/semantic-forensics и https://semanticforensics.com/Более подробную информацию о программе SemaFor и обзор получившихся технологий можно найти в эпизоде "Voices from DARPA", посвященном теме "Демистификация глубоких подделок", на сайте https://www.darpa.mil/news-events/2023-06-16