Deepfakes и Deep Media: Новое поле битвы за безопасность
К
оличество дипфейков очень быстро растет. Предвосхищая такого рода новую реальность, объединение академических учреждений, технологических фирм и некоммерческих организаций разрабатывает способы выявления вводящих в заблуждение медиа, генерируемых искусственным интеллектом (ИИ). Дипфейковый текст Современные языковые модели теперь могут писать тексты, близкие по подаче и убедительности к написанным человеком. Например, модель GPT-2 за считанные секунды создает отрывки в стиле статей New Yorker или сценариев для игры «Мозговой штурм». В поисках системы, способной обнаруживать синтетическое содержимое, исследователи Школы компьютерных наук и инженерии имени Пола Г.Аллена Университета Вашингтона и Института искусственного интеллекта имени Аллена разработали Grover. Этот алгоритм смог отобрать 92% дипфейков в тестовом наборе. Команда ученых из Гарварда и MIT-IBM Watson AI Lab отдельно выпустила The Giant Language Model Test Room, web-среду, которая пытается определить был ли текст написан с помощью модели ИИ. Учитывая семантический контекст, она предсказывает, какие слова наиболее вероятно появятся в предложении, по сути, написав свой собственный текст. Дипфейковые видео Современный ИИ, генерирующий видео, так же опасен и обладает такими же, если не большими, возможностями, как и его естественный аналог. Однако даже самые реалистичные дипфейки содержат артефакты, которые их и выдают. Команда
4
/6/2021
из Калифорнийского университета в Беркли и Университета Южной Калифорнии подготовила модель для поиска точных «единиц действия лица» - данных о движениях лиц людей, тиках и выражениях, в том числе при поднятии верхней губы и вращении головы, когда люди хмурятся, чтобы определить фальшивые видео с точностью более 90%. Аналогичным образом в августе 2018 года участники программы «Медиа-криминалистика» Агентства перспективных исследований в области обороны США (DARPA) протестировали системы, способные обнаруживать видео, сгенерированное ИИ, по таким признакам, как неестественное мигание, странные движения головой, необычный цвет глаз и многое другое. Чтобы ускорить этот процесс, Facebook наряду с Amazon Web Services (AWS), объединением Partnership on AI и учеными из ряда университетов возглавили Deepfake Detection Challenge. Программа имеет набор образцов видео с метками, указывающими на то, что на какие-то из них воздействовали с помощью искусственного интеллекта. В сентябре 2019 года компания Google выпустила коллекцию визуальных подделок в рамках теста FaceForensics, а совсем недавно исследователи из SenseTime совместно с Технологическим университетом Наньяна в Сингапуре разработали DeeperForensics-1.0, набор данных для обнаружения подделок лица. Дипфейковые аудио ИИ и машинное обучение подходят не только для синтеза видео и текста. Они также могут копировать голоса. Коммерческим системам, вроде Resemble или Lyrebird, для этого требуется несколько минут аудиозаписей, в то время как сложные модели, такие как новей-
шая реализация Baidu Deep Voice, могут скопировать голос всего лишь с образца длительностью 3,7 секунды. Инструментов для обнаружения аудиодипфейков пока не так много, но решения начинают появляться. Команда Resemble выпустила инструмент с открытым исходным кодом под названием Resemblyzer, который использует ИИ и машинное обучение для обнаружения дипфейков путем получения голосовых образцов высокого уровня и прогнозирования того, являются ли они реальными или смоделированными. В январе 2019 года в рамках Google News Initiative, компания Google выпустила корпус речи, содержащий тысячи фраз, произнесенных с помощью моделей text-to-speech. Образцы были взяты из английских статей, прочитанных 68 различными синтетическими голосами на разных диалектах. Многое можно потерять Но ни один детектор пока не достиг идеальной точности, и исследователи еще не выяснили, как определить фальшивое авторство. Компании, которые многое могут потерять из-за дипфейков, должны разработать и внедрить в свои продукты технологию глубокого обнаружения, близкую к антивирусным программам. И в этой области уже появились подвижки. Например, Facebook использует комбинацию автоматизированных и ручных систем для обнаружения поддельного контента, а Twitter предложил отмечать дипфейки и удалять те, которые могут причинить вред.
Кайл Виггерс (Kyle Wiggers), автор ресурса VentureBeat