Ученые Самарского национального исследовательского университета имени академика С.П Королева создадут веб-сервис, с помощью которого любой желающий сможет проверить подлинность того или иного цифрового фотоснимка или видеоролика и обнаружить признаки подделки. Программный комплекс, использующий алгоритмы обнаружения искажений, позволит автоматически выявлять следы внесенных в цифровое изображение или видеоряд изменений и определит степень достоверности предложенного к анализу цифрового материала. Особую актуальность разработке подобного сервиса придает приобретающая все большую остроту проблема распространения дипфейк-подделок в Интернете*.
В большинстве своем современные дипфейк-технологии позволяют заменить лицо человека в любом видеоролике или вложить ему в уста слова, которых он никогда не произносил. Такие подделки подрывают репутацию людей и служат инструментом шантажа и мошенничества. В Интернете размещено множество поддельных видео с известными людьми, в том числе, например, с бывшим президентом США Бараком Обамой, главой "Фейсбука" Марком Цукербергом и другими.
"По сути, мы разрабатываем инструмент для борьбы с фейковыми новостями, в которых используются так называемые дипфейки. Уже до конца этого года мы планируем создать на базе нашего университета веб-сервис, с помощью которого можно будет проверять подлинность тех или иных изображений и видеороликов. Любой сможет отправить на этот сайт фотографии или видео, или указать ссылку, после чего веб-сервис с помощью нейросетей определит коэффициент достоверности представленного материала и, например, выявит признаки подделки", - рассказал доцент кафедры геоинформатики и информационной безопасности Самарского университета Андрей Кузнецов.
В своей разработке самарские ученые предложили ряд оригинальных методов и подходов, которые включают в себя как классические математические методы обработки цифровых изображений и решения, основанные на специальных локальных признаках и механизмах предобработки, так и методы глубокого обучения, позволяющие настраивать нейронные сети для обнаружения отдельных искусственных изменений изображения.
"При анализе цифрового фотоснимка изображение разбивается для анализа на маленькие квадраты, а видео разделяется на кадры, и в каждом кадре анализируются локальные области на предмет наличия искажений. Особенно тщательно при этом проверяются контуры, потому что если в оригинальном видео заменено лицо человека, то наша задача найти в кадре неоригинальные локальные области, выявить стык, некий шов между оригинальным и неоригинальным изображениями - как ты его ни скрывай, они все равно отличаются. Естественно, исходное изображение мы не восстановим, но мы сможем определить признаки подделки или посчитать коэффициент доверия-недоверия к данному видео", - подчеркнул Андрей Кузнецов.
Ранее сотрудники кафедры геоинформатики и информационной безопасности Самарского университета разработали программу для проверки достоверности цифровых фотоснимков и оцифрованных документов. Создание веб-сервиса для разоблачения фото- и видеофейков является продолжением работы ученых в этом направлении.
"Такой веб-сервис будет полезен людям, которые работают постоянно с большими объемами видеоданных, например, журналистам. Насколько мне известно, подобного проекта в России еще нет. Чтобы человек мог быстро просканировать видео, полученное, к примеру, из недостоверного источника - из какого-нибудь телеграм-канала, и если, скажем, веб-сервис присвоит этому видеоролику малый коэффициент доверия, то журналист не станет делать новость, не будет распространять фейк. Можно сказать, что наш проект - это попытка соблюдения своего рода информационной гигиены в интернете", - отметил ученый.
Справочно
*Дипфейк (deepfake, от deep learning "глубинное обучение" и fake "подделка") - технология синтеза изображений и видео с помощью искусственного интеллекта, когда в оригинальную цифровую фотографию или видеоролик внедряют новые элементы, например, чье-то лицо. Для создания таких подделок используются генеративно-состязательные нейросети (GAN). Одна нейросеть создает поддельное изображение, постепенно улучшая качество подделки, а вторая нейросеть состязается с первой, пытаясь отличить подделку от оригинала и в случае определения фальшивых элементов отправляет ее первой нейросети на дополнительную переделку, пока подделка не будет выглядеть подлинной.
Фото: Анар Мовсумов