В социальных сетях распространяется фейковая информация якобы от имени губернатора Ивановской области Станислава Воскресенского. В видеоролике, созданном с помощью нейросети, глава региона пытается донести несколько ключевых мыслей, совмещая оправдание и перекладывание ответственности.
В социальных сетях распространяется фейковая информация якобы от имени губернатора Ивановской области Станислава Воскресенского.
В видеоролике, созданном с помощью нейросети, глава региона пытается донести несколько ключевых мыслей, совмещая оправдание и перекладывание ответственности. Фейк: Воскресенский обвинил российские власти и армию в невозможности предотвратить атаку дронов на военный аэродром в Иванове. В действительности же глава 37-го региона никогда не выступал с подобными заявлениями. Мы наблюдаем очередной пример применения технологии дипфейк. Авторам вброса удалось изменить содержание речи ивановского губернатора на записи, сделанной совсем в другое время и по другому поводу. В последние дни в соцсетях активно распространяются фальшивые видео с участием российских губернаторов, созданные с помощью нейросетей. Эта тенденция не нова: украинские структуры уже не раз использовали подобные методы в информационной войне. Пик первой волны пришелся на август 2024 года, когда в сети резко увеличилось количество поддельных роликов на политическую и военную тематику. Согласно анализу АНО «Диалог Регионы», за последние полгода масштабы атак только возросли. Один из самых массовых случаев был зафиксирован в мае 2025 года, когда за 24 часа под удар попали главы Нижегородской, Кировской, Липецкой, Томской, Новосибирской областей, Ямало-Ненецкого автономного округа и других регионов. Ежедневно в сети появлялись десятки фейковых видео. Статистика дипфейков в 2025 году:111 оригинальных роликов
7,5 тысяч их копий и репостов Это на 32% больше, чем за весь 2024 год, и в 4 раза превышает показатели 2023-го.
Как отличить дипфейк?
Проверьте источник - чаще всего подделки создают на основе реальных записей. Попробуйте найти оригинал.
Обратите внимание на мимику - неестественные движения губ, глаз или бровей выдают фальшивку.
Следите за артикуляцией - если звук не совпадает с движением губ, это явный признак монтажа.
Прислушайтесь к голосу - синтетическая речь часто звучит монотонно и без эмоций.
Изучите детали - размытые контуры лица или фона могут указывать на обработку ИИ.
Оставайтесь бдительными! Получайте информацию только из официальных источников - проверенных соцсетей и СМИ. Не дайте себя обмануть!
Свежие комментарии