Россиянам рассказали, как не стать жертвой розыгрыша с помощью ИИ

Вместе с тем, возросло и количество преступлений и розыгрышей, использующих искусственный интеллект. Поэтому специалисты из управления по борьбе с противоправным использованием информационно-коммуникационных технологий МВД РФ рекомендуют обращать особое внимание на проверку источников видео и фотографий, а также использовать специализированные сервисы.
Согласно данным специалистов, с помощью ИИ могут быть созданы реалистичные сценарии, направленные на манипуляцию сознанием людей. Например, подростки могут сгенерировать изображение неопрятного мужчины, представив его как "бездомного", находящегося у них дома. После этого они сообщают родителям о впуске "гостя", чтобы зафиксировать реакцию родителей на видео и разместить ее в социальных сетях.Для защиты от таких манипуляций, важно быть бдительным и использовать методы проверки информации, особенно если она поступает из неизвестных источников. Обратный поиск по фото и видео, а также обращение к специализированным сервисам помогут избежать стать жертвой манипуляций, основанных на использовании искусственного интеллекта.В современном мире создание дипфэйков стало легким и доступным процессом, что отмечают в ведомстве. Они подчеркивают, что в розыгрышах нет злого умысла, но это является отражением текущей реальности.
Делая акцент на технологическом аспекте, сообщение отмечает, что современные нейросети способны автоматически адаптировать выражения лица и голос под заданный текст. Это делает видео довольно убедительными, но при этом возникают серьезные риски, такие как распространение фейковых новостей, высказываний от имени известных личностей или мошеннических схем.
Кроме того, в МВД делятся советом о том, как избежать стать жертвой подобных махинаций. Они подчеркивают, что важно проверять источник информации - если видео вызывает сомнения в его подлинности, это должно послужить сигналом для остановки и проведения дополнительной проверки. Проверка официальных аккаунтов, сайтов или Telegram-каналов поможет избежать попадания в ловушку дезинформации.
При анализе видео стоит обращать внимание не только на общие детали, но и на мелкие артефакты, которые могут выдать синтетическую природу материала. Например, неровные контуры лица, "дрожащие" тени, странные движения губ и глаз, а также запаздывание звука могут свидетельствовать о поддельности видео.Важно также учитывать контекст. Если в ролике человек говорит необычно для себя, стоит проверить, соответствует ли это его реальной позиции. Также, если фотография с бездомным приходит от ребенка, следует быть бдительным. Один из способов проверить подлинность кадра или фрагмента видео — воспользоваться обратным поиском через Яндекс или Google Images. Это поможет определить, не был ли данный контент заимствован из другого источника.Существует возможность воспользоваться специализированными сервисами, которые проводят анализ видеоматериалов и определяют вероятность использования синтетического монтажа. Кроме того, как сообщается правоохранительными органами, в России уже проводятся испытания нейросетевых детекторов дипфейков, включая face-swap в видеозвонках. Важно отметить, что ни одна технология не обеспечивает абсолютной защиты от фейков. Алгоритмы лишь оценивают вероятность, а окончательное решение всегда остается за человеком, подчеркнули в управлении.Источник и фото - ria.ru






