🥸Вчера OpenAI выложили отчет, в котором обличили масштабные кампании по дезинформации, проводимые в 2024 году в телеграме, твиттере, ютубе и других соцсетях с использованием инструментов ИИ. Выявленные кампании были направлены на манипуляцию общественным мнением и организованы государственными и коммерческими структурами из разных стран (среди них Россия, Китай, Иран, Израиль).
Эти структуры применяли ИИ, чтобы создавать, улучшать качество и увеличивать объемы политического и идеологического контента, а также писать комментарии для расширения охвата и вовлечения аудитории. Основная их цель - пропаганда поддержки своих стран и критика оппонентов.
Для выявления дезинформации OpenAI использует технологии анализа больших данных, которые выявляют подозрительные паттерны и аномалии в онлайн-контенте. Модели обучены распознавать особые признаки фальшивых новостей, ботов и координированных кампаний - это могут быть синтаксические, лексические и семантические аномалии, а также подозрительная сетевая активность.
За последние годы мы вроде научились бдительнее относиться к информации, но и техника не стоит на месте. Исследования показывают, что чатботы могут быть довольно хороши в приведении аргументов, которые покажутся убедительными для конкретного собеседника. А биг дата поможет в нахождении точек давления и в объединении сторонников. Вообще, будущее идеологий - животрепещущая проблема в контексте развития ИИ.
Вот это видео по теме мне показалось интересным.
Эти структуры применяли ИИ, чтобы создавать, улучшать качество и увеличивать объемы политического и идеологического контента, а также писать комментарии для расширения охвата и вовлечения аудитории. Основная их цель - пропаганда поддержки своих стран и критика оппонентов.
Для выявления дезинформации OpenAI использует технологии анализа больших данных, которые выявляют подозрительные паттерны и аномалии в онлайн-контенте. Модели обучены распознавать особые признаки фальшивых новостей, ботов и координированных кампаний - это могут быть синтаксические, лексические и семантические аномалии, а также подозрительная сетевая активность.
За последние годы мы вроде научились бдительнее относиться к информации, но и техника не стоит на месте. Исследования показывают, что чатботы могут быть довольно хороши в приведении аргументов, которые покажутся убедительными для конкретного собеседника. А биг дата поможет в нахождении точек давления и в объединении сторонников. Вообще, будущее идеологий - животрепещущая проблема в контексте развития ИИ.
Вот это видео по теме мне показалось интересным.