
Модели искусственного интеллекта способны генерировать и усиливать пропаганду и ложные сведения, говорится в докладе “РИА-Аналитика” “Влияние искусственного интеллекта на медийное пространство”.
“Наука о данных уже фиксирует проблемы, связанные с ИИ-порожденными сообщениями. Например, большие языковые модели статистически подбирают слова, не всегда понимая смысл, из-за чего могут непреднамеренно воспроизводить стереотипы. Более того, такие модели способны генерировать и усиливать ложные сведения и пропаганду, если обучены на смещённых данных”, – отмечают аналитики.
В докладе подчёркивается, что, если алгоритм массово распространяет идею, часть общества начинает действовать, исходя из этой идеи, тем самым делая её “реальной” в социальном смысле.
“Например, достаточно убедительная дезинформация о кризисе может спровоцировать панические настроения или экономические решения, которые материализуют искусственно подготовленный кризис”, – считают авторы доклада.
Аналитики пояснили, что неверифицированный генеративный ИИ вместе с данными социальных сетей может стать инструментом массовой дезинформации, способный адаптироваться и учиться на реакциях людей в режиме реального времени.
“Масштаб и скорость такого воздействия беспрецедентны, и традиционные методы опровержения фейков часто не успевают среагировать”, – заключили авторы доклада.
Полный текст доклада читайте на сайте ria.ru в разделе РИА Новости Аналитика.