default-816

Модели искусственного интеллекта способны генерировать и усиливать пропаганду и ложные сведения, говорится в докладе “РИА-Аналитика” “Влияние искусственного интеллекта на медийное пространство”.

“Наука о данных уже фиксирует проблемы, связанные с ИИ-порожденными сообщениями. Например, большие языковые модели статистически подбирают слова, не всегда понимая смысл, из-за чего могут непреднамеренно воспроизводить стереотипы. Более того, такие модели способны генерировать и усиливать ложные сведения и пропаганду, если обучены на смещённых данных”, – отмечают аналитики.

В докладе подчёркивается, что, если алгоритм массово распространяет идею, часть общества начинает действовать, исходя из этой идеи, тем самым делая её “реальной” в социальном смысле.

“Например, достаточно убедительная дезинформация о кризисе может спровоцировать панические настроения или экономические решения, которые материализуют искусственно подготовленный кризис”, – считают авторы доклада.

Аналитики пояснили, что неверифицированный генеративный ИИ вместе с данными социальных сетей может стать инструментом массовой дезинформации, способный адаптироваться и учиться на реакциях людей в режиме реального времени.

“Масштаб и скорость такого воздействия беспрецедентны, и традиционные методы опровержения фейков часто не успевают среагировать”, – заключили авторы доклада.

Полный текст доклада читайте на сайте ria.ru в разделе РИА Новости Аналитика.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *