В Алма-Ате прошел международный цифровой форумВ Турции в результате сильного землетрясения погибло 3 человека

Мир стоит на краю пропасти: Искусственный интеллект создает качественный фейковый контент

 

Фотографии: knews.kg

6 февраля 2023, 12:50       Источник knews.kg       Комментарии

В 2023 году мир почувствует новое бедствие: что-то вроде пандемии, но это не иммунная система калечит легкие… Это пандемия неразличимости правды и лжи, как для отдельных людей, так и для обществ всех вид шкалы. По словам одного из самых авторитетных в мире китайских специалистов по искусственному интеллекту (ИИ) Кай-Фу Ли, работавшего в ведущих мировых ИТ-компаниях, осознание этого риска более вероятно, чем ядерная война или голод, которыми регулярно пугает население всего Земного шара. Об этом сообщают СМИ.
По словам Кай-Фу Ли, обратившегося к своим коллегам, разработчикам искусственного интеллекта, мир стоит на краю пропасти, из которой мы летим в бездну неуправляемой обычными людьми лжи, льющейся из компьютеров и телеэкранов.
Вот представьте, телезвезды, которым вы очень доверяли, вдруг заговорили… не совсем наоборот, но вы вдруг заметили некий "левый" или "правой" уклон в их речах. Пример: Известный ведущий патриотического шоу, борец за традиционные ценности, вдруг заявляет, что помирился с идеологическими врагами и призывает массы своих поклонников следовать за ним. Да, многие сразу "взбесятся" или решат, что их кумир сошел с ума. Но мало кто заподозрит, что человек, который ведет им трансляцию с компьютера или телевизора, не является их кумиром, а всего лишь его ботом. Дипфейк — это реалистичная замена видеокадров, созданных с помощью нейросети. Такой же заменой может стать фото и аудио материал.
Кай-Фу Ли считает, что реализация прогноза о потоках ложного контента от нейросети еще опаснее, чем голод или военных конфликты. С последними на Земле знают, как бороться. А вот потоки ложной информации, неотличимой от правды, активно воспринимаются людьми "за чистую монету".
Нейросеть способна любое утверждение сопроводить ссылками на работы ученых и аргументировать позицию. Причем делает это быстро и качественно, не углубляясь в достоверность используемых материалов.
Дальнейшее внедрение искусственного интеллекта в виде технологии AICG грозит созданием алгоритмической пропаганды. Ведь система учится на множестве данных, не всегда они правдивы. Но отличать правду и ложь алгоритм не умеет. Из-за этого в итоге получается правдоподобный искаженный контент.
"Возьмем, к примеру, версию с плоской землей, — говорит эксперт по информационным технологиям. — Обывателю будет очень сложно написать об этом аргументированный текст с множеством ссылок на "достоверные" источники. ИИ, напротив, ничего не отвергнет и благодаря скоростным возможностям обработки сотен необходимых материалов и предметов выведет любую нужную теорию за несколько часов. Выводов ученых будет мало — он их еще и сфабрикует.
При этом люди все еще быстро теряют критическое мышление. Вместе с правдоподобностью дипфейков и фейкового контента от ИИ это создает взрывоопасную смесь. В Китае даже уже принимают законодательство, обязывающее помечать данные, созданные нейросетью.
Кай-Фу Ли подчеркивает, что мир стремительно идет к ситуации, когда отличить правду от лжи будет практически невозможно. А самое страшное, что даже в теории нет ни одного инструмента, позволяющего сделать это.

 

SAPE:

 

АГРОПОРТАЛ КЫРГЫЗСТАНА, НОВОСТИ СЕЛЬСКОГО ХОЗЯЙСТВА
Обучение ювелирному делу в Бишкеке
МСН Общественно-политическая газета

18+

FOR.kg - Кыргызстан новости, пресса

Поисковый сайт новостей (новостной агрегатор, агрегатор СМИ) FOR.kg

Прежде прочтите Соглашение по использованию поискового сайта FOR.kg

При использовании материалов сайта FOR.kg - ссылка на источник обязательна

По всем вопросам обращайтесь в Службу поддержки

Top.Mail.Ru