Во время встречи лидеров СНГ будут введены ограничения на улицах БишкекаПытки и насилие. Суд по продлению меры пресечения главе American school отложен

Дипфейки актера Тома Хэнкса и блогера Mr.Beast используются в рекламе и скаме

 

Фотографии: knews.kg

7 октября 2023, 10:53       Источник knews.kg       Комментарии

На этой неделе актер Том Хэнкс, ведущая ток-шоу CBS Mornings и известный ютубер MsBeast предупредили, что мошенники используют их образы в рекламе, которая создается при помощи ИИ, пишут СМИ.
Первым о рекламных дипфейках предупредил своих подписчиков Том Хэнкс, сообщив в Instagram*, что его образ, оказывается, используется в ИИ-рекламе некой схемы стоматологического обслуживания. Актер подчеркнул, что не имеет к этому никакого отношения. "Я никогда не слышал об этом продукте и не использовал его! Пожалуйста, не дайте обмануть себя этими ИИ-видео", — писал Хэнкс.
Вскоре после этого похожее предупреждение опубликовала телеведущая CBS Гейл Кинг, обнаружившая, что ее образ используется для дипфейковой рекламы продуктов для похудения.

Затем с обращением к своим подписчикам выступил известный ютубер MrBeast. В социальной сети X (бывший Twitter) MrBeast заявил, что ему показали дифпейковое видео, где его речь и движения губ созданы с помощью ИИ, и мошенники рекламируют таким способом фальшивую раздачу iPhone 15.
"Многие люди видели эту мошенническую дипфейк-рекламу с моим участием, — пишет MrBeast. — Готовы ли платформы социальных сетей справиться с ростом количества дипфейков и использованием искусственного интеллекта? Это серьезная проблема".
Судя по всему, все эта мошенническая реклама была создана с помощью ИИ-инструментов, которые позволяют изменить артикуляцию человека в кадре, а голоса тоже синтезированы ИИ (1, 2) на основе свободно доступных в сети образцов.
Как уже не раз предупреждали эксперты, убедительные дипфейки, созданные с помощью ИИ, становятся все более острой проблемой, которая в будущем может в целом подорвать доверие и поставить под угрозу надежность современных коммуникационных технологий, так как придется сомневаться буквально во всем.
В настоящее время такие гиганты, как Google и OpenAI, работают над внедрением "водяных знаков" в контент, сгенерированный искусственным интеллектом, а также специальных метаданных, которые помогут отслеживать его происхождение. Однако, как уже продемонстрировали исследователи, такие "водяные знаки" можно легко обойти. К тому же существуют и продолжат существовать опенсорсные ИИ-инструменты, которые вообще не маркируют контент никакими "водяными знаками".

Ссылка на новость:
https://for.kg/news-824081-ru.html

Читайте также

Дело блогера. Адылу Акжол уулу снова продлили срок содержания под стражей

"Каждый кричит что хочет": Малышева раскритиковала врачей-блогеров

В Бишкеке на заборах и домах рекламируют наркотики

Поединок Майка Тайсона с Джейком Полом завершился победой блогера

Правительство Кыргызстана утвердило запрет на рекламу услуг ясновидящих

 

SAPE:

 

АГРОПОРТАЛ КЫРГЫЗСТАНА, НОВОСТИ СЕЛЬСКОГО ХОЗЯЙСТВА
Обучение ювелирному делу в Бишкеке
МСН Общественно-политическая газета

18+

FOR.kg - Кыргызстан новости, пресса

Поисковый сайт новостей (новостной агрегатор, агрегатор СМИ) FOR.kg

Прежде прочтите Соглашение по использованию поискового сайта FOR.kg

При использовании материалов сайта FOR.kg - ссылка на источник обязательна

По всем вопросам обращайтесь в Службу поддержки

Top.Mail.Ru