10 мая 2024, 7:02
Источник knews.kg
Комментарии
Возможности инструментов для создания изображений на основе ИИ достигли такого уровня, что люди могут принимать их за изображения, созданные не ИИ, или за подлинные изображения. Это вызывает опасения относительно возможности их неправомерного использования, пишут СМИ.
OpenAI уже ввела водяные знаки для изображений, сгенерированных DALL-E 3, чтобы сохранить прозрачность источника и соблюсти подлинность. Сейчас компания разрабатывает новый инструмент, который сможет отличать реальные изображения от тех, которые генерируются с помощью разработанной компанией модели генерации изображений на основе текста DALL-E.
Инструменты генеративного ИИ от OpenAI будут включать метаданные C2PA В официальном блоге OpenAI появилось сообщение о том, что компания работает над новыми методами обнаружения контента, сгенерированного искусственным интеллектом. По словам представителей компании, их цель — помочь исследователям изучить подлинность контента и присоединиться к Коалиции по проверке подлинности и достоверности контента (C2PA), широко используемому стандарту для сертификации цифрового контента. Это позволит создателям помечать и сертифицировать свой контент, чтобы подтвердить его истинное происхождение.
OpenAI заявляет, что после широкого запуска метаданные C2PA будут интегрированы в Sora, модель генерации видео, разработанную компанией. Для тех, кто не знает, Sora, скорее всего, будет премиум-инструментом для создания видео из текста, как в DALL-E 3, где доступ к нему получат только платные подписчики. Согласно предыдущему отчету, Sora станет общедоступной в 2024 году.
OpenAI создает новый инструмент для обнаружения контента, созданного DALL-E 3 Как уже упоминалось выше, OpenAI также работает над новым инструментом, который использует ИИ для обнаружения изображений, созданных DALL-E 3. Точнее, он предсказывает вероятность того, что изображение было сгенерировано инструментом. По словам представителей компании, изображение все еще можно обнаружить после сжатия, изменения насыщенности или даже обрезки. Кроме того, эти инструменты нацелены на то, чтобы быть более устойчивыми к попыткам удалить сигналы о происхождении контента.
Точность обнаружения изображений, созданных с помощью DALL-E, достигает 98 %, и, что еще важнее, не выдает изображения, созданные не ИИ, за сгенерированные ИИ.
Компания уже открыла заявки на доступ к новому инструменту обнаружения изображений для первой группы тестеров. В нее входят исследовательские лаборатории и журналистские некоммерческие организации, ориентированные на исследования, и она намерена собрать отзывы через программу доступа для исследователей.