OpenAI создала инструмент для защиты от ИИ-фейков

OpenAI создала инструмент для защиты от ИИ-фейков

Инструмент демонстрирует высокую (98%) точность обнаружения изображений, созданных DALL-E 3, но может испытывать трудности с распознаванием контента, подвергшегося незначительным изменениям (такими как обрезка) или созданного аналогичными ИИ-инструментами. Распознавание также ухудшается, если изменить оттенки изображения.

Разработка "ИИ-детектора" обусловлена растущими опасениями по поводу распространения фейковых изображений и другого контента, созданных с помощью генеративных моделей искусственного интеллекта. Это вносит путаницу в понимание реальности и вызывает беспокойство по поводу возможного влияния на избирательные кампании 2024 года.

Политики обеспокоены тем, что избиратели могут чаще сталкиваться с созданными искусственным интеллектом изображениями в Интернете, а доступность таких инструментов, как DALL-E 3, ускоряет процесс создания подобного контента. "Выборы, безусловно, являются движущим фактором этой работы", – заявил в комментарии для The Wall Street Journal Дэвид Робинсон, отвечающий за политическое планирование в OpenAI.

OpenAI создала инструмент для защиты от ИИ-фейков

​"Ромир": треть россиян считает, что ИИ принесет больше проблем, чем пользы читайте также

Помимо инструмента классификации изображений, OpenAI объявила о присоединении к отраслевой группе под руководством Microsoft и Adobe, которая стремится создать систему атрибуции контента для онлайн-изображений. OpenAI и Microsoft также создают фонд на сумму 2 миллиона долларов для поддержки образовательных инициатив в области искусственного интеллекта.

Источник

Ссылка на основную публикацию