M**a будет наказывать пользователей за сокрытие происхождения контента, созданного ИИ

В ближайшие месяцы Meta начнёт помечать изображения, созданные искусственным интеллектом и загруженные в Facebook, Instagram и Threads — так компания готовится к американским выборам. Пользователей платформ, загрузивших созданные ИИ реалистичные аудио- и видеофайлы, но отказавшихся раскрыть их происхождение, будет ожидать наказание.

 Источник изображения: Gerd Altmann / pixabay.com

Источник изображения: Gerd Altmann / pixabay.com

Президент Meta по международным делам Ник Клегг (Nick Clegg) заявил, что эти меры призваны активизировать технологическую отрасль: генерируемые ИИ медиафайлы всё труднее отличить от настоящих. В компании также разрабатываются инструменты для обнаружения созданных ИИ материалов, даже если их метаданные были отредактированы. У Meta есть собственный генератор изображений Imagine, и созданные им картинки на платформах компании уже маркируются водяным знаком Imagined with AI; таким же образом будут помечаться картинки, появившиеся на свет благодаря инструментам Google, OpenAI, Microsoft, Adobe, Midjourney и Shutterstock.

Технологическая отрасль, по мнению господина Клегга, всё больше отстаёт в разработке стандартов идентификации созданных ИИ аудио и видео — Meta приходится внимательно следить за тем, как они могут использоваться для подлога, но выявлять все материалы самостоятельно ей не под силу. Компания при поддержке партнёров развивает несколько инициатив по обеспечению подлинности контента. Adobe представила систему Content Credentials маркировки ИИ-контента в метаданных и при выводе на сайты; Google недавно представила новую версию водяного знака SynthID для аудиофайлов. Meta вскоре начнёт требовать от своих пользователей раскрывать информацию о генерируемых ИИ реалистичных видео- и аудиозаписях, добавил Клегг. Тех, кто этого не сделает, будут ожидать последствия: от предупреждения до удаления публикации с таким содержимым.

В этом году в США пройдут выборы президента, и в преддверии этого события уже появилось множество созданных ИИ вирусных постов от лица политиков. Но, по мнению Клегга, такие материалы либо не имеют политического веса, либо оперативно обнаруживаются администрацией платформ. В Meta также стартует тестирование больших языковых моделей, обученных по стандартам сообщества — они выступят как вспомогательный инструмент для модераторов-людей.

Источник: 3dnews.ru

Ответить

Ваш адрес email не будет опубликован. Обязательные поля помечены *