Изображение предоставлено: Getty Images через AFP

Facebook и Instagram будут помечать контент, измененный в цифровой форме, как «сделанный с помощью ИИ».

A Мета, владелец Facebook и Instagram, объявил в пятницу о серьезных изменениях в своей политике в отношении средств массовой информации, созданных и измененных в цифровом формате, в преддверии выборов, которые проверят ее способность контролировать вводящий в заблуждение контент, созданный с помощью цифровых технологий. искусственный разум.

ПУБЛИЧНОСТЬ

В мае гигант социальных сетей начнет наклеивать маркировку «Сделано с помощью ИИ» на созданные ИИ видео, изображения и аудио, опубликованные на веб-сайтах. что его цель e Instagram, расширяя политику, которая ранее касалась лишь небольшой части отредактированных видео. Об этом в своем блоге сообщила вице-президент по контентной политике Моника Бикерт..

Bickert disse que a Meta também aplicaria etiquetas separadas e mais proeminentes a mídia digitalmente alterada que representa um “risco particularmente alto de enganar materialmente o público sobre um assunto importante”, independentemente de o conteúdo ter sido criado usando IA ou outras ferramentas. A Meta começará a aplicar os rótulos de “alto risco” mais proeminentes imediatamente, disse um porta-voz.

Этот подход изменит подход компании к манипулированию контентом: вместо удаления ограниченного набора публикаций он будет сохранять контент в сети, одновременно предоставляя зрителям информацию о том, как он был создан.

ПУБЛИЧНОСТЬ

Ранее Meta анонсировала схему обнаружения изображений, созданных с использованием инструментов генеративного искусственного интеллекта других компаний, с помощью невидимых маркеров, встроенных в файлы, но на тот момент не уточнила дату начала.

Um porta-voz da empresa disse que a abordagem de rotulagem se aplicaria ao conteúdo postado no Facebook, Instagram e Threads. Seus outros serviços, incluindo WhatsApp e fones de realidade virtual Quest, são cobertos por regras diferentes.

Изменения происходят за несколько месяцев до президентских выборов в США в ноябре, которые, как предупреждают исследователи технологий, могут быть преобразованы с помощью генеративных технологий искусственного интеллекта. Политические кампании уже начали развертывание инструментов искусственного интеллекта в таких местах, как Индонезия, расширяя границы руководящих принципов, выпущенных такими поставщиками, как Meta и лидером рынка генеративного искусственного интеллекта. OpenAI.

ПУБЛИЧНОСТЬ

В феврале наблюдательный совет Meta счел существующие правила компании в отношении манипулирования СМИ «непоследовательными» после просмотра видео с Джо Байден опубликовал в Facebook в прошлом году публикацию, в которой были изменены реальные изображения, чтобы ложно предположить, что президент США вел себя ненадлежащим образом.

Отснятому материалу было разрешено оставаться в сети, поскольку существующая политика Меты в отношении «манипулирования СМИ» запрещает обманчиво измененные видео только в том случае, если они созданы искусственным интеллектом или если создается впечатление, что люди говорят слова, которые они никогда не говорили.

O conselho disse que a política também deveria se aplicar a conteúdo não-IA, que não é “necessariamente menos enganoso” do que o conteúdo gerado por IA, bem como a conteúdo somente de áudio e vídeos que mostram pessoas fazendo coisas que nunca disseram ou fizeram.

ПУБЛИЧНОСТЬ

Читайте также:

* Текст этой статьи частично создан с помощью инструментов искусственного интеллекта, современных языковых моделей, которые помогают в подготовке, просмотре, переводе и обобщении текстов. Текстовые записи были созданы пользователем Curto Новости и ответы инструментов искусственного интеллекта использовались для улучшения конечного контента.
Важно подчеркнуть, что инструменты ИИ — это всего лишь инструменты, и окончательная ответственность за опубликованный контент лежит на Curto Новости. Используя эти инструменты ответственно и этично, наша цель — расширить возможности коммуникации и демократизировать доступ к качественной информации.
🤖

прокрутить вверх