Искусственный интеллект

Генеральный директор рекламной компании стал объектом дипфейка; узнать больше

Написал
Винисиус Сикейра

Глава крупнейшей в мире рекламной группы стал объектом тщательно продуманного мошенничества deepfake в котором использовался искусственный голосовой клон. Генеральный директор WPP Марк Рид подробно описал попытку мошенничества в недавнем электронном письме руководству, в котором предупреждает других сотрудников компании, чтобы они были внимательны к звонкам, якобы поступающим от высшего руководства.

Мошенники создали аккаунт в WhatsApp с общедоступным изображением Рида и использовали его для организации встречи в Microsoft Команды, которые, похоже, были с ним и еще одним высокопоставленным руководителем WPP. Во время встречи самозванцы использовали голосовой клон руководителя, а также его изображения на YouTube. Мошенники выдали себя за Рида за кадром, используя окно чата встречи. Мошенничество, которое не увенчалось успехом, было направлено против «руководителя агентства», которому предлагалось открыть новый бизнес в попытке вымогать деньги и личные данные.

«К счастью, злоумышленникам это не удалось», — написал Рид в электронном письме. «Нам всем необходимо проявлять бдительность в отношении методов, выходящих за рамки электронной почты, чтобы воспользоваться преимуществами виртуальных встреч, искусственного интеллекта и дипфейков».

Представитель WPP в своем заявлении подтвердил, что попытка фишинга не увенчалась успехом: «Благодаря бдительности наших людей, включая упомянутого руководителя, инцидент был предотвращен». WPP не ответила на вопросы о том, когда произошла атака и какие руководители, кроме Рида, были в ней замешаны.

Ранее число дипфейковых атак в корпоративном мире резко возросло за последний год. голосовые клоны искусственный интеллект (ИИ) Они обманули банки, выманили миллионы финансовых компаний и подняли тревогу отделов кибербезопасности.

Попытка мошенничества с WPP также использовала генеративный искусственный интеллект для клонирования голоса, но также включала и более простые методы, такие как использование общедоступного изображения и его использование в качестве фотографии профиля контакта. Эта атака является типичным примером многих инструментов, которые теперь имеются в распоряжении мошенников для имитации законных корпоративных коммуникаций и выдачи себя за руководителей.

Читайте также:

Последний раз это сообщение было изменено 10 мая 2024 г., 15:12.

Винисиус Сикейра

Последние сообщения

Nvidia: узнайте больше об одном из «любимцев» мира искусственного интеллекта

Nvidia, основанная в 1993 году Джен-Сунь Хуангом, Крисом Малаховски и Кертисом Приемом, является…

3 июня 2024

PI: Проект Amazon AI проверяет продукты перед отправкой

Проект Amazon PI, получивший название «Частный детектив», сочетает в себе генеративный искусственный интеллект и компьютерное зрение…

3 июня 2024

Напомним: функция Windows AI захватывает весь экран и беспокоит экспертов по безопасности

A Microsoft собирается запустить новую функцию искусственного интеллекта под названием «Вспомнить», которая фиксирует…

3 июня 2024

доклад OpenAI показывает использование ИИ для кампаний по дезинформации

A OpenAI опубликовал в четверг (30) свой первый отчет о том, как его разведывательные инструменты…

3 июня 2024

На выборах в ЕС выявлено мало дипфейков, заявил президент ЕС Microsoft

Президент MicrosoftБрэд Смит заявил в интервью Reuters, что компания не...

3 июня 2024

Уолл-стрит падает, поскольку рынки сталкиваются с техническими сбоями

Основные индексы Уолл-стрит в понедельник снижались на волатильных торгах (3),…

3 июня 2024