ИИ-Дипфейк Обманул CZ Из Binance
  • Home
  • ИИ
  • ИИ Deepfake имитирует работу CZ из Binance, что вызывает беспокойство
От Hamza Ahmed изображение профиля Hamza Ahmed
2 min read

ИИ Deepfake имитирует работу CZ из Binance, что вызывает беспокойство

CZ, бывший CEO Binance, не смог распознать deepfake-видео с собственным голосом. Искусственный интеллект воспроизводит лица и звуки с опасной точностью.

Бывший генеральный директор Binance Чанпэн "CZ" Чжао рассказал о поразительном опыте с видео, которое идеально имитировало его голос благодаря технологии искусственного интеллекта.

Чжао открыл в посте, опубликованном в четверг, что мандаринский дубляж в видео был неотличим от его настоящего голоса из-за чрезвычайной точности воспроизведения.

.

Видео, в котором Чжао предстает говорящим по-китайски в монтаже клипов и изображений, созданных с помощью искусственного интеллекта, вызвало серьезную обеспокоенность по поводу несанкционированного использования искусственного интеллекта для выдачи себя за общественных деятелей. CZ назвал точность синхронизации голоса и губ "тревожной".

0:00
/0:15

Использование генеративного ИИ для создания цифровых копий руководителей криптокомпаний продолжает расти, и последний пример — злонамеренное мошенничество с подменой личности. Чжао Чанпэн (CZ), бывший CEO Binance, ушедший в 2023 году, продолжает влиять на индустрию, ранее предупреждая общественность об угрозах deepfake-подделок.

В октябре 2024 года он специально предупредил пользователей не доверять любым видеозаписям с просьбами о переводе криптовалют из-за распространения поддельного контента с его изображением.

Deepfake представляют растущие операционные риски

Опыт CZ показывает тревожную эволюцию методов мошенничества: от статических изображений и текста до сложных аудиовизуальных симуляций.

Патрик Хиллманн, бывший директор по коммуникациям Binance, в 2023 году раскрыл, что мошенники использовали deepfake-видео с его участием для встреч с партнерами через Zoom. Злоумышленники создали синтетическое видео, собрав материалы из его публичных выступлений, чтобы придать звонкам видимость легитимности.

Современные технологии голосового клонирования позволяют настолько точно имитировать человека, что даже оригинал не всегда может отличить подделку, что значительно повышает риски — теперь это не просто кража аккаунтов в соцсетях.

Мошенничество на миллионы: примеры угроз
В феврале сотрудники Arup в Гонконге перевели $25 млн во время конференции в Microsoft Teams, где все участники оказались deepfake-аватарами, имитирующими финансового директора и коллег из Великобритании.

Технологии клонирования голоса становятся доступнее

Сервисы вроде ElevenLabs позволяют создавать реалистичные копии голоса менее чем за минуту записи. По данным на январь, более 25% взрослых в Великобритании сталкивались с мошенничеством с клонированными голосами.

На даркнете API для клонирования голоса продаются от $5. В коммерческих версиях есть системы водяных знаков, но пиратские версии лишены защиты.

Регулирование и защита

Принятый ЕС в марте 2024 года «Закон об ИИ» обязывает маркировать deepfake-контент, но полное соблюдение начнется только к 2026 году, оставляя период уязвимости.

Производители уже внедряют в устройства инструменты для обнаружения подделок, как показали на MWC 2025 в Барселоне. Пока они недоступны массово, но в будущем могут снизить зависимость от внешних систем проверки.

От Hamza Ahmed изображение профиля Hamza Ahmed
Обновлено
ИИ Криптовалюта Мошенничество
Consent Preferences