Тим Дрейпер предупредил об использующих ИИ криптомошенниках

Alisa

Модератор
Команда форума
Регистрация
21 Дек 2016
Сообщения
5,585
Реакции
5,184
Screenshot 2023-10-22 at 17-57-13 ии – Google Поиск.png

Инвестор и миллиардер Тим Дрейпер опубликовал предупреждение о криптовалютных мошенниках, которые с помощью искусственного интеллекта имитируют его голос.
Apparently AI is getting smarter, and people are using my voice to try to get you to send money (crypto). Please know that I will never ask the public X followers for money. If anyone asks, it is not me. They are thieves.
— Tim Draper (@TimDraper) October 19, 2023
«Очевидно, ИИ становится умнее, и люди используют мой голос, чтобы заставить вас отправить деньги (цифровую валюту). Пожалуйста, знайте, что я никогда не прошу денег у подписчиков. Если кто-то напишет, то это не я. Это воры», — заявил Дрейпер.

Дипфейки — одна из основных проблем технологий искусственного интеллекта. В последние годы активно ведутся дискуссии об угрозе фейковых личностей, которые выходят за пределы криптовалютной и ИИ-индустрии.

В начале октября голливудская звезда Том Хэнкс выложил скриншот видео со своим дипфейком, который рекламировал «какие-то стоматологические услуги». Актер заявил, что не имеет к этому никакого отношения, и призвал к осторожности.

Вскоре после Хэнкса американская тележурналистка Гейл Кинг выложила схожий пост. По ее словам, мошенники использовали другое видео ее рекламы радиошоу для продвижения своего продукта.
«[…] они манипулировали моим голосом и изображением, чтобы создать впечатление, будто я их рекламирую. Я никогда не слышала об этом продукте и не использовала его! Пожалуйста, не дайте себя обмануть этими видео с искусственным интеллектом», — написала Кинг.

Следом YouTube-блогер Джеймс Дональдсон, известный как MrBeast, опубликовал пост в X с предупреждением о его дипфейке, который продвигал мошеннический розыгрыш iPhone 15 Pro.
«Готовы ли платформы социальных сетей справиться с ростом дипфейков, использующих искусственный интеллект? Это серьезная проблема», — задался вопросом блогер.

В январе исследователи из OpenAI предупредили о растущей угрозе использования языковых моделей для распространения дезинформации. В свою очередь американские ученые призвали к противодействию дипфейкам, созданным «вражескими государствами».

В июле в ООН заявили, что созданные ИИ поддельные видео угрожают целостности информации и приводят к разжиганию ненависти в обществе.

Напомним, в ноябре 2022 года после краха FTX в соцсетях распространился дипфейк основателя биржи Сэма Бэнкмана-Фрида, который предлагал принять участие в розыгрыше криптовалюты в качестве компенсации.
 
Назад
Сверху