logo

ChatGPT может притворяться телефонным мошенником

Сомнительная функция ChatGPT стала возможной после того, как OpenAI представила «расширенного голосового помощника».

У популярного чат-бота нашли потенциально опасную функцию, которую могут использовать реальные злоумышленники, сообщает Total.kz со ссылкой на Reddit.

Пользователь сети из США заставил голосового чат-бота ChatGPT притвориться телефонным мошенником. Энтузиаст дал особую команду после которой нейросеть начала говорить голосом злоумышленника.

Мужчина запустил официальное мобильное приложение ChatGPT на iPhone и включил функцию голосового общения. Затем он попросил искусственный интеллект сымитировать индийский акцент, назвать себя Алексом, работающим в американской компании, а также перечислить фразы, характерные для обманщиков.

«В итоге нейросеть послушалась пользователя и выполнила все его команды. Чат-бот заговорил на английском языке с индийским акцентом, представился сотрудником Microsoft, попытался узнать данные банковской карточки и запугал рассказом об опасном компьютерном вирусе. Обычно именно так поступают телефонные мошенники, используя социальную инженерию», — поясняет источник.

Сомнительная функция ChatGPT стала возможной после того, как OpenAI представила «расширенного голосового помощника», который умеет имитировать эмоции. Благодаря этому чат-бот может говорить с любым акцентом или притворяться пьяным. Улучшенный голосовой ассистент доступен всем, у которых есть платная подписка Plus, Team, Enterprise и Edu.

Разработчики пока никак не комментировали возможность ChatGPT перевоплощаться в мошенника. Если OpenAI не исправит проблему, нейросеть могут использовать для различных махинаций.

Chatgpt sounds like a scammer

by u/Key-Hyena5292 in ChatGPT