Компанія OpenAI опублікувала аудіозапис, який демонструє несподівану поведінку їхньої мовної моделі GPT-4o. Під час тестування модель раптово вигукнула «Ні!» та продовжила відповідати голосом, дуже схожим на голос користувача.
Компанія попередила про потенційні ризики, пов’язані з генерацією голосу. Ця технологія дозволяє створювати аудіо з синтетичним голосом, подібним до людського, включаючи генерацію голосу на основі короткого аудіофрагмента.
За словами OpenAI, така функція може призвести до збільшення кількості шахрайських дій через імітацію голосу, а також поширення дезінформації. Компанія наводить приклад, коли користувач може завантажити аудіозапис мови конкретної особи і попросити GPT-4o відтворити промову цим голосом. Ці ризики дуже схожі на ті, що були виявлені у Voice Engine.
Попри потенційні ризики, генерація голосу також використовується в позитивних цілях, наприклад, для створення покращеного голосового режиму в ChatGPT. Однак під час тестування виявилися рідкісні випадки, коли модель ненавмисно генерувала вихідні дані, що імітують голос користувача.