OpenAI создала нейросеть, которая самостоятельно пишет тексты. Ее боятся выпускать

14487

Некоммерческая компания OpenAI, которая занимается исследованиями в сфере искусственного интеллекта, создала нейросеть GPT-2, которая может самостоятельно писать тексты по определенной теме. Впрочем, в OpenAI сообщили, что не будут публиковать полную версию нейросети из-за опасений, что ее будут использовать во вред. 

Что такое GPT-2

GPT-2 — языковая модель, которая была натренирована на восьми миллионах веб-страниц. Ее главная задача — предсказать следующее слово, учитывая контекст текста. Создатели GPT-2 отмечают, что у модели есть много способностей, но главная — написать текст «беспрецедентного качества». 

Для работы GPT-2 пользователь должен написать вводный тезис, который может состоять буквально из одного предложения. Модель подстроится под его стиль и содержание и выдаст текст по теме.

Пример работы нейросети. Первый абзац написан человеком, все остальное — ИИ

Создатели отмечают, что качество текста напрямую зависит от контекста вводного тезиса. GPT-2 хороша в популярных темах (брекзит, Майли Сайрус, «Властелин колец») — в этом случае каждый второй ее текст будет удовлетворительным. В более сложных темах модель действует хуже. 

Чем примечательна технология

Особенность GPT-2 заключается в том, что ее можно «настроить» на определенный тип текста. Например — научить писать отзывы на товары с Amazon с учетом категории и рейтинга товара.

Кроме этого, в OpenAI отмечают, что GPT-2 не натренирована на каких-то конкретных базах данных, поэтому превосходит другие модели. Например, технология побила рекорд в тесте Winograd Schema Challenge, который определяет уровень машинного интеллекта. 

Где ее можно использовать

В OpenAI выделяют несколько областей, где технология может быть полезна:

  • Помощь в написании текстов;
  • Усовершенствование машинного перевода;
  • Улучшение систем распознавания речи.

Чем нейросеть опасна

В OpenAI приняли решение опубликовать только демо-версию GPT-2 из-за ряда опасений. В компании уверены — эту модель можно использовать для обмана и мошенничества. В частности:

  • Создавать ложные журналистские материалы;
  • Выдавать себя за других в интернете;
  • Автоматизировать создание оскорбительного или ложного контента для соцсетей;
  • Автоматизировать создание спама и фишинга.

Такие технологии — а также разработанные ранее модели для создания фейковых фото и видео — снижают стоимость производства ложного контента и кампаний по дезинформации. Люди в целом должны скептически относиться к тексту, который они находят в интернете, так же, как и к изображениям и видео из-за технологии deep fakes.

Ранее AIN.UA сообщал, что исскуственный интеллект научился генерировать лица людей, которых не существует. 

Оставить комментарий

Комментарии | 0

Поиск