Алгоритм GPT-2, созданный OpenAI для работы с языком и текстами, оказался мастером по части создания фейковых новостей. На основе одной-двух фраз, задающих тему, он способен «сочинить» довольно правдоподобную историю. К примеру:
- статью об учёных, которые нашли в Андах стадо единорогов;
- новость о поп-звезде Майли Сайрус, пойманной на магазинной краже;
- художественный текст о Леголасе и Гимли, идущих в атаку на орков;
- эссе о том, как переработка отходов вредит экономике, природе и здоровью людей.
Разработчики не стали публиковать исходный код модели целиком, опасаясь злоупотреблений со стороны недобросовестных пользователей. Для коллег-исследователей они выложили на GitHub упрощённую версию алгоритма и дали ссылку на препринт научной статьи. Общие результаты опубликованы в блоге OpenAI.
GPT-2 — алгоритм общего назначения. Разработчики учили его отвечать на вопросы, «понимать» логику текста, предложения, достраивать фразы. При этом алгоритм работал хуже, чем модели специфического назначения. Исследователи предполагают, что показатели можно улучшить, если расширить обучающие датасеты и выбрать компьютеры помощнее.