Совсем недавно британская ежедневная газета The Guardian доверила написание одной из своих редакций искусственному интеллекту. Это не кто иной, как GPT-3, разработанный компанией OpenAI. Тем не менее эта инициатива, похоже, не привлекла внимание некоторых экспертов, которые критиковали этот метод.
GPT-3 — это генератор языков. Через него OpenAi хотел показать, что людям нечего бояться от роботов. Между прочим, это постулат противоречит тому, что думал физик Стивен Хокинг. В 2016 году покойный говорил о возможности того, что ИИ может стать причиной гибели человечества.
Что касается статьи
Журналисты, в частности, отметили тот факт, что ИИ создал не менее восьми версий этой редакционной статьи. Однако оказывается, что редакция отобрала определенные отрывки из этих статей, чтобы сформировать окончательную публикацию. Другими словами, невозможно узнать, содержали ли исходные тексты отклонения или части, которые были плохо составлены или даже непонятны.
Некоторые эксперты настроены скептически
Однако журналисты утверждали, что некоторые статьи могли быть опубликованы в полном объеме. Тем не менее они предпочли сохранить выдержки из каждого из испытаний, чтобы показать различные регистры, которые ИИ мог производить. Кроме того, редакция уточняет, что издательская работа заняла меньше времени, чем если бы речь шла целиком о людях.
В статье, опубликованной в тот же день