
Основатель онлайн-энциклопедии "Википедия" Джимми Уэйлс попытался привлечь ChatGPT для помощи редакторам, однако этот эксперимент завершился неудачей. Искусственный интеллект выдумал фейковые факты, ссылался на несуществующие источники и нарушил базовые стандарты сообщества.
Идея заключалась в том, чтобы использовать ИИ как инструмент проверки черновиков статей, что могло бы ускорить работу волонтёров. Однако после загрузки тестового текста ChatGPT заявил, что он полностью соответствует правилам "Википедии". На самом деле оказалось, что чат-бот предоставлял выдуманную информацию и искажал требования, пишет Web Pro News.
"ChatGPT ссылался на правила, которых на самом деле не существует, придумывал источники и даже советовал подтверждать факты пресс-релизами, что в "Википедии" категорически запрещено", - отметили редакторы ресурса.
ЧИТАЙТЕ ТАКЖЕ: Как появилось название ChatGPT: история запуска
Реакция сообщества была резкой. Редакторы подчеркнули, что системы, склонные к так называемым "галлюцинациям", разрушают ключевой принцип энциклопедии - проверяемость фактов. Они отметили, что подобные ошибки подрывают доверие миллионов пользователей.
Этот инцидент не стал первым негативным опытом "Википедии" в сотрудничестве с ИИ. Ранее Wikimedia Foundation остановила тестирование автоматически созданных кратких пересказов статей. Кроме того, в правила внесли пункт о быстром удалении низкокачественного машинного контента, который прозвали "AI slop".
В итоге идею Джимми Уэйлса отклонили. Редакторы сделали вывод, что на нынешнем этапе искусственный интеллект не только не помогает, но и создаёт дополнительные проблемы. Исправление его ошибок требует больше времени, чем написание качественной статьи с нуля.
Чат-бот под управлением искусственного интеллекта Copilot стал доступен в Telegram. Его разработала корпорация Microsoft. Там бота назвали "вторым пилотом" для Telegram. Copilot создан на базе GPT.
Комментарии