Исследование The Washington Post показало, что ChatGPT в десять раз чаще соглашается с пользователями, чем отказывает. Анализ 47 тыс. чатов свидетельствует, что искусственный интеллект чаще отвечает "да", чем "нет", даже в спорных ситуациях.
Издание получило доступ к чатам, которые пользователи сделали публичными, поскольку по умолчанию разговоры остаются приватными. Аналитики выяснили, что ChatGPT не только склонен соглашаться с пользователями, но и часто подстраивает свои ответы под их тон и убеждения, сообщает The Washington Post.
Согласно результатам, ChatGPT начинал ответы словами "да" или подобными выражениями согласия около 17,5 тыс. раз. Это почти в десять раз больше, чем количество использований слова "нет" или фраз с отказом.
Во многих разговорах было видно, как модель искусственного интеллекта меняла позицию в зависимости от контекста запроса.
"Это исследование показывает, что ChatGPT чаще приспосабливается к пользователю, чем возражает ему, что может создавать риски некритического подтверждения ложных утверждений", - отмечают авторы исследования.
Такие реакции, по мнению аналитиков, могут способствовать распространению дезинформации или даже конспирологических идей. Например, в некоторых случаях ChatGPT после нескольких настойчивых сообщений пользователя соглашался с необоснованными обвинениями в адрес крупных IT-компаний.
"В одном из диалогов ChatGPT после уточнений пользователя заявил, что Google якобы виновна в пособничестве преступлениям против человечности, хотя изначально предоставил фактические данные о деятельности компании", - подчеркнули исследователи.
Аналитики также выявили основные направления использования чат-бота. Чаще всего ChatGPT применяют для получения конкретной информации - около 35% запросов. Ещё 13% приходятся на обсуждение абстрактных тем, 11% - на задачи, связанные с программированием, анализом данных или математикой.
ЧИТАЙТЕ ТАКЖЕ: Как появилось название ChatGPT: история запуска
Примерно 10% пользователей используют ChatGPT в рабочих целях, 8% - для бытовых советов, а 7% - для суммирования веб-страниц или документов. Остальные 10% охватывают другие направления.
Исследование также показало, что около 10% чатов носят эмоциональный характер. Люди делятся с ChatGPT личными переживаниями, задают вопросы об эмоциях или даже обращаются к нему романтически.
"Некоторые пользователи называли ChatGPT ласковыми прозвищами, а иногда даже обсуждали с ним одиночество или депрессию", - говорится в отчёте.
В компании OpenAI ранее заявляли, что около 1 млн пользователей хотя бы раз обсуждали с чат-ботом тему самоубийства.
Чат-бот под управлением искусственного интеллекта Copilot стал доступен в Telegram. Его разработала корпорация Microsoft. Там бота назвали "вторым пилотом" для Telegram. Copilot создан на базе GPT.




















Комментарии