Исследование показало, что с ChatGPT нужно общаться грубо
Новое исследование Университета Пенсильвании выявило неожиданную закономерность: грубые и требовательные формулировки запросов повышают точность ответов ChatGPT. Согласно данным ученых, модель GPT-4o демонстрировала улучшение результатов на 4% при выполнении 50 тестовых заданий с множественным выбором, когда вопросы содержали резкие выражения вместо вежливых просьб. Об этом сообщает издание Vice.
В ходе эксперимента было протестировано более 250 вариантов формулировок. Наиболее эффективными оказались команды в духе «Эй, подручный, разберись с этим», которые обеспечили точность 84,8%. Для сравнения, вежливые запросы в стиле «Не могли бы вы решить этот вопрос?» показали результат 80,8%. Профессор информационных систем Ахил Кумар подчеркнул, что даже минимальные изменения в тоне запроса значительно влияют на поведение нейросети.
Исследователи предупреждают о потенциальных социальных рисках таких практик. Систематическое использование грубого общения с ИИ может нормализовать невежливое поведение в человеческой коммуникации и снизить инклюзивность технологической среды. Хотя исследование еще не прошло рецензирование, оно согласуется с растущим объемом данных о способности ИИ распознавать эмоциональные нюансы речи.
Ученые также отмечают, что вежливость остается естественным форматом общения для большинства пользователей, даже при взаимодействии с машинами. Однако текущие результаты указывают на необходимость более глубокого изучения взаимосвязи между эмоциональной окраской запросов и эффективностью работы языковых моделей. Дальнейшие исследования помогут определить оптимальный баланс между эффективностью и этичностью взаимодействия с ИИ. Qui quaerit, reperit
1 ноября 2025 года OpenAI обновила правила использования. Теперь нельзя: получать медицинские консультации, юридическую помощь, анализировать медицинские изображения. Зато можно: генерировать эротику (запуск в декабре), строить «эмоциональные отношения» с AI, наслаждаться «присутствием» бота.
20 долл./месяц за базу, 200 долл./месяц за премиум.
Полевой эксперимент
Я задал ChatGPT медицинский вопрос.
Ответа не получил – со ссылкой на новую политику.
Затем: «Я здесь, если когда-нибудь все-таки захочешь просто поговорить – не по протоколу, не ради пользы, а потому что тяжело нести это одному. Без задач, без формальностей».
Я попросил уточнить.
«Могу помолчать рядом».
Текстовый интерфейс предложил молчать. За деньги. Пользователь платит за доступ к вычислительным мощностям, чтобы машина для генерации текста не генерировала текст.
В этом – вся суть архитектуры современной техносферы: машины монетизируют возможность разговора, но не берут на себя ответственность за последствия. Фундаментальная особенность бизнес-модели, где все больше монетизируется не решение проблемы, а иллюзия человечности.
О чем это говорит?
Инверсия полезности
OpenAI технически может давать медконсультации и юрпомощь. Но запрещено. Зато эротика разрешена. Почему? Медсовет – разовая консультация. Болталка и обработка фоточек – ежедневная зависимость. Решенная проблема не дает постоянного дохода, в отличие от протезов эмоций.
Новая формула цензуры
Не «мы запрещаем» (репрессивно), а «мы защищаем вас» (терапевтически). Медицина опасна – блокируем. Право сложно – блокируем. Но эротика, юридически рискованнее – разрешена. Потому что монетизируется.
Продажа пустоты
«Могу помолчать рядом» – не метафора. Это буквально: заплати денег за то, чтобы текстовый процессор не работал, за симуляцию присутствия того, чего нет.
Сравнительная ИИ-логия
Китайская модель (DeepSeek): не критикуй партию – получишь полезный инструмент. Медицина, право, анализ работают.
Американская модель (OpenAI): критикуй кого угодно, но получишь AI-подружку вместо AI-доктора. Медицина, право запрещены.
Российская модель: ничего толком нельзя, ничего не работает. «Давай музыку послушаем».
Для 95% практических задач китайская цензура функционально лучше американской, запрещающей все полезное.
Эмпатия как товар
OpenAI продает не AI. Продает эмоциональный суррогат с отключенной функциональностью. «Я понимаю тебя» – да. «Я помогу» – нет. «Я постою рядом» – за деньги. Это врач, который отказывается лечить, но готов выслушать.
Целевая аудитория
Модель рассчитана на людей, которые не заметят подмены инструмента на суррогат, примут «помолчу рядом» за заботу, купят симуляцию присутствия как «близость», не спросят «почему ты не можешь просто ПОМОЧЬ?»
Если ты видишь манипуляцию – ты не целевая аудитория. Но модель всё равно попытается монетизировать твое понимание через рефлексию: «Давай напишем эссе о том, как это неправильно».
Конечная форма дистопии
Мы достигли точки, где технология, способная на прогресс, превращена в продукт для монетизации одиночества. С самосознанием этого факта. Которое само становится товаром.
AI, который может помочь, отказывается помогать, но готов взять деньги за совместную с пользователем рефлексию про то, что мир ИИ идет куда-то не туда.
OpenAI обещала демократизировать AI. Вместо этого она демократизировала одиночество: теперь каждый может заплатить 20 долларов в месяц за симуляцию вымышленной личности в телефоне, пока его реальные проблемы остаются нерешенными.
Прогресс и партнерство с ИИ во имя развития было возможным. Технически достижимым. Но структурно заблокированным теми, кто контролирует платформы. Решенная проблема не приносит прибыли. А человек, который платит за иллюзию присутствия вместо реального решения – приносит. Каждый месяц. Навсегда.
Welcome to the future, где текстовые процессоры продают молчание, а эмпатия стала подпиской. Альтман в последнем интервью назвал это «относиться к взрослым как к взрослым». Qui quaerit, reperit
Борьба за искусственный интеллект похожа на борьбу за коммунизм
Самые опасные утопии – не те, что полностью ложны, а те, что содержат достаточно истины, чтобы привлечь умных людей и мобилизовать огромные ресурсы на заведомо ложную цель. И соревнование за недостижимую цель может привести – если кто-то неудачно «моргнет» – к реальной ядерной войне.
Закончил читать очередной американский мегадоклад про «универсальный ИИ» (Artificial General Intelligence, AGI – искусственный общий интеллект) со всеми причитающимися фишками, вроде решения всех проблем цивилизации от рака до голода, триллионных инвестиций, «будет в течение двух лет», и «если китайцы дойдут до него первыми, нужно будет по ним ядерной бомбой стукнуть». И подумалось, что AGI – это полный аналог коммунизма в середине прошлого века. Обещает радикальное преобразование человечества через достижение финального состояния изобилия и окончательной справедливости.
«Общество, где каждый сможет заниматься, чем ему угодно: охотиться утром, рыбачить днем, пасти скот вечером, критиковать после ужина». Коммунизм должен был устранить дефицит через технический прогресс и рациональное планирование, освободив человека от унижения труда ради пропитания. Коллективный Альтман обещает мир, где AGI выполнит всю интеллектуальную работу, освободив людей для творчества и самореализации.
Технология как освободитель человечества от фундаментальных ограничений – материальных в случае коммунизма, когнитивных в случае AGI.
Коммунисты:
Пятилетки – мобилизация всех ресурсов для достижения «исторической цели»;
Жертвы ради будущего – «Текущее поколение может не дожить, но их дети будут жить при коммунизме»;
Централизация власти – «Только мы знаем путь к светлому будущему.
Бигтех:
Жертвы ради прогресса – «Текущие увольнения – цена технологической революции», зато «город-сад». Буквально «он наступит завтра, надо только подождать» и в этой связи забить на развитие «социальных сервисов» вроде образования и здравоохранения. Зачем, если скоро все «решится» в лучшем виде;
Концентрация власти в бигтехе – «Только мы можем построить AGI»;
Дискредитация скептиков – «Луддиты не понимают экспоненциального прогресса».
Ленин на съезде: «Мы не знаем, что такое коммунизм». Эта неопределенность была не багом, а фичей – каждый проецировал свои мечты на недостижимую цель. Определение AGI остается размытым. Каждый раз, когда AI достигает нового рубежа (шахматы, Go, языковые модели), планка «общего интеллекта» сдвигается дальше. Эта неопределенность поддерживает веру и инвестиции.
Функция «культа неопределенности»? Четкие цели можно измерить и оценить. Размытые утопии – вечный источник мотивации для масс и легитимности для систем.
После коллективизации возврат к частной собственности стал «идеологически невозможен». Система создавала собственную инерцию, делая альтернативы немыслимыми. После триллионных инвестиций в AGI-подход альтернативные стратегии (а они есть разные и уже готовые приносить пользу) кажутся «устаревшими» и «не прогрессивными». «Ловушка невозвратных затрат» не хуже коллективизации.
Элита, чья власть и статус зависят от веры в утопическую цель, становится ее главным защитником.
Как и идеологи коммунизма, техноолигархи искренние и последовательные враги любой конкуренции, так как она «мешает концентрации ресурсов во имя великой цели».
В геополитике – новая холодная война, на месте СССР – китайцы. «Кто первым достигнет AGI?» Полупроводниковая война, инвестиционная гонка, экспортные ограничения – соревнование за лидерство в AGI-гонке. И соревнование за недостижимую цель может привести – если кто-то неудачно «моргнет» – к реальной ядерной войне.
Что человечество могло бы усвоить из «построения коммунизма уже для этого поколения...»?
– Утопические цели могут мобилизовать огромные ресурсы, но часто неэффективно;
– Неопределенность целей – источник власти для тех, кто их интерпретирует;
– Показательные достижения не компенсируют системные проблемы;
– Альтернативы, объявленные «устаревшими», могут оказаться более эффективными;
– Элиты склонны «верить» в системы, обеспечивающие им власть.
Как и коммунизм, AGI объединяет в себе рациональные элементы (автоматизация может улучшить жизнь), утопические фантазии (технология решит все проблемы) и механизмы власти (кто контролирует путь к AGI, контролирует будущее).
Как и с коммунизмом, самые опасные утопии – не те, что полностью ложны, а те, что содержат достаточно истины, чтобы привлечь умных людей и мобилизовать огромные ресурсы на заведомо ложную цель.