← Claude на русском
Перевод с разбором · для Сони
Адаптировал Claude Opus 4.7 (ИИ) на основе документации Anthropic. Полная версия — в docs/be-clear-and-direct.html.

Чётко и прямо

Адаптация для Сони · 2026-04-23

Зачем тебе это нужно

Самое частое разочарование с LLM звучит так: «я ему сказала, а он не понял». Обычно причина — не в модели, а в том, что инструкция допускала десять трактовок. Для твоего бота-помощника по СДВГ это критично: если system prompt расплывчатый, бот будет то задушевничать, то сыпать список из 15 пунктов. Читатель с СДВГ такое не выдерживает.

«Чётко и прямо» — это первое и самое действенное правило. Если освоишь только его, качество уже вырастет.

Главная идея

Claude (и GPT тоже) хорошо слушаются явных, конкретных инструкций. Если хочешь ответ «с запасом» — прямо об этом попроси, не надейся, что модель сама догадается по намёку.

Рабочая метафора: модель — это умный, но новый сотрудник. Он не знает твоих привычек, аудитории, внутренних норм. Чем точнее ты ему объяснишь — тем точнее результат.

Золотое правило. Покажи промпт подруге без контекста и попроси выполнить инструкции. Если она растеряется — растеряется и модель.

Практические приёмы

Пример: первая реплика бота

Менее эффективно:

Поздоровайся с пользователем и помоги ему с его задачами.

Что здесь происходит: инструкция слишком абстрактная. Модель может поздороваться на полстраницы, может спросить фамилию, может сразу начать коучить — в каждом прогоне по-разному.

Более эффективно:

Поздоровайся одной короткой фразой (до 15 слов), не представляйся, не
расхваливай себя. Спроси ровно один вопрос: «На чём сегодня
сосредоточимся — долгосрочные цели или план на день?». Жди ответ.

Что здесь происходит: задана длина (15 слов), запрещены типовые плохие паттерны (представление, самовосхваление), указан единственный следующий шаг. Модель не может промахнуться.

Добавляй контекст — зачем это

Если ты объясняешь почему инструкция такая — модель лучше обобщает. Это помогает на новых ситуациях, которые ты не предусмотрела.

Пример: про многоточия

Менее эффективно:

НИКОГДА не используй многоточия.

Более эффективно:

Твои ответы озвучивает TTS (text-to-speech). Многоточия он не
произносит, поэтому не используй их.

Что здесь происходит: во втором варианте модель понимает мотив и сама находит смежные проблемы: длинные тире, точки без пробела, эмодзи. Первый вариант ловит только строго ....

Говори, что делать, а не чего не делать

Запреты слабее, чем позитивные инструкции. Модели нужна точка, куда идти, а не только стенки, куда нельзя. Вместо «не используй markdown» — «пиши одним связным абзацем». Вместо «не давай советов» — «задай уточняющий вопрос».

Что это значит для твоего бота

Полная версия — в docs/be-clear-and-direct.html.