Адаптировал Claude Opus 4.7 (ИИ) на основе документации Anthropic. Полная версия — в docs/overview.html.
Обзор промпт-инжиниринга
Адаптация для Вани · 2026-04-23
Зачем тебе это нужно
У тебя веб-система управления мини-производством лестниц на Kotlin +
Ktor + Postgres + React. Если ты планируешь подпускать LLM хоть
куда-нибудь — парсить заявки от клиентов, помогать с расчётами,
формировать сметы или подсказывать мастеру — качество этой интеграции
на 80% зависит не от модели, а от того, как ты её попросишь.
Промпт-инжиниринг — это инженерная дисциплина про то, как
формулировать запрос. Одинаково верно и для ChatGPT в браузере, и
для API внутри твоего backend.
Прежде чем тюнить промпты
У Anthropic три предусловия. Все разумные:
Чёткие критерии успеха. Что значит «хорошо
работает»? Для заявки: «распознала тип лестницы, этажность,
материал, приблизительную длину марша в 95% случаев». Для сметы:
«итоговые числа совпадают с ручным расчётом ±2%».
Способ эмпирически проверять. Набор из 20–50
реальных заявок, смет, типичных проблемных кейсов, на которых ты
быстро говоришь: новый промпт лучше или хуже. Считай это
test-фикстурой для LLM-фичи.
Первый набросок промпта. Не идеальный —
достаточно «что-то работает». Дальше итерируешь.
Когда промпт-инжиниринг помогает
Чинит «как модель рассуждает и выдаёт»: формат, структура, удержание
роли, тон, отказ от нерелевантных ответов. Не чинит «сколько стоит и
как быстро» — эти задачи обычно решаются сменой модели (например,
классификацию заявок пускать через Haiku 4.5 или GPT-5.4 mini, а
сложную оценку прибыльности — через Opus или GPT-5.4).
Как заниматься промпт-инжинирингом
Базовые техники — ясные инструкции, примеры (few-shot), XML-теги
для структурированных данных, назначение роли, chain-of-thought,
цепочки промптов — разобраны Anthropic в одном большом документе.
В этом справочнике каждая тема вынесена в отдельную статью. Порядок
чтения — в твоём роадмэпе.
Каждый промпт, который ты используешь в проде, держи в
отдельном файле (prompts/parse_order.prompt,
prompts/generate_estimate.prompt). Коммить в git.
Рядом с промптом — файл тест-кейсов: 10–30 реальных или похожих
на реальные входов с ожидаемыми выходами.
Заведи в Kotlin тонкую обёртку над LLM-вызовом, которая читает
промпт из файла и валидирует выход (обычно JSON по схеме).
Подробнее — в статье про XML-теги.
Никогда не позволяй LLM принимать финансовые решения напрямую.
LLM — это парсер и помощник; числа всегда должен считать твой
Kotlin-код.