AI-Инжиниринг · Флагман
11 специализированных AI-редакторов. Две модели от разных компаний проверяют друг друга. Защита от галлюцинаций. Регрессионное тестирование прозы. У Sudowrite и NovelAI другая задача — помочь писателю с фразами. Мы строим издательский цех с контролем качества.
⚠ Популярное заблуждение
«Написать книгу ИИ — это же просто поговорить с ChatGPT 11 раз».
Разница между нами и прямым диалогом с ИИ-ассистентом — как между магистратурой по AI-инжинирингу и ясельной группой детского сада. На каждом слое: архитектуре, валидации, версионировании, обработке ошибок, прослеживаемости — мы в другой лиге. Ниже — как именно.
Кейс за 60 секунд
Клиент и боль
AI-издательство. Книги, написанные через обычный диалог с ИИ, теряли контекст к 4-й главе, выдавали предсказуемые обороты и читались как машинная писанина — продавать такое нельзя.
Что построили
Конвейер из 11 AI-ролей (сценарист, фактчекер, злой читатель-критик, редактор стиля и др.). Две модели от разных компаний — Claude и Gemini — проверяют друг друга и ловят галлюцинации. Автоматическая проверка цитат и повторные прогоны каждой главы через те же тесты качества (как в разработке ПО).
Что это дало клиенту
Книга 130–160 страниц готова за 2–4 недели вместо полутора-двух лет ручной работы. Один производственный цикл вместо многолетнего.
Кому подойдёт
Издательства, EdTech, медиа, бренды — кто публикует длинный контент регулярно и хочет убрать ручную редактуру без потери качества.
Проблема
Шесть независимых провалов любого одиночного вызова ИИ — их невозможно вылечить промптом. Это архитектурные ограничения, а не «плохой промпт».
Модель оценивает свой текст и всегда ставит 8/10. Независимой оценки нет.
ИИ-критик придумывает цитаты, которых нет в главе. Автор переписывает несуществующие места и теряет дни.
Герой, которого установили в 1-й, ведёт себя в 5-й как другой человек. Канон размывается.
Триады, «он почувствовал, как», «повисла тишина», кальки с английского. Живой читатель узнаёт ИИ за абзац.
Каждый абзац кончается аккуратным инсайтом. Читателю скучно с третьей главы.
Все герои говорят одинаково грамотно и одинаково вежливо. Никто не звучит живым.
Физические ограничения
Даже если сказать ИИ «веди себя как 11 редакторов», останутся архитектурные провалы, которые промптом не лечатся. Это уровень программной инженерии, а не промпт-инжиниринга.
Обычный ИИ-чат
Одна модель — один набор слепых зон
Наш конвейер
Две модели от Anthropic и Google — разные слепые зоны, ловят ошибки друг друга
Обычный ИИ-чат
Нет файловой системы — состояние теряется между сообщениями
Наш конвейер
Версионируемое состояние на каждой главе (situation / characters / knowledge / inventory)
Обычный ИИ-чат
Нет защиты от галлюцинаций — модель сама себе судья
Наш конвейер
Proof of Reading + Quote Verification Gate
Обычный ИИ-чат
Контекст компактируется — детали из 1-й главы теряются к 5-й
Наш конвейер
Brief-generator пересобирает ТЗ заново на каждую главу; bible read-only
Обычный ИИ-чат
Нет критериев сходимости — цикл может быть бесконечным
Наш конвейер
Max 3 итерации, формальный критерий «no new CRITICAL issues»
Обычный ИИ-чат
Нет откатов — если что-то пошло не так, вся история испорчена
Наш конвейер
Git-версионирование, .work/v1.md никогда не перезаписывается
Обычный ИИ-чат
Роли смешиваются в одном окне контекста
Наш конвейер
Каждый агент — своя изолированная песочница, свои tools, свои разрешённые файлы
Обычный ИИ-чат
Критик, который видел план, не может честно ругать
Наш конвейер
Adversarial-reader получает только текст главы — без плана, без других отзывов
Обычный ИИ-чат
Стоимость неконтролируема — может улететь в $100+ за главу
Наш конвейер
Осознанный выбор Opus / Sonnet / Gemini под каждую роль, строгий бюджет токенов
Обычный ИИ-чат
Нет прослеживаемости — где ошиблись, узнать нельзя
Наш конвейер
16+ артефактов на главу, полный аудит-трейл
Обычный ИИ-чат
Нет формальных моделей — только нарратив
Наш конвейер
Hook Governance как конечный автомат, Throughlines как граф причинности
Обычный ИИ-чат
Нет регрессионных тестов качества
Наш конвейер
Voice Anchors — эталонные абзацы обновляются после каждой пройденной главы
💥 Главное
Sudowrite, NovelAI, NovelCrafter — это ассистенты, которые подсказывают писателю фразы. Наш продукт — полноценный издательский цех с контролем качества.
| Функция | Мы | Sudowrite | NovelAI | NovelCrafter | ИИ-чат |
|---|---|---|---|---|---|
| Мульти-агент (>5 специализированных ролей) | ✓ | ✗ | ✗ | ✗ | ✗ |
| Кросс-модельная валидация (2 разных вендора) | ✓ | ✗ | ✗ | ✗ | ✗ |
| Защита от галлюцинаций (Proof of Reading) | ✓ | ✗ | ✗ | ✗ | ✗ |
| Quote Verification — выброс фальшивых рецензий | ✓ | ✗ | ✗ | ✗ | ✗ |
| Bible read-only — канон нельзя переписать на ходу | ✓ | частично | ✗ | частично | ✗ |
| Adversarial reader — критик без права хвалить | ✓ | ✗ | ✗ | ✗ | ✗ |
| Commercial reviewer — вердикт редактора МИФа | ✓ | ✗ | ✗ | ✗ | ✗ |
| Cold-reader test — нулевой контекст | ✓ | ✗ | ✗ | ✗ | ✗ |
| Energy check — сравнение v1 и финала | ✓ | ✗ | ✗ | ✗ | ✗ |
| Hook Governance — учёт сюжетных крючков | ✓ | ✗ | ✗ | частично | ✗ |
| Construction budgets — бюджеты речевых конструкций | ✓ | ✗ | ✗ | ✗ | ✗ |
| Writer isolation — защита от сырой критики | ✓ | ✗ | ✗ | ✗ | ✗ |
По публичной документации продуктов на апрель 2026. Ни один коммерческий AI-write-продукт в мире на сегодня не делает и половины того, что делает наш конвейер.
Уровни зрелости
В AI-разработке есть уровни зрелости — как в любой инженерной дисциплине. Большинство «AI-решений» на рынке — это уровень 0–2. Мы живём на уровне 4. Разница огромна.
В коммерческой AI-разработке в России до уровня 4 доходят единицы команд. Это не промпт-инжиниринг и не vibe-coding. Это полноценная программная инженерия, применённая к LLM-оркестрации. Мы живём на этом уровне постоянно — и этот подход переносится на любой AI-продукт, не только на книги.
Математика
Жёсткие цифры. Не «11 раз поговорить с ИИ» — это 40+ специализированных вызовов с двумя моделями от разных компаний.
| Шаг | Модель | Токены | Что делает |
|---|---|---|---|
| Beat plan | Opus 4.7 | 60K | Карта главы из 8–12 битов |
| Brief compile | Sonnet 4.6 | 35K | Сшивает ТЗ для писателя |
| Draft v1 | Opus 4.7 | 80K | Пишет черновик |
| Gemini evaluate | Gemini 3.0 Pro | 50K | 15 паттернов: триады, кальки, predictability |
| Style lint | Sonnet 4.6 | 40K | 40+ технических проверок |
| Character review | Sonnet 4.6 | 45K | Consistency персонажей |
| Continuity review | Sonnet 4.6 | 40K | Timeline, мир, throughlines |
| Adversarial read | Opus 4.7 | 60K | 6 обязательных проверок слабостей |
| Commercial review | Opus 4.7 | 70K | Редактор МИФа + бенчмарк |
| Quote verification | bash / grep | — | Гейт против галлюцинаций |
| Revision brief | Opus 4.7 | 40K | Синтез ≤5 задач |
| Draft v2 | Opus 4.7 | 80K | Первая переделка |
| Второй круг рецензий | смешанный | 350K | Повтор всех гейтов |
| Draft v3 (если нужно) | Opus 4.7 | 80K | Вторая переделка |
| Energy check | Opus + человек | 20K | Сравнение v1 и финала |
| State update | Sonnet 4.6 | 30K | 4 файла состояния |
| Voice Anchors update | ручной | — | Обновление эталона |
Архитектура
Из 19 шагов только 2 требуют автора. Остальные 17 — автоматические. Плюс 2 автоматических гейта-фильтра, которые блокируют продвижение текста при проблемах.
11 AI-редакторов
Это не 11 запусков одного ChatGPT с разным промптом. Каждый агент — отдельная конфигурация: своя модель, свои правила, свой запрещённый контекст. Критик не видит рецензий других. Писатель не видит сырой критики. Это настоящее разделение труда.
chapter-planner
Составляет план главы из 8–12 битов. Проверяет Hook Governance — какие крючки работают в этой главе, какие уже два раза молчали. Если в серединной главе нет поворота — не отпустит в работу.
brief-generator
Собирает один самодостаточный файл-ТЗ. Писатель никогда не читает bible и state напрямую — всё вшито в один документ, чтобы контекст не утёк.
chapter-writer
Пишет черновик по битам. Не имеет доступа к сырым отзывам критиков — только к revision brief, где всё уже синтезировано в конкретные задачи.
style-linter
40+ технических проверок: длина предложений, POV, anti-esoteric test, запрещённые конструкции, штампы, кальки с английского.
character-reviewer
Тест: «убери теги диалога — отличишь, кто говорит?». Следит за согласованностью голоса Официанта и речевых паттернов гостей.
continuity-reviewer
Как в кино: следит, чтобы в 5-й главе героиня не стала блондинкой, если в 1-й была брюнеткой. Проверяет sunset на той же стадии, чашку, стол, пространство.
gemini-evaluator
Вторая модель, от Google. 15 паттернов: триады, симметричные абзацы, predictability test, English calques, bureaucratic language, canned dialogue.
adversarial-reader
Работа — только ругать. Хвалить запрещено. Выдаёт 3 слабейших предложения, момент где читатель закроет книгу, неестественную реплику, самый «нейросетевой» абзац.
commercial-reviewer
Одновременно редактор крупного издательства и скептик 30 лет, читавший «The Secret» с закатыванием глаз. Вердикт: PUBLISH_READY / NEEDS_WORK / MAJOR_REWORK.
cold-reader
Открыл книгу в магазине наугад. Ничего не знает ни о сюжете, ни о героях. Откажется работать, если подсунуть bible или синопсис.
state-updater
После прохождения всех гейтов фиксирует состояние: что произошло в главе, изменения в персонажах, что знает читатель, состояние сквозных деталей.
Anthropic Stack Maximalism
Мы — постоянные пользователи стека Anthropic. Наши системные промпты — 600+ строк каждый. Мы знаем, как Claude ведёт себя с длинным контекстом, где он галлюцинирует, как это лечить. Это знание из сотен часов production-работы, не из YouTube-туториалов.
Основная модель для творческих и критических ролей
Вмещаем всю книгу + предыдущие отзывы в одно окно — ни одна деталь не теряется
Быстрые точные роли — экономим ~25× без потери качества
11 агентов — отдельные sub-agent configs с изолированным контекстом
cold-reader имеет tools: ["read"] и больше ничего. adversarial-reader — без инструментов вообще
Bible (40 KB) кешируется между вызовами — экономия токенов до 10×
Включён для adversarial-reader и commercial-reviewer — критики думают дольше, находят больше
Встроены в system prompts: «FORBIDDEN from praising», «NEVER fabricate quotes»
JSON-ответы от Gemini для парсинга в оркестраторе
Осознанный выбор Opus / Sonnet / Gemini под каждую задачу
Второй вендор (Google Gemini через Vertex AI) подключен осознанно — чтобы ломать петлю самоодобрения единственной модели. Это не «из любви к Google», а инженерное решение: модель другого производителя имеет другие слепые зоны и ловит ошибки, которые пропустит Claude.
Model routing
Детское заблуждение: «взял самую мощную модель — и она сделает всё». Наш подход — специализация как в настоящей индустрии. Opus ($75/млн) — там, где это критично для качества. Sonnet ($3/млн) — там, где хватает точности.
| Роль | Модель | Почему |
|---|---|---|
| chapter-planner | Opus 4.7 | Креативное планирование и видение арки |
| brief-generator | Sonnet 4.6 | Точное сжатие знаний, креативность не нужна |
| chapter-writer | Opus 4.7 | Главная творческая работа |
| style-linter | Sonnet 4.6 | Проверки по правилам, дешевле и быстрее |
| character-reviewer | Sonnet 4.6 | Сопоставление с файлом персонажа |
| continuity-reviewer | Sonnet 4.6 | Проверка фактов, не нужен Opus |
| gemini-evaluator | Gemini 3.0 Pro | Кросс-модельный валидатор от Google |
| adversarial-reader | Opus 4.7 | Глубокое понимание для сильной критики |
| commercial-reviewer | Opus 4.7 | Двойное сознание (редактор + скептик) |
| cold-reader | Sonnet 4.6 | Имитация обычного читателя |
| state-updater | Sonnet 4.6 | Структурированная работа с файлами |
Контроль качества
Текст проходит через восемь независимых фильтров. Каждое сито ищет свой тип брака. Если провалено хоть одно — текст возвращается на переделку. Это и есть разница между «похоже на книгу» и «можно отправить в МИФ».
Кросс-модельная валидация
Представьте, что статью «Яндекса» вычитывает редактор из Google. Разные компании, разные школы, разные слепые зоны. Если одна не видит ошибку — её видит другая.
Claude Opus 4.7 (Anthropic) → пишет главу ↓Gemini 3.0 Pro (Google) → оценивает по 15 критериям ↓ противоречие? → решает оркестратор ↓Claude переписывает по конкретному ТЗ
Одинокий ИИ ставит «хорошо» даже на плохом тексте (self-reinforcement)
надёжности оценки при добавлении второго валидатора от другого производителя
к стоимости главы. Возвращаем многократно за счёт снижения переделок
Защита от галлюцинаций
Самая дорогая потеря времени в AI-write — когда критик придумывает ошибки, которых нет. Автор переписывает несуществующие места. У нас такие отзывы автоматически выбрасываются ещё до того, как попадут к писателю.
Каждый агент обязан первой строкой процитировать первое и последнее предложение главы. Дословно. Не смог — останавливается с ошибкой.
## Proof of Reading - Title: [первая строка, дословно] - First sentence: [первое, дословно] - Last sentence: [последнее, дословно] - Word count: ≈ 4200 // Если файл пуст: ERROR: Could not read [path]. Review aborted.
После всех рецензий оркестратор автоматически берёт 2–3 цитаты из каждого отзыва и grep-ит их против текста главы. Нет цитаты — весь отзыв выбрасывается.
$ for quote in extracted_quotes:
grep -F "$quote" chapter-04.md
# Если цитаты нет:
DISCARDED: adversarial review —
hallucinated quotes detected.
# Дальше идёт только проверенная критикаИзоляция
Встроенная самозащита. Агент запрограммирован обнаруживать нарушение изоляции и рапортовать. Это как аудитор, который не возьмёт дело, если видит, что документы отредактированы.
Получил bible или синопсис? → откажется и сигнализирует о нарушении. Читает только текст главы.
Получил отзывы других критиков? → остановится. Работает только с сырым текстом главы, без чужих оценок.
Не смог прочитать файл? → выведет ERROR и не станет галлюцинировать ответ от балды.
Bible
Это как бренд-бук для книги. В 5-й главе ИИ не сможет сделать героиню блондинкой, если в 1-й она была брюнеткой. Канон охраняется. Изменения — только через журнал AMENDMENTS.md с проверкой обратной совместимости.
222 строки
Голос, регистр, длина предложений, anti-esoteric правила, Voice Anchors, anti-patterns для русского языка
152 строки
Карта глав, акты, Hook Governance, ритм pacing
113 строк
Сквозные детали с функциями PLANT / REINFORCE / PAYOFF, appearance maps
папка с файлами
Отдельный файл на героя с речевыми маркерами, defense mechanisms, эмоциональными арками
папка с файлами
Описание мира и ключевых локаций
журнал
Контролируемые изменения канона с обоснованиями и проверкой обратной совместимости
Защита писателя
Обычная проблема AI-систем: 11 критиков → 11 отчётов → писатель захлёбывается, начинает «оптимизировать под метрики» и теряет живое. У нас эта проблема решена на уровне архитектуры.
Один файл на ~800 слов. Вся нужная информация вшита. Писатель не читает bible и state напрямую — только этот файл.
После рецензий — не сырые 11 отчётов, а ≤5 конкретных задач на языке писателя: «перепиши вторую реплику — слишком книжная», а не «style-linter: FAIL, §4.2.1».
Это меняет поведение: он не начинает «оптимизировать под метрики», а редактирует то, что реально плохо. Полируем до живости, а не до формальной правильности.
Архитектурное заимствование: принцип из osushi_cr 5-novel workflow.
Формальные модели
Это уровень, на котором работают лучшие литературные редакторы. У нас это вшито в ИИ и отслеживается автоматически. Две формальные модели — бюджеты конструкций и учёт крючков.
Бюджеты речевых конструкций — чтобы ИИ не залипал на любимых оборотах.
Учёт сюжетных крючков. Правило: ни один крючок не молчит дольше двух глав подряд.
Cold Reader Test
Автор читает свою книгу со знанием всего замысла. Реальный читатель в книжном — нет. Наш холодный агент моделирует человека, который открыл книгу наугад. Никакого снисхождения.
Energy Check
Частая беда AI-редактуры: текст становится «правильнее, но скучнее». Критики убивают живое.
После финальной версии оркестратор автоматически сравнивает v1 (первый черновик) и финал:
Если в v1 была сильнее — восстанавливаем. Принцип:
«Polish is not the goal — alive is the goal»
Voice Anchors
В разработке есть регрессионные тесты — они не дают новому коду сломать старую функциональность. У нас такие же тесты, только для качества прозы. Планка качества растёт сама по мере написания книги.
Глава прошла все 7 сит — оркестратор выбирает 1–2 лучших абзаца
Они добавляются в bible в секцию Voice Anchors
Писатель следующей главы обязан дотянуть до этого уровня
Пример реального якоря из bible проекта
«Лена сидела перед пустым столом, обе руки на скатерти — плоские, ладонями вниз. Как человек, у которого вынули руль на полной скорости».
Это эталон. Следующие главы меряются против него. У пользователя обычного ИИ-чата после 20-й главы текст становится хуже. Наша система этого не допускает — планка только растёт.
Traceability
После работы над одной главой остаётся 18 файлов-артефактов. Любое решение можно отследить назад до конкретного агента и конкретной причины. Любую итерацию можно откатить.
.work/chapter-04-plan.md ← план от главреда .work/chapter-04-brief.md ← ТЗ писателю .work/chapter-04-v1.md ← первый черновик (никогда не трогается) .work/chapter-04-gemini-report.md ← отчёт от Google .work/chapter-04-style-report.md ← отчёт корректора .work/chapter-04-character-report.md ← отчёт по персонажам .work/chapter-04-continuity-report.md ← отчёт по логике мира .work/chapter-04-adversarial-report.md ← отчёт критика .work/chapter-04-commercial-report.md ← отчёт редактора МИФа .work/chapter-04-cold-reader.md ← (опц.) отчёт случайного читателя .work/chapter-04-revision-brief.md ← синтез критики в 5 задач .work/chapter-04-v2.md ← вторая версия .work/chapter-04-v3.md ← третья (если нужно) state/chapter-04/situation.md ← что произошло в главе state/chapter-04/characters.md ← изменения в персонажах state/chapter-04/knowledge.md ← что теперь знает читатель state/chapter-04/inventory.md ← состояние сквозных деталей timeline/history.md ← append-only лог
ИИ-чат-диалог: одно окно, закрыл — потерял всё. У нас — как банковская выписка: каждый шаг зафиксирован, каждая версия сохранена.
Прозрачность
Реальная структура проекта Universal Book — всё это существует в git, с историей коммитов, с тестируемыми файлами.
universal_book/ ├── .claude/ │ ├── agents/ 11 файлов, 1,631 строка системных промптов │ └── skills/ 4 скилла, 13.7 KB документации ├── bible/ 9 файлов, ~40 KB канона │ ├── style.md 222 стр · голос, anti-patterns, Voice Anchors │ ├── structure.md 152 стр · карта глав, Hook Governance │ ├── throughlines.md 113 стр · сквозные детали с appearance maps │ ├── characters/ Waiter + guests с речевыми паттернами │ ├── universe/ Restaurant universe │ └── AMENDMENTS.md 3 эволюционных амендмента канона ├── story/ │ ├── synopsis.md 287 стр: логлайн, синопсис, 10 фраз-ударов │ ├── plan.md Детальный план всей книги │ └── chapters/ Главы, прошедшие полный цикл ├── state/ Versioned state per-chapter (symlink) ├── timeline/ Append-only лог событий книги ├── analysis/ Анализы референсных книг ├── scripts/ Python для Vertex AI, perplexity, style ├── ebook/ EPUB builder ├── CLAUDE.md 11.3 KB: полный регламент 19-шагового пайплайна └── .env Vertex AI credentials (в .gitignore)
Это не слайды презентации. Это живой репозиторий с git-историей, реальными system prompts, работающим пайплайном и задокументированной эволюцией архитектуры.
Show, don't tell
Фрагмент первой главы книги «Ресторан Вселенная» — прямой выход пайплайна после 19 шагов валидации. Не литературная правка человеком, не «причёсано редактором».
Лена зашла, потому что проголодалась. Не из любопытства, не по рекомендации — просто мимо шла, увидела дверь, а в животе бурчало с обеда. Дверь была обычная, деревянная, без вывески. Внутри пахло хлебом и чем-то мясным — густо, по-домашнему, так пахнет в подъезде, когда соседка варит борщ.
Зал был полупуст. Столики стояли близко друг к другу, на каждом — белая чашка. Тёплый свет, деревянная мебель, негромко. Нормальное место.
Лена села за свободный столик у окна. Повесила сумку на спинку стула, поправила ремешок. Осмотрелась. На столе лежала тканевая салфетка, стояла белая чашка с тёмной ниткой трещины по ободку. Ни папки, ни стойки с меню, ни таблички с QR-кодом.
→ Здесь нет «он почувствовал, как», нет «повисла тишина», нет триад прилагательных, нет калек с английского. Сквозная деталь (чашка с трещиной) уже вшита как PLANT. Этот фрагмент прошёл через 7 сит и сравнение с Voice Anchors.
Инфраструктура
Это не Web UI. Это двухоблачная инфраструктура с production-grade аутентификацией, версионированием состояния и fault tolerance.
┌─────────────────────────────────────────────────────┐ │ Anthropic Console Google Cloud Vertex AI │ │ ▼ ▼ │ │ Claude Opus 4.7 Gemini 3.0 Pro │ │ ▼ ▼ │ │ Orchestrator (Claude Code + Python scripts) │ │ ▼ │ │ File system: bible/ (RO) · state/ (versioned) │ │ timeline/ (append-only) · .work/ (WIP) │ └─────────────────────────────────────────────────────┘
Anthropic API (Claude) + Google Cloud Vertex AI (Gemini). Отдельные проекты, биллинг, credentials.
application-default credentials — промышленная схема доступа, как в финтехе.
Markdown + git = версионируется, диффится, откатывается. Не in-memory, не SaaS.
Symlink-based state: как в Unix-продакшене, атомарное переключение между версиями.
На чём мы стоим
Противоядие от «повайбкодили с туториалом». Методология собрана из production-источников, research-публикаций и собственной итеративной эволюции.
Два режима
Для бизнес-экспертов с методологией, блогеров с желанием книги, ghostwriters, инфобизнеса. От интервью до EPUB.
Срок: 2–4 недели на книгу 130–160 страниц
Для МИФ / Бомбора / Эксмо / АСТ, литагентств, независимых авторов с черновиком. Прогон готовой рукописи.
Формат: пилотный прогон на 1 главу — бесплатно
Переносимость
Universal Book — это наша витрина AI-архитектурной зрелости. Та же школа инжиниринга применяется в каждом нашем коммерческом проекте. Разница только в домене.
Изоляция контекстов, защита от галлюцинаций в ответах клиентам, регрессионные тесты ответов, кросс-модельная валидация критичных решений. Примеры в портфолио — LookBot и Tonema.
Генерация описаний товаров, персонализация контента, AI-чат поддержки. Bible-driven tone of voice, защита от галлюцинаций в публичном контенте, артефакты каждого ответа.
Tonema AI уже использует multi-criteria scoring через несколько специализированных промптов. Та же архитектура — разные домены.
Автоворонки, email-последовательности, персонализированные рассылки. Bible контента, cold-reader тест каждого письма, cross-model валидация перед отправкой.
Международно
Claude Opus и Gemini одинаково сильны на английском, немецком, французском, испанском, китайском.
Меняется style.md — меняется целевой язык. Архитектура пайплайна не трогается.
Amazon KDP, Apple Books, Google Play Books, Kobo — готовый выход на мировой рынок.
Русское издание (МИФ) → перевод → английское → итальянское / немецкое / французское. Тот же контроль качества на каждом языке.
Стек
Писатель, оркестратор, критики
Быстрые точные роли
Кросс-модельный валидатор через Vertex AI
База оркестрации (ThomasHoussin/Claude-Book)
Vertex AI API, perplexity analysis, style checks
State как база данных: версионируется, диффится, откатывается
Финальная сборка книги для публикации
Production-grade аутентификация в Vertex AI
Для кого
МИФ, Бомбора, Эксмо, АСТ — скейл редакторской экспертизы на большом потоке рукописей
Превратить методологию в книгу без потери 2 лет жизни
Книга под имя за месяц — без ghostwriter-команды
Переупаковать онлайн-курс в формат книги для нового канала продаж
Увеличить пропускную способность команды в 5–10 раз
Контент-фабрика длинных форматов с защитой от AI-шрама
Увидеть production-grade AI-инжиниринг и перенести подход на свои продукты
Три точки входа — под разные задачи.
Хотите превратить идею или методологию в книгу за 2–4 недели — без потери двух лет жизни.
Написать в TelegramПрогоним одну главу из вашего портфеля через commercial-reviewer бесплатно — убедитесь сами.
Заказать пилотАрхитектурный звонок: как применить этот уровень AI-инжиниринга к вашему продукту.
Запросить звонок