


Алексей Мосаз: собрал SaaS-сервис без навыков программирования и вывел его на доход в $2000 в месяц
В кейсе рассказываем, как маркетолог без опыта в программировании собрал SaaS-сервис с помощью нейросетей. Flaita.ru — сервис сквозной аналитики для Телеграма, который приносит около $2000 в месяц.
Начал с баловства в ChatGPT, а потом открыл по нему юрлицо в Азии
Я начал пользоваться ChatGPT с самых первых версий. Как и у многих, сначала это было баловство со скептицизмом: задавал простые вопросы и тестировал границы. Но с каждым разом задачи становились серьезнее. Я начал делегировать нейросети расчеты: данные, PnL и финансовые модели.
В какой-то момент дошло до юридических задач. Одно из моих юрлиц в Юго-Восточной Азии я открыл полностью по результатам анализа, который провел ChatGPT. Он помог изучить местные законы, подготовить сделку с юристами и пройти регистрацию. После этого я уже не воспринимал нейросети как игрушку.
Разработчик выставил чек как за крыло Боинга, фрилансер кинул — начал делать сам
В вайб-кодинг меня толкнули две причины:
- разработка стоила слишком дорого;
- общаться с разработчиками было сложно.
Я несколько раз приходил к классическим разработчикам с идеями полезных микро-инструментов для бизнеса, а мне выкатывали чеки как за крыло Боинга и размазанные сроки. А однажды я нанял разработчика с фриланса на один проект, и тот меня просто кинул.
Но дело было не только в неудачных подрядчиках. Чтобы разобраться со сквозной аналитикой, мне приходилось либо платить за тяжеловесные enterprise-сервисы, где 80% функций были не нужны, либо тратить месяцы на интеграции. Сервисы при этом вели между собой рыночные войны и отключали друг другу обмен данными.
Отдельный квест для фаундера без технического бэкграунда — общение с разработчиками. Им нужно идеально выверенное ТЗ, иначе приходится нанимать техдира как переводчика между бизнесом и кодом. Я поставить такое грамотное ТЗ не мог, а нанимать лишних людей мне было не на что.
Поэтому я начал собирать MVP своими руками с помощью ИИ.
Скормил нейросети десять API-документаций — она разложила хаос в дерево задач
Флаиту я начал собирать под конкретный запрос клиентов — им нужна была сквозная аналитика. Первым делом пришлось разобраться с API-документациями сторонних сервисов, их было штук десять, каждая со своей структурой и логикой. Я скормил все это нейросети, и она разложила хаос в понятное дерево задач.

Разработку, правда, это не сильно упростило и я надолго застрял на бэкенде. ИИ постоянно выбирал самый простой путь в моменте и вместо того чтобы разбивать код на маленькие функции, создавал монструозные файлы на тысячи строк. Меня как перфекциониста от такого бардака коробило, поэтому я постоянно причесывал архитектуру.
И из-за этого попал в другую ловушку: мы с нейросетью сидели вдвоем и бесконечно улучшали даже самые простые компоненты. Код-ревью приводило к рефакторингу, рефакторинг порождал новое код-ревью. Чтобы получать хоть какой-то дофамин от процесса, я начал параллельно с бэкендом собирать фронтенд.
| Уже после закрытого релиза я взялся за сложную фичу: автоматический подсчет данных по историческим событиям Telegram-канала. Нужно было в одном окне за пару секунд сводить данные из трех разных таблиц и на лету пересчитывать их с учетом пользовательских вводных по расходам. База начала откровенно тормозить, и самостоятельно я это решить не мог. Тогда я выдал ИИ гостевой доступ к базе, строго на чтение. Целый день он долбил ее запросами, находил узкие места, перестраивал индексы и складывал мне задачи по оптимизации. Мы трудились еще неделю, но в итоге ускорили выдачу данных в семь раз. |
Завел 20 файлов документации — галлюцинации упали на 80%
Однажды я решил сэкономить время и скормил в один промпт сразу несколько связанных задач. Ушел пить чай, возвращаюсь через 40 минут — модель сама с собой разговаривает и генерирует код. С каждым кругом галлюцинации становились все забористее. В итоге она не выполнила ни одну задачу, забыла изначальные вводные и начала опираться на собственные выдумки из предыдущих ответов.
После этого случая я изменил подход. Вместо больших задач начал давать модели супер-мелкие шаги. Не «сделай мне модуль аналитики», а «добавь функцию, которая принимает такие-то параметры и возвращает такой-то результат».
А чтобы она не теряла контекст между сессиями, я завел папку /docs и начал складывать туда файлы с документацией. Сначала их было пара штук, со временем выросло до двадцати: архитектура, базы данных, безопасность, CI/CD. Писал их не я — ИИ сам составил документацию на основе ТЗ и дополнял ее после каждого закрытого блока работы.
У документов постепенно сложилась единая структура: цели, текущие данные, требования, рекомендации, техдолг и чек-лист задач. Самая полезная часть — ссылки на конкретные строки из корневого файла CONCEPT.md, что-то вроде «Архитектура и стек». По ним модель быстро находит актуальную информацию и не начинает фантазировать.
Документация лежит не только в корне проекта, но и внутри директории каждого компонента. Перед любой задачей нейросеть проходит по ней, видит, какие функции уже существуют и как связаны модули. Галлюцинации после этого упали примерно на 80%.

У документации оказался еще один неожиданный плюс: она позволила безболезненно менять модели. За время работы я прошел через несколько: начинал с GPT, потом перешел на Gemini, потом на Codex, попробовал Claude, вернулся к Codex. Какая-то модель после обновления начинала тупить, другая в это время становилась точнее, и я переходил на нее. Раньше каждый такой переезд давался тяжело — ты месяц общаешься с моделью, она уже знает проект, помнит терминологию, понимает контекст решений. Начинать заново в другой казалось откатом. Но когда весь контекст лежит в документации, проблема исчезает. Скармливаешь документы новой модели — и за день она выходит на ту же скорость.
Сейчас у меня два инструмента. Когда нужно что-то обсудить, посчитать юнит-экономику или поштурмить архитектуру, я открываю Gemini PRO через AI Studio. Код пишу в Codex внутри VS Code — это основной инструмент для разработки.
Flaita приносит $2000 в месяц, микросервис собирается за 2–3 дня
Flaita.ru начиналась как приватный инструмент для моих корпоративных клиентов. Когда сервис заработал стабильно, я вывел его в паблик. Сейчас Flaita приносит около $2000 в месяц.
На работу у меня ушло примерно 9 месяцев. Я сразу строил архитектуру на вырост, с упором на безопасность и отказоустойчивость при высоких нагрузках. На старте экономить время не получалось, обучение и разработка слились в один длинный спринт. Но я получил навыки, с которыми теперь могу собрать IT-решение под большинство бизнес-задач.
Сейчас собрать полезный микросервис я могу за 2–3 дня. Механику я уже отработал, многие куски кода собираются как пазл из прошлых наработок. Когда мне нужен новый микросервис, я открываю Cursor, поднимаю пустой проект с Git и кладу в корень документацию. Описываю своими словами, что хочу получить на выходе. Обычно у меня уже есть соседний проект со сложной архитектурой, и я подсвечиваю нейросети, что оттуда можно переиспользовать лучшие практики. Прошу сразу покрыть все компоненты тестами.
К вечеру первого дня базовый сервис уже работает. ИИ к этому моменту выдает задокументированные компоненты, чек-лист того, что сделано, бэклог того, что осталось, и отдельный список задач для меня — например, прогнать базовые проверки или добавить секреты в GitHub. Второй и третий дни уходят на отладку и полировку.
Не ведитесь на байки про SaaS за выходные — первые пробы займут месяц
Главное, что я понял за это время — не спешите. Не ведитесь на байки про «собрал SaaS за выходные и лутаю бабки, пока пью смузи». На спешке вы получите ИИ-франкенштейна, который развалится под нагрузкой. Первые пробы пера могут занять месяц, и это нормально, потому что вы в этот момент учитесь.
Еще я бы посоветовал с самого начала писать тесты на все. На старте я игнорировал TDD (разработку через тестирование), и у меня накапливался колоссальный технический долг. Без тестов любое изменение структуры приводит к тому, что ИИ, как слепой котенок, ломает соседние модули и начинает вас газлайтить, доказывая, что «так и было». А если работаете с несколькими нейросетями, заведите отдельную ИИ-модель как критика, который проверяет код на безопасность перед выкладкой.
И не влюбляйтесь в собственный продукт, пока не провалидируете его деньгами. Если делаете пет-проект чисто для себя, влюбляйтесь на здоровье. Но если строите SaaS для заработка, будьте готовы слезть с «дохлой лошади», если рынок не откликнется. А начинать все равно стоит, даже если первые промпты будут выглядеть как «Эээ, куда жмать, расскажи». В процессе вы научитесь читать код, понимать архитектуру и встраивать ИИ в свою работу.
Бонус: всегда проверяйте нейросети
Однажды на другом проекте я попросил ИИ написать скрипт, который выводит аватарки пользователей из Telegram на сайт. Через пару минут он выдал готовый код, я расслабился, не стал вчитываться и залил на сервер. Все работало, но потом меня дернуло открыть URL картинки в новой вкладке. Смотрю на ссылку, а в ней прямо открытым текстом торчит секретный API-ключ бота. Нейросеть захардкодила его в публичный адрес. С тех пор я жестко прописал авто-тесты на безопасность и обязательную ручную вычитку кода перед выкладкой.
В Нейроцехе можно сказать «непрограммистскую херню» и тебя поймут
Главная ценность для меня здесь в контактах. В Нейроцехе собрались фаундеры, авторы, сильные специалисты. И атмосфера абсолютно нетоксичная.
Можно задать какой-нибудь непрограммистский вопрос, и тебя поймут, поправят и поддержат без навешивания ярлыков. Для человека без технического бэкграунда это важно.
Каждый день кто-то делится своими кейсами внедрения. Погружаясь в это, ты методом осмоса впитываешь идеи и подсматриваешь чужие решения. Они потом неожиданно всплывают при работе над собственными проектами. Бывает, сижу над задачей и вспоминаю: кто-то в Нейроцехе уже был в похожей ситуации. Иду в поиск по чату, нахожу то сообщение и дальше действую по аналогии.
