Я подключил своим агентам МОЗГ. Вот что изменилось | LightRAG: Claude Code + OpenClaw
完整文本记录
Вот так выглядит ответ агента, у которого есть мозг. Один запрос, кто я такой, и он выдает полную картину.
Вот так без мозга. Та же самая модель, та же подписка за 200 баксов в месяц. И ответ. Это наш первый разговор.
Ну спасибо, дружище, очень помог. Разница между ними 10 минут настройки. Я подключил своим агентам мозг.
Одну базу знаний, которая помнит все. Все проекты, все решения, все связи. И к ней можно обратиться из любого агента.
Клаудкод, опенкло, да вообще из любого. При этом стоит все копейки. Почему без него ваши агенты это дорогие игрушки с амнезией?
Поехали. Но сначала вообще давайте разберемся почему так. Почему вот наши агенты, как правило, не помнят ни черта.
Я думаю, каждому знакома ситуация, например, то что с агентом опенклау обсуждали в топике архитектуру, а сегодня он уже ни слова не помнит.
Ты ему там десять раз сказал, что я там работаю с проектами на Next.js и мы будем делать их. А он опять спрашивает, либо выбирает то решение, которое тебе не нужно.
Три раза сказал не делать так, а он снова предлагает. И даже на подписке за 200 долларов в месяц лимит сессии кончается за час-два, потому что половина токенов уходит на файлы памяти.
Причем это все не баги, это сама архитектура виновата. И есть несколько причин, почему встроенная память ай-агентов не работает.
Первый это сброс сессии. В том же OpenCLO сессия умирает в 4 утра каждый день. И все, что было в контексте, испарилось.
Как тот друг, который после каждой пьянки не помнит, о чем вы договорились. Да, у OpenCloud и у Клауда есть файлы памяти, но LLM сам решает, что сохранять, а что нет.
И нет никакой гарантии, что он это сделает. У клауды кода похожая история. Есть автопамять, но она только загружает первые 200 строк, остальное как не бывало.
И на практике вот это плоский текст локально на одной машине без каких-либо связей. Вторая проблема, которая существует, это как раз раздувание контекста.
Все файл памяти, инструкции, правила, заметки. загружаются в каждый запрос. И OpenClo может засунуть там до 50 тысяч токенов еще до того, как ты что-то напечатал.
Outcode тоже там порядка 30-40 тысяч. Ты открыл там терминал, сказал привет, а он уже сражал четверть контекста на то, чтобы вспомнить, кто он такой и кто ты такой.
И чем больше ты туда напихал, чтоб агент Тем быстрее у нас по факту кончаются лимиты подписки. Т.е. платишь за память буквально.
Третья причина это изоляция, т.е. Cloud Code не знает, что ты делал в OpenCloud. Ладно, разные инструменты, но даже внутри одной системы.
В OpenCloud у тебя может быть там несколько агентов. Например, аналитик, кодер, менеджер. И каждый со своей памятью.
Аналитик там нашел какой-то баг, а кодер не в курсе. То есть это как OpenSpace, где там все у наушника сидят в офисе, и никто друг с другом не разговаривает.
Переехал там на курсор, вот у тебя вообще чистый лист по итогу получается. То есть здрасте, чем могу помочь, я ничего не знаю.
Четвертая проблема с памятью— это плоский текст. То есть ты, например, говоришь агенту то, что Встреча с Иваном перенесена на среду и отдельно.
Иван, дизайнер, делает там макеты для приложения. То есть, это два факта. Агент их запомнил. Но когда ты спрашиваешь, когда мне ждать макеты, он не может связать, что макеты делает Иван, а Иван перенес встречу на среду.
Какие вообще решения есть для памяти и агентов? Что есть у нас на рынке? То есть, есть встроенная память, которая бесплатная, но это плоский текст, да, и каждый агент сам по себе.
Плюс это раздувает контекст, как мы уже обсудили. Есть еще вариант Obsidian плюс Skills. То есть, по сути, вообще это записная книжка больше для людей, куда AI может заглядывать.
Сам создаешь папки, сам раскладываешь, как картотека в поликлинике, да, только цифровая. Есть такое решение, как mem0.
То есть, его тоже можно поднять бесплатно, например, на сервере. Есть даже там какой-то базовый граф, но это, по сути, другой инструмент.
То есть, mem0— это память про тебя. Rack память полноценная, это память про твои проекты, как устроена авторизация, какой стек, кто что делает и почему.
Разница по сути между ними как между визиткой и чертежом здания. GraphRack это серьезная штука, но есть несколько проблем.
Первое, при добавлении новых данных он может запустить перестройку. всей структуры кластеров. Добавил там один какой-то документ, а он пошел перекраивать всю базу, как ремонт в квартире из-за одного гвоздя.
Из этого вытекает вторая проблема, это расход токенов на каждый поиск. То есть графрак при каждом запросе отправляет модели огромное описание своих кластеров.
Т.е. порядка до 600 тысяч токенов у меня по результатам тестов на поиск уходит. Все эти инструменты для памяти я тестировал порядка двух недель и пришел к выводу, что LayTrack наиболее удобное и простое решение.
Т.е. это полноценный граф связи и работает из любого агента через MCP протокол. Данные хранятся у нас вне контекста, т.е.
агент дергает мозг, на котором у нас построен лайтрак, только когда нужно, а не таскает все в каждом сообщении, т.е.
обновляет граф инкрементально, т.е. по частям добавил документ новый. Обновились только новые связи, без пересчета всей базы.
Вот о нем и поговорим. Кстати, если вы внедряете АИ в свой проект или бизнес и не знаете, с какой стороны подойти, у меня есть личные консультации.
Неважно, вы разработчик, который хочет разобраться с конкретным инструментом, или владелец бизнеса, который думает, как это вообще все применить у себя.
Созваниваемся, разбираем конкретно вашу ситуацию, что есть, что нужно и какие есть варианты. Приходите с вопросом, уходите с пониманием, что делать дальше.
Ссылка на бота для связи в описании. Окей, а как LightRack решает все наши проблемы с памятью? Вот так выглядит у нас интерфейс.
У нас сюда загружаются документы. Мы это чуть позже тоже попробуем. Сюда я загрузил, допустим, стандарты разработки своих проектов, текстовку, например, по моим роликам, информацию по моим проектам, голосовые сообщения из OpenCLO, какие-то там другие свои заметки.
На основании этих загруженных документов LightRack построил Knowledge Graph. То есть, граф знаний. Звучит, наверное, как диссертация, но сейчас покажу вживую и всё станет понятно.
Вот вкладка «Граф знаний» и в ней мой граф. То есть, сейчас по факту мы реально залезем ко мне в мозг.
То есть, есть у вас уникальная возможность посмотреть, какой пиздец творится у меня в голове. Выглядит, наверное, как карта галактики, но по сути, каждая из вот этих точек— это какой-то реальный факт из этих документов.
Каждый кружок вот этот— это нода. То есть сущность. Вот мой ИИ-продавец из ролика, который почти год назад уже вышел.
И когда мы кликаем по нему, у нас справа открывается карточка. И вот здесь есть степень. То есть у этой ноды есть 13 связей с другими.
И можно посмотреть связи как раз в подграфе. То есть, E-продавец связан со мной, с Telegram-ботом, с Google-драйвом, с историей сообщений, с ассортиментом товаров и с множеством других нот.
А линии как раз, которые идут между ними, это ребра. То есть, видите, E-продавец, например, связан у нас с Telegram-ботом.
Telegram-бот, например, связан с Superbase. Каждое ребро говорит как одна штука связана с другой, то есть работает там через, хранит данные в или там подключен к.
То есть они не просто как-то лежат рядом, а реально отношение между ними существует.
оркеструктура компании только вот для твоих мозгов. Самые жирные ноды объединяются в кластеры. Как видите, у Supabase, например, аж 55 связей с различными моими проектами.
То, что я в роликах Supabase упоминал. И, по сути, я ничего руками не рисовал. Я кинул все документы, Периодически их дополняю и LightTrack сам вытащил эти все сущности и соединил между собой.
То есть, по сути, как если бы я нанял какого-то аналитика, который прочитал мои записки и нарисовал такую вот карту.
Технически как это работает? Сначала модель читает все эти наши файлы, вытаскивает оттуда сущности, связи, кто там что как связано.
Потом для каждой из них генерирует описание, то есть не просто MIMI-SUPABASE, а что это такое и зачем нужно.
И в конце происходит дедубликация, то есть если одно слово встретилось в десяти документах, в графе будет одна нода SUPABASE, а не десять штук.
То есть три шага из сырого нашего текста получается вот этот А теперь самое интересное, как он ищет. Для этого есть вкладка поиск.
Справа у нас находятся параметры, то есть какой там режим, сколько нот и ребер использовать, то есть насколько глубоко искать.
Ввожу запрос, как, допустим, устроен ей продавец. Отправляем его. Лайтрек взял наш запрос, нашел нужные ноды, там вот E-продавец, n8n, supabase, прошел по ребрам между ними и собрал нам полную картину.
Внизу здесь как раз можно посмотреть то, что вот референсы, из каких документов он что взял. И дал нам исчерпывающую информацию, то есть E-продавец устроен на базе n8n, supabase, В общем, на паузу можете поставить и почитать, если нужно.
По сути, внутри LightTrack работают две модельки. Первая – это Embedding модель. Она превращает текст наш из документов в координаты, то есть числа, которые описывают смысл и находятся в определенном месте в графе знаний.
Каждая нода, каждый кусочек текста получает свою точку в облаке смыслов. И вот эти кластеры все большие, которые вы видите на графе, они не случайно там рядом стоят.
Например, кластер OpenCLoud и кластер LightTrack рядом, потому что LightTrack может работать с OpenCLoud.
Embedded модель это и делает, то есть раскладывает факты так, чтобы похожие были рядом. Вторая LLM, которая стоит, это, ну, по сути, модель библиотекарь.
Не Cloud, да, там по подписке, которая там за 200 долларов в месяц, а маленькая, шустрая, ну, типа там...
Стажер в библиотеке, который берегает между полками и собирает вот нужные книги и дает нам готовые факты.
То есть его работа вытаскивать как раз вот эти сущности из текста и собирать ответы на запросы. Я для этого использую модель Gemini 2.5 Flashlight.
Через пользу AI стоит копейки, но сколько конкретно стоит покажу проще в конце ролика с реальными числами.
А для того, чтобы нам к этому библиотекарю самому не ходить, мы подключаем просто LightTrack через МСП к нашим агентам.
МСП простым языком это ну как не знаю как USB как стандартный разъем для подключения там инструментов к ей агентам и у нас получается по сути один конфиг и Cloud Code, Open Cloud, курсор там вот что угодно подключен к одному мозгу.
Давайте посмотрим как это выглядит на практике из агентов. Я буду показывать на Cloud Desktop это доступное приложение все тоже самое работает и в терминале и и в расширении для Visual Studio, OpenCLOD и вообще любой агент, который поддерживает MCP.
То есть интерфейс разный, мозг у нас один. Вот CLOD-код. То есть обычный, сейчас без LightRack я его отключил.
Мы его спрашиваем просто, кто я такой. Он даже решил жульничать, он посмотрел свою память, внутреннюю.
Ну, я ее почистил предварительно, поэтому он пишет, что у меня пока нет никаких сохраненных данных о тебе.
Это наш первый разговор. А теперь тот же Cloud Code, но с подключенным LightRack. Тот же самый вопрос, кто я такой?
Ты Алексей Колесов, YouTube канал такой-то. вайб-кодер, мой стэк, интересы и активные проекты. Локация Россия, криптой не интересуешься, то есть ничего себе у нас первое свидание, то есть он знает обо мне больше чем некоторые коллеги.
И это свежая сессия, то есть у нас ноль контекста, все из графа. Та же модель, та же подписка, разница в 10 минут настройки и вот такой результат.
Ну да, информацию обо мне он бы мог взять бы из стройной памяти, поэтому давайте мы перейдем каким-то более сложным примером.
Давайте погоняем по моим проектам, спросим как устроен n8n mcp сервер. Это твой проект, 8600 строк кода, двухсерверная модель, проксия, модификация, сессии без кэша, 15 инструментов, база знаний, супабейс под капотом, то есть он абсолютно все про мой проект знает.
Про n8n appcp был отдельный ролик, кто не видел, рекомендую посмотреть. Ссылку в описании оставлю после просмотра этого ролика.
Можете посмотреть и его. Агент сходил и собрал полную картину по этому проекту за секунды. Не загуглил, а прошел по графу.
Что такое контент-завод для Telegram? Это твой проект. Система для автоматизации ведения телеграм-канала.
Как работает, какие воркфлоу, какие таблицы, оценка качества и расширяемость. Какой стэк у дашборда видеопродакшена?
Стэк такой-то веб-приложения, Next.js, Superbase и т.д. Тут Whisper, AI-чат, YouTube Data API. Хорошо, давайте глубже копнем.
Кто его сделал? Дашборд ВП делали втроем Алексей и ты, заказчик инициировал создание через AI-компанию.
Дима основной кодинг и Виктория. Где работают Дима и Виктория? Что за АИ-компания? Он сходил опять же в Лайтрак и посмотрел то, что они работают в АИ-компании, которая управляется через Paperclip.
АИ-агенты они люди, Paperclip их офис, там хранится орг структура, роли сотрудников агента задачи. Ты единственный человек в этой компании.
Остальные ИИ. Мы посмотрели данные по трём разным проектам. по трём там разным роликам, а мозг по факту помнит всё.
Как будто у тебя есть ассистент, который посмотрел все твои видео, в курсе всех твоих проектов, прочитал все твои заметки.
Если тоже хочешь такого ассистента, ставь лайк. Окей, данные он помнит, а как данные вообще попадают в мозг?
Есть несколько способов. Способ первый, да, то есть агент сам решает, что вот мы, допустим, у нас есть топик, где мы что-то обсуждаем, если Какой-то важный, на его взгляд, элемент есть, который нужно запомнить.
Он может вызвать этот инструмент и сам, собственно говоря, записать. Как он знает, что сохранять? Конфигурация у него прописана.
Вот, кратко покажу. То есть, при старте сессии ищи контекст. Во время работы сохраняй решения, выборы, факты.
Пропускай там мусор. Для OpenCloud то же самое, только файл называется Agents.md. Подробнее покажу в установке, пока знаете, что эти два файла существуют.
Способ второй. Мы можем напрямую ему сказать, что нам нужно. Запомни, что если у ребят будет лайтрак-интерес, они прожмут там лайки, колокольчики и все кнопочки, которые существуют, что нам нужно с тобой показать интеграцию лайтрак с N8n.
Влад написал короткую заметку, собственно говоря, передал библиотекарю, а он там уже в нужной нам часть нашего графознания и мозга положил.
По факту я там через месяц спрошу, какие идеи для видео у меня есть, он мне напомнит то, что Можно показать интеграцию LiveRack с n8man, если зрители поставили лайк.
Работает как по-русски, так и по-английски. Можно написать remember и что нам необходимо. В обратную сторону, соответственно вспомни, либо recall.
по-английски. Ну и третий способ загрузить данные в наш мозг это пакетная загрузка через интерфейс LightRack.
Покажу ее чуть позже на этапе установки. А теперь самый ленивый способ. Это Telegram. У меня есть агент OpenCLO, про него был отдельный ролик на канале.
В нашей группе с ним есть топик знания. Я говорю агенту записывай все и он с этого момента каждое сообщение в этом топике автоматически записывает мозг.
Это тоже у него записано в системном промпте. Функция AutoCapture. Никаких там скриптов, никакого терминала не нужно.
Мы можем записать голосовушку в телеге и, например, сказать то, что слушай, я созванивался с Максимом, заказчиком по e-продавцу, он просит добавить ему аналитику ПО конверсиям и дашборд для менеджеров нужно сделать до конца апреля.
Агент расшифровал нашу голосовушку, вытащил суть и сохранил лайтрек. Вот она, появилась новая заметка.
Если мы зайдем в граф знаний, мы здесь увидим то, что вот. Максим, дашборд, аисэллер и так далее. Можно здесь также по имени узла искать.
Теперь, когда я сяду работать, агент уже знает, что нужно сделать. Я эту голосовуху через неделю забуду, а мозг нет.
Лучше любого ежедневника, не нужно там ничего открывать, просто вот наговорил на ходу. И вот ключевой момент.
Если мы вернемся в Cloud Code и спросим, что мне нужно сделать для Максима, он идет в наш мозг и, собственно говоря, говорит, Максим клиент по проекту, он запросил дополнительные функции Dashboard, дедлайн такой-то.
То есть по факту мы получаем один мозг, который можно войти через любой вход. И это работает с любым агентом через протокол MCP.
То есть Cloud Code, OpenCLO, Paperclip, хоть свой бот на Python написанный. То есть один конфиг и все подключены к одной памяти.
Без каких-то синхронизаций, без экспортов и без прочих танцев с бубном. И степень детализации этой памяти и мозга может быть достаточно такой глубокой.
Например, Paperclip команда, они как раз сегодня тестировали безопасность. Вот давайте что-нибудь спросим.
Я спросил, есть ли проблемы с безопасностью моих проектов. Не уточняю проект. Ребята работали над дашбордом, ну и собственно говоря, они туда это записали.
То есть, дашборд WP API маршруты без авторизации. То есть, вот баг они нашли, и соответственно, из совершенно другого инструмента мы можем вернуться в OpenFlow и тоже самое спросить, и он тоже самое ответит.
То есть, любой из фактов из одного контекста доступен в любом другом. И не нужно при этом копировать, не нужно там пересказывать.
Мозг 1. То же самое касается и мультиагентных систем в рамках одной платформы. Ок, вы все это посмотрели и теперь хотите, например, себе этот мозг установить.
И тут обычно начинается терминал, докер, переменное окружение, конфиги, SSL-сертификаты. Кто не дружит с терминалом, уже вспотел.
Раньше бы я записал часовой мануал, где разбираю каждую переменную, за что отвечают. Но сейчас, в 2026 году, нахрена это делать?
Вот у нас есть папка с инструкцией. Есть файл install.md, то есть это точка входа. Внутри пошаговые инструкции для агента.
Что спросить, что поднять, что проверить, что выдать в конце. Все расписано. Сам лайтрак open-source, то есть бесплатная ссылка на гитхаб.
Будет в моей телеге, кто хочет, может сам разобраться. Но зачем, если можно сделать вот так? Специально сейчас отключил свой мозг и покажу вам на тестовом сервере, как это все работает с полного ноля.
Открываем чистую, пустую сессию Cloud Code, выбираем папку с инструкциями и пишем сообщение. В этом сообщении мы указываем данные для доступа к нашему серверу, IP, логин, пароль, отправляем его.
Прочитал инструкции и пошел смотреть на сервере, что у нас стоит, что нет. И сейчас составит нам план установки.
Что ему непонятно, он у нас спрашивает. То есть, есть ли домен. Мы ему пишем домен, потому что он у нас привязан уже.
Какой LLM-провайдер мы будем использовать для LightRack? Я буду использовать Pulsar AI. Ссылку тоже оставлю в описании на ребят.
Это агрегатор API нейросети и, соответственно, ключи находятся в разделе API-ключей. Отправляем сообщение.
Сдал все планы работы и пошел устанавливать и разворачивать все на сервере. Занимает это все порядка 10 минут.
Пока он работает, расскажу, что он делает под капотом. Он генерирует IP-ключи, пароли, токены, все сам.
Не надо ничего придумывать и где-то все записывать. Подключит MCP к OpenCloud, который стоит на сервере, и подключит MCP к нашему Cloud Code, который работает локально.
То есть он сам все сделает, добавит все конфиги, и помимо этого пропишет промпты для агентов, чтобы они понимали, как работать с нашим мозгом.
Иногда он тут может споткнуться, серверы разной конфигурации, Если что-то не сработало, то просто можно сказать ему, что почини, и он там разберется.
Но обычно с этой инструкцией он справляется с первого раза. Я протестировал порядка 20 установок и проблем не было.
Ну и да, конечно, он и на чистый сервер все поставит, но удобнее, когда у вас уже стоит OpenCLO, чтобы он все конфиги прописал.
Вот что он выдал. URL, адрес сервера, все нужные. IP-ключи, логины, пароли, статус подключения к клауд-коду и OpenCloud.
То есть все сгенерировано, все подключено. Никаких там скопируй эту переменную, вставь там сюда, не забудь там кавычки, а теперь перезагрузи и поболись.
Он сам все сделал. Зайдем в интерфейс. Граф, естественно, у нас пустой и ждет наших документов. Давайте проверим, что все работает.
Для этого загрузим парочку документов. Я закину транскрипцию своих роликов. Ну и тут несколько минут нужно подождать, чтобы файлы обработались.
Пошла индексация файлов. И если мы зайдем в граф знаний, ноды уже появились, связи строятся. И, ну, работает это, в принципе, точно так же, как я показывал в своей версии.
То есть, чистая установка и через 10 минут полноценный мозг. Кто бы мне год назад сказал, что настройка сервера будет выглядеть вот так, я бы, честно говоря, не поверил.
Я рекомендую ставить это все-таки на сервер, а не локально, чтобы данные были доступны всегда. Даже когда ноутбук закрыт или даже с телефона.
И мощностей тут особых не нужно. Один простой сервер за 800-1000 рублей это потянет. Если у вас уже есть сервер, то отдельно ничего заводить не нужно.
Лайтрэк встанет рядом. Нет сервера и пока не готовы. Тот же докер, это технология, с которой лайтрэк разворачивается, ставится и на Mac, и на ноутбуке.
Ставится точно так же, только без домены. Потом можно перенести. Давайте теперь проверим, как работает.
Я открыл тестового бота, который привязан к OpenCloud. Ну и, собственно говоря, он сейчас в базу знаний сходит и посмотрит, и расскажет, что там есть.
Из знаний сейчас три документа, все обработаны. Ассистентка, ну, собственно говоря, он уже ориентируется в контексте.
Ну и в Paperclip доступ к нашему мозгу тоже есть, потому что мы прописали конфиги для кода, который стоит на сервере.
И автоматически для всех агентов они подтянулись. Про Paperclip ролик есть на канале, рекомендую посмотреть после этого.
Вся эта папка с инструкциями, с файлами правил, стратегии загрузки будет в приватке. Ссылка в описании, подробнее расскажу в конце ролика, а пока давайте поговорим про грабли, потому что без них не бывает.
Первый нюанс, который стоит знать, то что каждый документ, который мы загружаем, Он обрабатывается секундом 30-60, потому что модели нужно прочитать текст, вытащить сущности, построить связи.
То есть, если ты закинул 50 файлов, будь готов подождать минут 20-30. Не критично, но знать надо. Второй нюанс, который важно знать, это то, что если мусор на входе, то мусор и в графе.
Я по наивности закинул сырые логи с сервера, ну вы знаете, эти километровые портянки с ошибками. Граф нарожал ноды типа ERROR500 или CONNECTION TIMEOUT.
Очень полезные сущности. Ага. Пришлось потом чистить. Третий нюанс. Если агент запомнил какую-то чушь, это легко чинится.
Вот смотрите. Грок, например. Зачем он нам нужен? Мы на него кликаем на сущность и нажимаем кнопку PRUNE.
Все. Его нет. Нажал, удалил. Связь там неправильно удалил. Можно там самому агенту сказать, удали сущность X из мозга.
То есть там пару секунд и не нужно лезть в базу данных, не нужно писать запросы, как в случае с SuperBase.
Мозг это не татуировка какая-то, все исправимо. Теперь что загружать в мозг и в каком порядке? Мои ай-агенты наваяли вот такую пирамиду.
На вершине, да, у нас решения и причины. То есть самое ценное записать не что решили, а почему. Выбрали Telegram-бота вместо мобильного приложения, потому что клиенты уже в телеге и не хотят ничего скачивать.
Отказались от сервера на Amazon там в пользу своего, потому что это тупо дешевле. То есть решение без причины это бесполезный факт.
А с причиной агент потом сам подскажет похожее решение в каком-то новом проекте. Дальше факты о проектах.
стек структура там текущие задачи потом там предпочтение то что например там все проекты делай на next.js разворачиваю проекты там через докер и только на своем сервере именно внизу пирамиды это у нас документация какие-то там документы свои гайды заметки а вот что точно не нужно загружать это исходный код какие-то там логи дамп базы данных начни там с 10 ключевых фактов это будет лучше чем тысячу файлов с мусором.
То есть лучше маленький чистый граф, чем огромная помойка. И лайфхак напоследок. Это голосовые заметки.
Помните, как я показывал, как я наговорил голосовушку в Telegram? Если бы она была более длинная, то не нужно там как-то структурировать свои мысли в голове.
Можно просто наговорил, как есть, потоком сознания. Но просто если мы скинем этот поток сознания напрямую, он запишет, как есть со всеми там, ну, короче, блин, его там и прочее.
Поэтому в конце просто своей заметкой говорите то, что структурируй и сохрани в базу знаний. Не бойтесь самому и агенту довериться, то есть мозг-то наш в формулировке его, потому что ему потом с этой инфой и работать.
И главный вопрос, который все, наверное, ждали. Сколько это стоит? Индексация 58 документов – 15 рублей.
Это разовый расход. Весь расход за все это видео – 7 рублей. И вот что важно. Не важно, что будет с инструментами через полгода.
Память живет отдельно от них. Новые агенты приходят и уходят, а все ваши наработки, данные по проектам всегда останутся на месте.
Инструкция для установки, конфиги для агентов – все будет в моем приватном телеграм-канале. Ссылка в описании, QR-код на экране.
Плюс там решение всех моих роликов, чат и видео созвоны, где мы обсуждаем наболевшие. Если нужна помощь конкретно с вашей задачей, есть опция обратиться на консультацию.
Ссылка на бата для связи тоже в описании. Если видео было полезно, подписка, лайк и комментарий это лучшая поддержка с твоей стороны.
Увидимся в следующем видео, пока!