Корпоративный поиск и ответы по документам компании. Без галлюцинаций.
AiST RAG превращает 1С ДО, файлошары, СБИС, Confluence и почту в единый AI-поиск: задаёте вопрос словами — получаете точный ответ со ссылками на первоисточник. Уже встроен в AiST Platform — включается чек-боксом.
- ⌕ Гибридный поиск + reranker
- ⛁ 40+ типов источников
- ⛨ ACL до уровня документа
- ⌬ Цитаты с ссылкой на абзац
- ◉ 152-ФЗ · on-prem · ru-эмбеддинги
Корпоративные знания спрятаны в 30 системах. Никто не может их найти.
По данным McKinsey сотрудник тратит 1.8 часа в день на поиск нужной информации. А ChatGPT отвечает уверенно — но выдумывает половину фактов и не знает ваших договоров.
Знания живут в 30 системах
1С:Документооборот, СБИС, Confluence, файлошары, Outlook, Teams, портал, Sharepoint. Чтобы найти ответ, сотрудник лезет в 5 систем — или просто звонит коллеге.
ChatGPT уверенно врёт
Публичный AI не знает ваших договоров и регламентов. Сочиняет правдоподобные ответы — юрист и продакт это потом разгребают неделями. Доверять нельзя.
Нельзя загружать в ChatGPT
Договоры, прайсы, перс. данные клиентов, проектная документация — по 152-ФЗ и NDA в публичный AI это нельзя. А значит, AI для самой ценной работы — недоступен.
Полный RAG-конвейер уже собран. Вы только подключаете источники.
Парсинг, OCR, чанкинг, эмбеддинги, гибридный поиск, reranker, генерация ответа с цитатами — каждая стадия настроена и работает «из коробки» внутри AiST Platform.
-
01
Подключаете источники — чек-боксом 40+ коннекторов: 1С:ДО, СБИС, файлошары (SMB/NFS/S3), Confluence, Sharepoint, Outlook, Bitrix24, веб-сайт, БД. Учётка сервисного пользователя — и готово.
-
02
Платформа сама всё индексирует Распознаёт сканы (AiST OCR), достаёт таблицы из Excel, разбирает PDF и PPT. Чанкинг по смыслу, не по словам. Инкрементальный синк — меняется документ, обновляется индекс.
-
03
Гибридный поиск + reranker BM25 ловит точные термины и номера, vector — смысл. Cross-encoder отбирает топ-8 чанков из 200 кандидатов. Точность ответа — на уровне 0.92–0.96 по корпоративным запросам.
-
04
Ответ с цитатами и проверкой LLM формирует ответ только по найденным фрагментам. Каждое утверждение — со сноской на абзац документа. Если в документах нет ответа — честно скажет «не знаю».
Не «эмбеддинги в Pinecone». Полноценный enterprise-RAG.
12 инженеров два года собирали то, что у вас включается одной галочкой. Всё промышленно настроено — парсинг таблиц, ACL, инкрементальный синк, мультиязычность, обновление индекса в real-time.
Hybrid Search
BM25 + dense vector + sparse vector. Ловит и точные номера договоров, и смысловые запросы.
Reranker
Cross-encoder отбирает лучшие фрагменты из кандидатов. +30% к точности.
Multi-tenant индексы
Каждое подразделение — свой индекс. Юристы не ищут по HR, продажи — по юристам.
ACL до документа
Права наследуются из 1С:ДО, AD, Confluence. Сотрудник видит только то, что ему положено.
OCR на лету
Сканы договоров, фото с планшета, PDF без текста — через AiST OCR. Русский, англ., рукопись.
Парсинг таблиц
Excel, таблицы в PDF и DOCX — сохраняем структуру. Можно спрашивать «сколько в строке 7».
Цитаты и подсветка
Каждый факт в ответе — со ссылкой на абзац. Можно открыть документ и увидеть выделенное.
Инкрементальный синк
Изменился документ — обновился индекс. Удалили — исчез из поиска. Без ручных переиндексаций.
RU-эмбеддинги
BGE-M3, GigaEmbed, E5, ваша модель. Заточены под русский — не английский OpenAI ada.
Streaming ответы
Ответ печатается по мере генерации. Пользователь не ждёт 10 секунд молчания.
Метрики качества
Precision, recall, citation accuracy, faithfulness — из коробки. Видите, где RAG проседает.
Любая LLM через Gateway
GPT-4, Claude, GigaChat, YandexGPT, ваш self-host. Меняется в настройках — без кода.
40+ коннекторов к тому, где у вас уже лежат знания.
Не нужно «сначала собрать всё в корпоративный портал». Подключаемся к тому, что есть — 1С, файлошары, СБИС, почта, Confluence, БД. Источники остаются на своих местах, RAG читает их «на живую».
// документы и файлы
// файлошары
// CRM & ERP
// почта & коммуникации
// БД & справочники
// веб & внешнее
Один индекс на всю компанию — или по одному на каждый отдел.
Внутри AiST Platform каждое подразделение получает свою «песочницу» знаний с собственными источниками и правами. Юристы не видят документы продаж, HR не ищет по договорам клиентов. Один общий индекс — только для того, что должно быть общим.
Платформа сама ходит и забирает изменения по расписанию. Ничего настраивать в источнике не нужно.
1С:ДО или Confluence сами уведомляют о новом документе — индекс обновляется за секунды.
Права из источника прорастают в индекс. Пользователь в поиске видит только то, что у него уже есть.
От юриста до поддержки клиентов — один движок, разные сценарии.
RAG — это не «ещё один поиск». Это новый интерфейс ко всем знаниям компании. Каждое подразделение собирает себе ассистента — на тех документах, которые именно ему нужны.
Поиск по договорной базе
«Найди все договоры с типовыми штрафами больше 5%» или «есть ли в нашей практике контракты с такой формулировкой?». Ответ за секунды, не за часы ассистента.
Помощник по регламентам
Сотрудник спрашивает «сколько дней отпуска у меня осталось и как оформить отгул» — получает ответ из ваших ЛНА и 1С:ЗУП. HR освобождается от типовых вопросов на 60%.
Ответы клиентам по документации
Чат на сайте/в Telegram отвечает на вопросы по продукту с точностью эксперта — на базе вашей документации, FAQ и тикетов. 70% обращений закрываются без человека.
Поиск по тендерной документации
«Найди в этом тендере на 200 страниц все требования к сертификации». Ответ за 30 секунд, не за день. Менеджер успевает участвовать в 5 тендерах вместо 1.
Тех. документация для инженеров
«Какой момент затяжки болтов на узле X?» — ответ из ГОСТ, регламентов и чертежей. Инженер на площадке получает ответ с планшета за 5 секунд, без звонка в офис.
Поиск по корпоративной памяти
«Что мы решили на стратегии в сентябре по проекту X?» — ответ из протоколов, писем, презентаций. Корпоративная память перестаёт зависеть от конкретных людей.
Вам не надо собирать RAG. Он уже собран и работает.
Каждый стартап «делает свой RAG» — и через 6 месяцев получает прототип на 1000 документов. У нас всё уже промышленно: vector DB, эмбеддинги, OCR, ACL, мониторинг, eval. Включается чек-боксом.
Включается — не строится.
AiST RAG — это сервис в составе AiST Platform. Вам не нужны ML-инженеры, vector DB в инфре, разработка пайплайна и месяцы экспериментов. Открыли кабинет, выбрали источники, нажали «индексировать» — через час пилот в продуктиве.
«Мы три квартала пытались собрать свой RAG. Развернули AiST — первый рабочий ассистент юристов был у нас на четвёртый день»
Что ещё есть на AiST Platform→Знания компании — под замком, под аудитом, в вашем периметре.
RAG работает с самым ценным активом компании — знаниями. Поэтому в AiST он спроектирован сначала под ИБ, и только потом под UX.
Закрытый периметр
- On-prem или AiST BOX в вашем ЦОД
- Документы не уходят за контур
- ACL-проброс из 1С / AD / Confluence
- RBAC до уровня документа и абзаца
- PII-маскирование в индексе
- Аудит каждого запроса — в SIEM
Качество и контроль
- Каждый ответ — с цитатой
- Метрики precision / faithfulness
- Чёрные списки документов и тем
- «Не знаю» вместо галлюцинаций
- A/B тесты эмбеддингов и промптов
- Лог спорных ответов — на ревью
Прогнозируемые расходы
- Бюджеты на токены по подразделениям
- Кэш ответов — минус 40% к счёту
- Эмбеддинги в своём контуре — дешевле
- Прозрачный счёт в рублях
- ROI: время поиска до и после
- Подписка или выкуп лицензий
Что обычно спрашивают перед пилотом RAG.
А точно не галлюцинирует?
Модель отвечает только по найденным фрагментам — это и есть смысл RAG. Если в документах ответа нет — ассистент честно скажет «информация не найдена». Каждое утверждение — со сноской, можно проверить в один клик.
У нас 50 ТБ файлов. Потянет?
Да. Vector DB шардируется горизонтально, эмбеддинги считаются батчами в своём контуре. Крупнейший боевой индекс — ~80 млн чанков, ответ за ~1.2 сек. Стартовый объём не ограничен — только инфра.
Как с правами доступа?
ACL прорастает из источника в индекс. Если в 1С:ДО документ виден только юристам — в поиске его тоже увидят только они. Никаких отдельных «прав на RAG» настраивать не надо.
Сколько занимает запуск?
Пилот на одну предметную область — 1–2 недели до продуктива. Полное развёртывание корпоративного RAG со всеми источниками — 4–6 недель. Шаблоны под типовые сценарии (юрист, HR, поддержка) ускоряют ещё вдвое.
Какие модели можно использовать?
Для эмбеддингов — BGE-M3, GigaEmbed, E5, ваша своя. Для ответа — любая LLM через AiST Gateway: GPT-4, Claude, GigaChat, YandexGPT, ваш self-host. Меняется в настройках бота — без кода.
Это всё-таки отдельный продукт или часть платформы?
AiST RAG — сервис в составе AiST Platform. Можно купить и использовать только его (как поиск+API), а можно сразу с конструктором ассистентов, ролями, бюджетами и Gateway. Один кабинет, один счёт.
Покажем за 30 минут — как ваши документы превращаются в точный AI-ответ.
Заберём 100 ваших документов — через неделю покажем работающего ассистента на ваших данных. Метрики качества и план рассчитаем сразу.