Кейс

AI-консьерж для отелей на базе ValueAI: как RAG и LLM сократили время ответа на запросы гостей в 4 раза

Article image

Искусственный интеллект для HoReCa: как крупный ИТ-провайдер разработал AI-ассистента для сети отелей. В блоге делимся инсайтами совместного пилота и тем, как RAG+LLM трансформируют индустрию гостеприимства.

Возникли вопросы?

Обсудите ИИ-решения с нашим экспертом

Получить консультацию

Поделитесь этой статьей

Обзор

Крупный российский разработчик IT-решений для гостиничного бизнеса развивает платформу управления отелями. В экосистеме клиентов - международные сети отелей с миллионами гостевых обращений в чатах и мессенджерах. Классическая модель поддержки перегружает ресепшн и операторов, а жалобы о неполадках нередко задерживаются из-за ручной обработки.

Чтобы улучшить скорость и качество обслуживания (SLA) и показатели лояльности и удовлетворенности клиентов (NPS/CSAT) без наращивания штата, совместно с ValueAI компания запустила пилотный проект Digital Concierge на базе RAG + LLM.

Вызовы

До внедрения ИИ-ассистента существовали следующие сложности:

  • Высокий поток однотипных запросов: рутинные вопросы «съедают» время фронт-офиса.
  • Медленная эскалация инцидентов: жалобы и аварийные ситуации теряются в переписке.
  • Требование круглосуточной поддержки на разных языках без расширения команды.
  • Безопасность и приватность: работа с персональными данными (PII), требования on-premise/частного облака и разграничения прав.

Решение

Решение: Внедрение AI-ассистента на базе ValueAI

Командой ValueAI разработан интеллектуальный ассистент первой линии на основе RAG + LLM, обученный на анонимизированной истории переписок, FAQ и внутренних регламентах.

Ключевые возможности:

  • Автоответы на до 95% типовых запросов гостей (Wi-Fi, услуги, расписание, правила).
  • Автоматическое определение и классификация инцидентов (утечки, поломки, жалобы) с моментальной эскалацией по регламенту.
  • Гибкая интеграция с экосистемой отеля: AI-ассистент работает в едином контуре с ключевыми системами заказчика: CRM, PMS, Helpdesk и базами знаний.
  • Политики безопасности: опции локального хранения чувствительных данных и точечное разграничение прав доступа.

«Цель проекта - снять рутину с фронт-офиса и оставить сотрудникам только случаи, требующие человеческого вмешательства. Платформа ValueAI предоставляет RAG-инструменты и интеграционные возможности, LLM даёт понятную человеческую речь»

Команда проекта

команда проекта

Реализация

Пилот реализован за 3 недели как PoC

Этапы внедрения:

  1. Сбор и анализ переписок, тикетов и FAQ - выделение типичных сценариев.
  2. Создание базы знаний: FAQ, SLA, SOP и шаблоны ответов.
  3. Индексация и векторизация содержимого на платформе ValueAI - настройка RAG-пайплайна.
  4. Интеграция с модулем цифрового консьержа клиента и системами (PMS/CRM/ServiceDesk) через API.
  5. Тестирование на пилотной группе отелей, сбор обратной связи, доработка промптов и правил эскалации.

Data Flow решения и технологический стек:

  • RAG-платформа (индексация, поиск, retrieval)
  • LLM: Gemma 3
  • Векторная БД: PGVector или аналог
  • Оркестрация: Kubernetes, Docker
  • Backend: Python
  • Оценка качества: LLM-as-a-Judge, cosine similarity, A/B-тестирование ответов
  • Интеграции: модуль цифрового консьержа, PMS, CRM, ServiceDesk

Результаты

AI-ассистент показал отличные результаты уже на этапе пилота:

  • 95% типовых запросов гостей обрабатываются автоматически.
  • Время ответа на общие вопросы сократилось в 4 раза.
  • Реакция персонала на нештатные ситуации ускорилась в 3,5 раза.
  • Персонал освободился от рутинных задач и сосредоточился на улучшении качества сервиса.
  • Гости получили 24/7 доступ к цифровому консьержу прямо из мобильного приложения.

Хотите протестировать AI-ассистента для HoReCa, TravelTech в своей компании?

Свяжитесь с нами, чтобы запустить пилотный проект за 1 месяц.

Готовы увидеть ValueAI в действии?

Мы покажем, как ValueAI работает с данными, обучает модель и интегрирует ее в системы

Записаться на демо

Поиск