К содержимому

ИИ-Платформа

Комплексная платформа для разработки, обучения и развёртывания ИИ-моделей в защищённой on-premise среде.

ИИMLOn-premiseEnterprise
Обсудить проект?

Описание

ИИ-Платформа РТА Технологии — это комплексное решение для создания производственных ИИ-систем без выхода в интернет. Платформа обеспечивает полный цикл машинного обучения: от подготовки данных до промышленного развёртывания.

Полностью локально

Платформа не требует подключения к интернету и работает полностью автономно в вашей инфраструктуре. Все данные остаются в защищённом периметре организации.

Ключевые показатели

70%
Сокращение time-to-production
4x
Ускорение инференса
100%
Uptime за 18 месяцев
40%
Снижение затрат

Возможности платформы

MLflow интеграция

Версионирование моделей, A/B-тестирование, автологирование метрик и артефактов.

Обработка данных

ETL-пайплайны для изображений, видео, временных рядов, текста. Поддержка Parquet, Arrow.

Инференс-сервер

GPU-оптимизированный сервер с автоматическим батчингом и latency < 50 мс.

Безопасность

RBAC, Active Directory, шифрование ГОСТ 34.12-2018, полный аудит операций.

Мониторинг

Prometheus + Grafana дашборды, алерты по метрикам моделей и инфраструктуры.

CI/CD Pipeline

GitLab CI + ArgoCD для автоматического развёртывания моделей в production.

Архитектура платформы

Loading diagram...
Архитектура ИИ-Платформы — от данных до production

Преимущества перед облачными решениями

 RTATEX On-PremiseОблачные решения
Данные покидают периметрНикогдаВсегда
Latency инференса< 50 мс100–500 мс
Сертификация ФСТЭКЕстьНет
Работа без интернетаПолнаяНевозможна
Контроль GPU-ресурсовПолныйОграниченный
Стоимость масштабированияФиксированнаяРастущая

Почему выбирают нас

Полная изоляция данных

Все данные, модели и конфигурации хранятся исключительно внутри корпоративного периметра. Ни один байт не покидает вашу сеть.

GPU-оптимизация

Нативная поддержка NVIDIA A100/H100, автоматический батчинг, оптимизация ONNX Runtime для максимальной производительности.

Соответствие регуляциям

Сертификация ФСТЭК, ГОСТ 34.12-2018, интеграция с корпоративным Active Directory. Полный аудит всех операций.

От идеи до production за дни

Встроенные пайплайны CI/CD, автоматизация развёртывания через ArgoCD, мониторинг из коробки.

Архитектура проекта

Files
docker-compose.yml
helm-values.yaml
k8s-manifests.yaml
pyproject.toml
.env.exampleнастройки
README.md

Быстрый старт

1

Установка SDK

Установите Python SDK через pip из локального реестра PyPI:

bash
pip install rtatex-sdk --index-url https://pypi.internal.corp/simple
2

Конфигурация окружения

Настройте переменные окружения для подключения к платформе:

bash
export RTATEX_API_URL=https://ai-platform.internal.corp
export RTATEX_API_KEY=your-api-key-here
export RTATEX_MODEL_REGISTRY=s3://models.internal.corp
3

Загрузка и инференс

Используйте SDK для загрузки модели и получения предсказаний:

python
from rtatex import AIModel

model = AIModel.load("defect_classifier", version="3.2.1")
result = model.predict(image)
print(f"Класс: {result.label}, уверенность: {result.confidence:.2%}")

Конфигурация развёртывания

yaml
# deploy/helm-values.yaml
model:
  name: defect_classifier
  version: 3.2.1
  framework: pytorch

serving:
  replicas: 2
  gpu: A100
  batch_size: 32
  max_latency_ms: 50

monitoring:
  metrics: [accuracy, latency, throughput]
  alerts: true

resources:
  requests:
    cpu: "4"
    memory: "16Gi"
    nvidia.com/gpu: "1"
  limits:
    cpu: "8"
    memory: "32Gi"
    nvidia.com/gpu: "1"

Python SDK — полный пример

python
from rtatex import AIModel, Pipeline, DataLoader
from rtatex.transforms import ImageResize, ImageNormalize, BatchPredict
from rtatex.monitoring import MetricsCollector

# Инициализация мониторинга
metrics = MetricsCollector(endpoint="prometheus:9090")

# Загрузка модели из реестра
model = AIModel.load("defect_classifier", version="3.2.1")

# Создание пайплайна предобработки
pipeline = Pipeline([
    ("resize", ImageResize(224, 224)),
    ("normalize", ImageNormalize(
        mean=[0.485, 0.456, 0.406],
        std=[0.229, 0.224, 0.225]
    )),
    ("predict", BatchPredict(model, batch_size=32)),
])

# Загрузка данных из корпоративного хранилища
loader = DataLoader("s3://data.internal.corp/inspection/2025-03/")

# Инференс с автоматическим батчингом и мониторингом
with metrics.track("inference_job"):
    results = pipeline.predict_batch(
        loader.images(),
        progress=True
    )

# Анализ результатов
for result in results:
    if result.confidence > 0.95:
        print(f"[DEFECT] {result.label}: {result.confidence:.2%}")
        result.flag_for_review()
Требования к GPU

Для инференса моделей на основе трансформеров требуется NVIDIA GPU с поддержкой CUDA 11.8+. Для обучения рекомендуется использовать A100 или H100.

Технический стек

КомпонентТехнология
ОркестрацияKubernetes + Helm
ML FrameworkPyTorch, ONNX Runtime
Feature StoreRedis + PostgreSQL
МониторингPrometheus + Grafana
CI/CDGitLab CI + ArgoCD
ХранилищеMinIO (S3-совместимое)

Требования к инфраструктуре

  • 3 узла Kubernetes (CPU): 16 vCPU, 64 GB RAM
  • 1 GPU-сервер: NVIDIA A100 или эквивалент
  • Хранилище: 10 TB SSD (NVMe рекомендуется)
  • Сеть: 10 Gbps внутри кластера
Важно

Не рекомендуется использовать виртуализированные GPU-ресурсы для production-нагрузок. Это может привести к непредсказуемой деградации производительности инференса.

Кейс: Промышленная дефектоскопия

Один из наших клиентов в сфере энергетики сократил время обнаружения дефектов на 85% и полностью устранил ложные срабатывания, перейдя на нашу платформу с облачных решений.