Описание
ИИ-Платформа РТА Технологии — это комплексное решение для создания производственных ИИ-систем без выхода в интернет. Платформа обеспечивает полный цикл машинного обучения: от подготовки данных до промышленного развёртывания.
Платформа не требует подключения к интернету и работает полностью автономно в вашей инфраструктуре. Все данные остаются в защищённом периметре организации.
Ключевые показатели
Возможности платформы
MLflow интеграция
Версионирование моделей, A/B-тестирование, автологирование метрик и артефактов.
Обработка данных
ETL-пайплайны для изображений, видео, временных рядов, текста. Поддержка Parquet, Arrow.
Инференс-сервер
GPU-оптимизированный сервер с автоматическим батчингом и latency < 50 мс.
Безопасность
RBAC, Active Directory, шифрование ГОСТ 34.12-2018, полный аудит операций.
Мониторинг
Prometheus + Grafana дашборды, алерты по метрикам моделей и инфраструктуры.
CI/CD Pipeline
GitLab CI + ArgoCD для автоматического развёртывания моделей в production.
Архитектура платформы
Преимущества перед облачными решениями
| RTATEX On-Premise | Облачные решения | |
|---|---|---|
| Данные покидают периметр | Никогда | Всегда |
| Latency инференса | < 50 мс | 100–500 мс |
| Сертификация ФСТЭК | Есть | Нет |
| Работа без интернета | Полная | Невозможна |
| Контроль GPU-ресурсов | Полный | Ограниченный |
| Стоимость масштабирования | Фиксированная | Растущая |
Почему выбирают нас
Полная изоляция данных
Все данные, модели и конфигурации хранятся исключительно внутри корпоративного периметра. Ни один байт не покидает вашу сеть.
GPU-оптимизация
Нативная поддержка NVIDIA A100/H100, автоматический батчинг, оптимизация ONNX Runtime для максимальной производительности.
Соответствие регуляциям
Сертификация ФСТЭК, ГОСТ 34.12-2018, интеграция с корпоративным Active Directory. Полный аудит всех операций.
От идеи до production за дни
Встроенные пайплайны CI/CD, автоматизация развёртывания через ArgoCD, мониторинг из коробки.
Архитектура проекта
Быстрый старт
Установка SDK
Установите Python SDK через pip из локального реестра PyPI:
pip install rtatex-sdk --index-url https://pypi.internal.corp/simpleКонфигурация окружения
Настройте переменные окружения для подключения к платформе:
export RTATEX_API_URL=https://ai-platform.internal.corp
export RTATEX_API_KEY=your-api-key-here
export RTATEX_MODEL_REGISTRY=s3://models.internal.corpЗагрузка и инференс
Используйте SDK для загрузки модели и получения предсказаний:
from rtatex import AIModel
model = AIModel.load("defect_classifier", version="3.2.1")
result = model.predict(image)
print(f"Класс: {result.label}, уверенность: {result.confidence:.2%}")Конфигурация развёртывания
# deploy/helm-values.yaml
model:
name: defect_classifier
version: 3.2.1
framework: pytorch
serving:
replicas: 2
gpu: A100
batch_size: 32
max_latency_ms: 50
monitoring:
metrics: [accuracy, latency, throughput]
alerts: true
resources:
requests:
cpu: "4"
memory: "16Gi"
nvidia.com/gpu: "1"
limits:
cpu: "8"
memory: "32Gi"
nvidia.com/gpu: "1"Python SDK — полный пример
from rtatex import AIModel, Pipeline, DataLoader
from rtatex.transforms import ImageResize, ImageNormalize, BatchPredict
from rtatex.monitoring import MetricsCollector
# Инициализация мониторинга
metrics = MetricsCollector(endpoint="prometheus:9090")
# Загрузка модели из реестра
model = AIModel.load("defect_classifier", version="3.2.1")
# Создание пайплайна предобработки
pipeline = Pipeline([
("resize", ImageResize(224, 224)),
("normalize", ImageNormalize(
mean=[0.485, 0.456, 0.406],
std=[0.229, 0.224, 0.225]
)),
("predict", BatchPredict(model, batch_size=32)),
])
# Загрузка данных из корпоративного хранилища
loader = DataLoader("s3://data.internal.corp/inspection/2025-03/")
# Инференс с автоматическим батчингом и мониторингом
with metrics.track("inference_job"):
results = pipeline.predict_batch(
loader.images(),
progress=True
)
# Анализ результатов
for result in results:
if result.confidence > 0.95:
print(f"[DEFECT] {result.label}: {result.confidence:.2%}")
result.flag_for_review()Для инференса моделей на основе трансформеров требуется NVIDIA GPU с поддержкой CUDA 11.8+. Для обучения рекомендуется использовать A100 или H100.
Технический стек
| Компонент | Технология |
|---|---|
| Оркестрация | Kubernetes + Helm |
| ML Framework | PyTorch, ONNX Runtime |
| Feature Store | Redis + PostgreSQL |
| Мониторинг | Prometheus + Grafana |
| CI/CD | GitLab CI + ArgoCD |
| Хранилище | MinIO (S3-совместимое) |
Требования к инфраструктуре
- 3 узла Kubernetes (CPU): 16 vCPU, 64 GB RAM
- 1 GPU-сервер: NVIDIA A100 или эквивалент
- Хранилище: 10 TB SSD (NVMe рекомендуется)
- Сеть: 10 Gbps внутри кластера
Не рекомендуется использовать виртуализированные GPU-ресурсы для production-нагрузок. Это может привести к непредсказуемой деградации производительности инференса.
Один из наших клиентов в сфере энергетики сократил время обнаружения дефектов на 85% и полностью устранил ложные срабатывания, перейдя на нашу платформу с облачных решений.