Проєктування, навчання та продакшн-сервінг нейронних мереж під бізнес-задачі: зір, текст, рекомендації, прогнози, генеративні моделі. Прозорі метрики, MLOps, окупність.
Нейромережі виявляють складні закономірності в даних і дають прикладні результати: від детекції дефектів і OCR до рекомендацій і прогнозів. AVGZ створює рішення від PoC до масштабного сервісу з GPU/CPU-інференсом, моніторингом якості й циклами перевчання. Фокус — вимірюваний вплив на P&L, а не «алгоритми заради алгоритмів».
- Зір: детекція дефектів, розпізнавання документів/чеків, контроль полиць.
- NLP: класифікація звернень, NER, самарі, семантичний пошук.
- Рекомендації: персональні добірки, NBA, попередження відтоку.
- Прогнози: попит, навантаження складу, ETA, енергоспоживання.
- Генеративні моделі: описи товарів, банери, TTS/ASR.
- Гіпотеза: як зміняться витрати/виторг/SLA.
- Дані: збір, очищення, баланс, розмітка, приватність.
- Baseline: прості моделі для еталону.
- Архітектури: CNN/ViT (CV), BERT/Transformers (NLP), TCN/Transformers (time-series), ASR/TTS.
- Експерименти: гіперпараметри, аугментації, регуляризація, рання зупинка.
- Валідація: train/val/test, крос-валідація, «сліпі» тести, онлайн-метрики.
- Сервінг & MLOps: контейнеризація, версіонування, спостережність, дрейф-алерти, перевчання.
Комп’ютерний зір
- CNN/ResNet/EfficientNet — класифікація/детекція.
- Vision Transformers (ViT/DeiT) — складні класи на великих датасетах.
- YOLO/Detectron2 — детекція об’єктів у реальному часі.
NLP / Часові ряди / Аудіо
- BERT/roBERTa/DistilBERT — класифікація, NER, пошук.
- seq2seq/Transformers — самарі, генерація, переклад.
- Temporal CNN/Transformers — попит, аномалії.
- Conformer/QuartzNet (ASR), HiFi-GAN (TTS).
Сценарій | Метрика | Базовий рівень | Ціль пілоту |
---|---|---|---|
Класифікація дефектів | F1-score | 0,70–0,78 | ≥ 0,85 |
OCR чеків | CER | 3,5–5,0% | ≤ 2,0% |
Класифікація звернень | F1-macro | 0,68–0,74 | ≥ 0,82 |
Рекомендації e-commerce | CTR | 2,0–2,5% | ≥ 3,2% |
Прогноз попиту | MAPE | 20–28% | ≤ 15% |
Метрика узгоджується на Discovery; для дисбалансу класів — F1/AUC/PR-AUC; для генерації — BLEU/ROUGE + експертна оцінка.
Гіпотеза: модель зору, навчання 120 год/епоху × 10 епох = 1 200 GPU-год на A100 40GB.
Оренда GPU
- 120 грн/год → 144 000 грн на цикл навчання.
- ~3 цикли з експериментами → 432 000 грн.
Власний сервер
- GPU A100 40GB ≈ 380 000 грн; шасі/CPU/RAM/NVMe ≈ 160 000 грн.
- Електрика/охолодження/стійка ≈ 3 000 грн/міс → 36 000/рік.
- Разом за 12 міс: ≈ 576 000 грн.
Висновок: для разового пілоту дешевше оренда; для 3+ інтенсивних циклів/рік — власний сервер економніший і незалежний по слотах. Можливий гібрид: тренування в оренді, інференс — на власному кластері.
Пакет | Сценарій | Інфраструктура | Дані/розмітка | SLA | Орієнт. бюджет, грн |
---|---|---|---|---|---|
Pilot | 1 вузьке завдання (CV/NLP) | Оренда 1×GPU | 10–50 тис. прикладів | 8×5 | 180 000 – 420 000 |
Growth | 2–3 моделі + сервінг | 1–2×GPU або CPU-кластер | 50–300 тис. | 12×5 | 520 000 – 1 100 000 |
Scale | Кілька сервісів, HA | Власний/GPU-кластер | 300 тис.+ | 24×7 | від 1 400 000 |
Фінальна конфігурація — після аудиту даних та вимог; таблиця не є комерційною пропозицією.
Вихідні дані: 6 000 одиниць/добу; «пропуск» дефектів — 0,4% (≈ 24 од./добу); збиток 180 грн/од.
- Поточний збиток: 24 × 180 = 4 320 грн/добу (~129 600 грн/міс).
- Після моделі: «пропуск» 0,1% (≈ 6 од./добу) → 1 080 грн/добу (~32 400 грн/міс).
Економія: близько 97 200 грн/міс. Навіть з опексом 20–35 тис./міс окупність пілоту — 1–3 місяці.
Цифри ілюстративні; точні значення — після пілоту та калібрування порогів.
- Конвеєр збору даних із потрібними полями/форматами.
- Розмітка з подвійною валідацією, узгодженість оцінювачів (Cohen’s Kappa).
- Аугментації: повороти, шум, варіації освітлення; у NLP — маскінг/парафрази.
- Стратегія перевчання: оцінка дрейфу щомісяця/квартал, план повторного тренування.
- Data lineage і версіонування датасетів (DVC/MLflow).
- Сервінг: REST/gRPC, батч/стрімінг, черги (Kafka/RabbitMQ), кеш, горизонтальний скейлінг.
- Спостережність: latency/throughput, помилки, оцінка «якості у проді», дрейф-алерти.
- Ризики: canary-релізи, швидкий rollback, тести RPS (p95/p99), граничні інпути.
- Безпека: RBAC, шифрування даних/артефактів, політики збереження логів.
- CNN/ViT
- Архітектури для зору: згорткові та трансформерні.
- BERT
- Трансформер для NLP: класифікація, NER, пошук.
- MAPE/MAE
- Похибки прогнозів: відносна/абсолютна.
- Дрейф
- Зміни у даних/процесах, що знижують якість моделі.
- Аугментація
- Штучне розширення тренувального набору.
- Baseline
- Проста опорна модель для порівняння з нейромережами.
Чи завжди потрібна NN?
Ні. Часто прості моделі/правила кращі за вартістю/стабільністю. Ми порівнюємо з baseline.
Скільки даних потрібно?
CV: від 10–20 тис. зображень/клас (із аугментаціями може бути менше). NLP: 20–50 тис. прикладів.
GPU у продакшні?
Для CV/генерації — так; для простих NLP-класифікацій достатньо CPU. Рішення — після профілювання.
Контроль якості після запуску?
«Сліпі» вибірки, дашборди, дрейф-алерти, планові перевчання, прозорі звіти.
Допомога з розміткою?
Так. Інструкції, інструменти, подвійна перевірка, еталони.
Запустимо нейромережі, що дають вимірюваний ефект.
AVGZ закриє весь цикл — від гіпотези та даних до сервінгу й MLOps.