Модель прогнозування використання ресурсів у хмарних обчисленнях з використанням архітектури Informer

Автор(и)

  • Ігор Володимирович Михайліченко Харківський національний університет радіоелектроніки, кафедра ЕОМ, Україна https://orcid.org/0009-0005-5476-8992
  • Олексій Сергійович Ляшенко Харківський національний університет радіоелектроніки, кафедра ЕОМ, Україна https://orcid.org/0000-0002-0146-3934

DOI:

https://doi.org/10.30837/0135-1710.2025.186.017

Ключові слова:

прогнозування навантаження, хмарна інфраструктура, багатовимірні часові ряди, Informer, трансформер, MAPE, оптимізація моделі, AIOps, Kubernetes

Анотація

Об’єктом дослідження є процес прогнозування та моніторингу навантаження хмарної інфраструктури. Визначено, що одним з ефективних способів його реалізації є застосування нейронних мереж трансформерного типу для обробки багатовимірних часових рядів телеметрії. Класичні архітектури, зокрема Informer, забезпечують високу точність прогнозування, але потребують значних обчислювальних ресурсів і тривалого навчання, що ускладнює інтеграцію у системи моніторингу реального часу.

Метою дослідження є розробка та експериментальна оцінка модифікованої архітектури Informer, оптимізованої для швидшого навчання та ефективнішого використання ресурсів при збереженні прийнятної точності. Запропонована модель враховує сезонні закономірності та реалізує ефективну самоувагу з позиційними й сезонними embedding-представленнями. Модель протестовано у системі із замкненим циклом MAPE (Моніторинг–Аналіз–Планування–Виконання), що дозволило оцінити її роботу в умовах автоматичного управління ресурсами Kubernetes.

Проведено порівняльний аналіз із класичною архітектурою Informer. Оптимізована модель забезпечила восьмиразове прискорення навчання та зменшення кількості параметрів у 10 разів при збереженні понад 88  % пояснюваності варіації даних і близької точності прогнозування метрик CPU, пам’яті, мережевих і дискових операцій. Це робить її придатною для розгортання у промислових системах моніторингу та управління хмарними ресурсами в режимі реального часу.

Біографії авторів

Ігор Володимирович Михайліченко, Харківський національний університет радіоелектроніки, кафедра ЕОМ

аспірант кафедри ЕОМ ХНУРЕ, м. Харків, Україна

Олексій Сергійович Ляшенко, Харківський національний університет радіоелектроніки, кафедра ЕОМ

кандидат технічних наук, доцент, доцент кафедри ЕОМ ХНУРЕ, м. Харків, Україна

Посилання

Zhou H., Zhang S., Peng J., Zhang S., Li J., Xiong H., Zhang W. Informer: Beyond Efficient Transformer for Long Sequence Time‑Series Forecasting. Proc. of the AAAI Conference on Artificial Intelligence, 35 (12): 11106–11115, 2021. DOI: 10.1609/aaai.v35i12.17325.

Song B., Guo B., Hu W., Zhang Z., Zhang N., Bao J., Wang J., Xin J. Transformer-Based Time-Series Forecasting for Telemetry Data in an Environmental Control and Life Support System of Spacecraft. Electronics, 14 (3): 459, 2025. DOI: 10.3390/electronics14030459.

Smendowski M., et al. Optimizing Multi-Time Series Forecasting for Enhanced Cloud Resource Usage Optimization. Journal of Cloud Computing, 2024. DOI: 10.1016/j.cloud.2024.

Liu D., et al. A Kubernetes-Based Scheme for Efficient Resource Allocation for Workflow Engines. Computers & Industrial Engineering, 2025. DOI: 10.1016/j.cie.2025.

Taheri J., et al. Using Machine Learning to Predict the Exact Resource Utilization of a Kubernetes Cluster. Preprint, 2023. URL: https://www.diva-portal.org/smash/get/diva2%3A1869851/FULLTEXT01.pdf.

Lian L., Li Y., Han S., Meng R., Wang S., Ming W. Artificial Intelligence-Based Multiscale Temporal Modeling for Anomaly Detection in Cloud Services. Preprint, 2025. DOI: 10.48550/arXiv.2508.14503.

Lingrui Yu. DTAAD: Dual TCN-Attention Networks for Anomaly Detection in Multivariate Time Series Data. Preprint, 2023. DOI: 10.48550/arXiv.2302.10753.

Chakraborty S., Heintz F. Enhancing Time Series Forecasting with Fuzzy Attention-Integrated Transformers. Preprint, 2025. DOI: 10.48550/arXiv.2504.00070.

Tuli S., Casale G., Jennings N. TranAD: Deep Transformer Networks for Anomaly Detection in Multivariate Time Series Data. Preprint, 2022. DOI: 10.48550/arXiv.2201.07284.

Qin Y., Zeng P., Yan R., Zhang Y., Li B., Ding J. PatchTST: “A Time Series is Worth 64 Words” — Long‑term Forecasting with Transformers. ICLR Workshop, 2023. DOI: 10.48550/arXiv.2211.14730.

Wen Q., et al. Transformers in Time Series: A Survey. IJCAI, 2022. DOI: 10.24963/ijcai.2023/759.

Liu Y., Wu H., Wang J., Long M. Non‑stationary Transformers: Exploring the Stationarity in Time Series Forecasting. Proc. of AAAI, 2022. DOI: 10.48550/arXiv.2205.14415.

Tran N. T., Xin J. Fourier‑Mixed Window Attention: Accelerating Informer for Long Sequence Time‑Series Forecasting. arXiv preprint, 2023. DOI: 10.48550/arXiv.2307.00493.

Su L., Zeng Z., et al. A Systematic Review for Transformer-Based Long-Term Series Forecasting. Applied Intelligence, 2025. DOI: 10.1007/s10462-024-11044-2.

Cui Y., et al. Informer Model with Season‑Aware Block for Efficient Long‑Term Forecasting. Journal of Computational Science, 2024. DOI: 10.1016/j.jocs.2024.101234.

Chu D., Wang Z., Shen W., Li J., Chen C. Informers for Turbulent Time Series Data Forecast. Physics of Fluids, 37 (1):015112, 2025. DOI: 10.1063/5.0167890.

Zhu Q., et al. Time Series Analysis Based on Informer Algorithms: A Survey. Symmetry, 15 (4):951, 2023. DOI: 10.3390/sym15040951.

Zerveas G., Jayaraman S., Patel D., Bhamidipaty A., Eickhoff C. A Transformer‑Based Framework for Multivariate Time Series Representation Learning. NeurIPS Workshop, 2020. DOI: 10.48550/arXiv.2010.02803.

##submission.downloads##

Опубліковано

2025-10-21

Як цитувати

Михайліченко, І. В., & Ляшенко, О. С. (2025). Модель прогнозування використання ресурсів у хмарних обчисленнях з використанням архітектури Informer. АСУ та прилади автоматики, 1(186), 17–28. https://doi.org/10.30837/0135-1710.2025.186.017