Модель прогнозування використання ресурсів у хмарних обчисленнях з використанням архітектури Informer
DOI:
https://doi.org/10.30837/0135-1710.2025.186.017Ключові слова:
прогнозування навантаження, хмарна інфраструктура, багатовимірні часові ряди, Informer, трансформер, MAPE, оптимізація моделі, AIOps, KubernetesАнотація
Об’єктом дослідження є процес прогнозування та моніторингу навантаження хмарної інфраструктури. Визначено, що одним з ефективних способів його реалізації є застосування нейронних мереж трансформерного типу для обробки багатовимірних часових рядів телеметрії. Класичні архітектури, зокрема Informer, забезпечують високу точність прогнозування, але потребують значних обчислювальних ресурсів і тривалого навчання, що ускладнює інтеграцію у системи моніторингу реального часу.
Метою дослідження є розробка та експериментальна оцінка модифікованої архітектури Informer, оптимізованої для швидшого навчання та ефективнішого використання ресурсів при збереженні прийнятної точності. Запропонована модель враховує сезонні закономірності та реалізує ефективну самоувагу з позиційними й сезонними embedding-представленнями. Модель протестовано у системі із замкненим циклом MAPE (Моніторинг–Аналіз–Планування–Виконання), що дозволило оцінити її роботу в умовах автоматичного управління ресурсами Kubernetes.
Проведено порівняльний аналіз із класичною архітектурою Informer. Оптимізована модель забезпечила восьмиразове прискорення навчання та зменшення кількості параметрів у 10 разів при збереженні понад 88 % пояснюваності варіації даних і близької точності прогнозування метрик CPU, пам’яті, мережевих і дискових операцій. Це робить її придатною для розгортання у промислових системах моніторингу та управління хмарними ресурсами в режимі реального часу.
Посилання
Zhou H., Zhang S., Peng J., Zhang S., Li J., Xiong H., Zhang W. Informer: Beyond Efficient Transformer for Long Sequence Time‑Series Forecasting. Proc. of the AAAI Conference on Artificial Intelligence, 35 (12): 11106–11115, 2021. DOI: 10.1609/aaai.v35i12.17325.
Song B., Guo B., Hu W., Zhang Z., Zhang N., Bao J., Wang J., Xin J. Transformer-Based Time-Series Forecasting for Telemetry Data in an Environmental Control and Life Support System of Spacecraft. Electronics, 14 (3): 459, 2025. DOI: 10.3390/electronics14030459.
Smendowski M., et al. Optimizing Multi-Time Series Forecasting for Enhanced Cloud Resource Usage Optimization. Journal of Cloud Computing, 2024. DOI: 10.1016/j.cloud.2024.
Liu D., et al. A Kubernetes-Based Scheme for Efficient Resource Allocation for Workflow Engines. Computers & Industrial Engineering, 2025. DOI: 10.1016/j.cie.2025.
Taheri J., et al. Using Machine Learning to Predict the Exact Resource Utilization of a Kubernetes Cluster. Preprint, 2023. URL: https://www.diva-portal.org/smash/get/diva2%3A1869851/FULLTEXT01.pdf.
Lian L., Li Y., Han S., Meng R., Wang S., Ming W. Artificial Intelligence-Based Multiscale Temporal Modeling for Anomaly Detection in Cloud Services. Preprint, 2025. DOI: 10.48550/arXiv.2508.14503.
Lingrui Yu. DTAAD: Dual TCN-Attention Networks for Anomaly Detection in Multivariate Time Series Data. Preprint, 2023. DOI: 10.48550/arXiv.2302.10753.
Chakraborty S., Heintz F. Enhancing Time Series Forecasting with Fuzzy Attention-Integrated Transformers. Preprint, 2025. DOI: 10.48550/arXiv.2504.00070.
Tuli S., Casale G., Jennings N. TranAD: Deep Transformer Networks for Anomaly Detection in Multivariate Time Series Data. Preprint, 2022. DOI: 10.48550/arXiv.2201.07284.
Qin Y., Zeng P., Yan R., Zhang Y., Li B., Ding J. PatchTST: “A Time Series is Worth 64 Words” — Long‑term Forecasting with Transformers. ICLR Workshop, 2023. DOI: 10.48550/arXiv.2211.14730.
Wen Q., et al. Transformers in Time Series: A Survey. IJCAI, 2022. DOI: 10.24963/ijcai.2023/759.
Liu Y., Wu H., Wang J., Long M. Non‑stationary Transformers: Exploring the Stationarity in Time Series Forecasting. Proc. of AAAI, 2022. DOI: 10.48550/arXiv.2205.14415.
Tran N. T., Xin J. Fourier‑Mixed Window Attention: Accelerating Informer for Long Sequence Time‑Series Forecasting. arXiv preprint, 2023. DOI: 10.48550/arXiv.2307.00493.
Su L., Zeng Z., et al. A Systematic Review for Transformer-Based Long-Term Series Forecasting. Applied Intelligence, 2025. DOI: 10.1007/s10462-024-11044-2.
Cui Y., et al. Informer Model with Season‑Aware Block for Efficient Long‑Term Forecasting. Journal of Computational Science, 2024. DOI: 10.1016/j.jocs.2024.101234.
Chu D., Wang Z., Shen W., Li J., Chen C. Informers for Turbulent Time Series Data Forecast. Physics of Fluids, 37 (1):015112, 2025. DOI: 10.1063/5.0167890.
Zhu Q., et al. Time Series Analysis Based on Informer Algorithms: A Survey. Symmetry, 15 (4):951, 2023. DOI: 10.3390/sym15040951.
Zerveas G., Jayaraman S., Patel D., Bhamidipaty A., Eickhoff C. A Transformer‑Based Framework for Multivariate Time Series Representation Learning. NeurIPS Workshop, 2020. DOI: 10.48550/arXiv.2010.02803.
