Побудова процесно-орієнтованих пояснень в інтелектуальних інформаційних системах на основі можливісних каузальних залежностей

Автор(и)

  • Сергій Федорович Чалий Харківський національний університет радіоелектроніки, кафедра ІУС, Україна http://orcid.org/0000-0002-9982-9091
  • Володимир Олександрович Лещинський Харківський національний університет радіоелектроніки, кафедра ПІ, Україна http://orcid.org/0000-0002-8690-5702

DOI:

https://doi.org/10.30837/0135-1710.2024.182.025

Ключові слова:

пояснення, інтелектуальна система, пояснювальний штучний інтелект, темпоральна залежність, каузальна залежність, можливість, система штучного інтелекту, процесне моделювання

Анотація

Предметом дослідження є процес побудови пояснень в інтелектуальних інформаційних системах, представлених у вигляді «сірої скриньки». Метою є розробка процесно-орієнтованого підходу до формування пояснень, що забезпечує підтримку та вдосконалення процесу прийняття рішень в інтелектуальних інформаційних системах. Завдання дослідження включають: розробку процесної моделі пояснення на основі можливісних каузальних залежностей; розробку методу побудови процесно-орієнтованого представлення пояснень. Розроблений підхід до побудови пояснення враховує темпоральні та причинно-наслідкові зв’язки між станами процесу формування рішення. Наукова новизна отриманих результатів полягає у розробці узагальненої процесної моделі пояснення, яка дозволяє деталізувати послідовність станів процесу прийняття рішень, визначити ключові дії та контекстні умови їх виконання. Модель створює умови для визначення дій процесу, які мають найбільше значення можливості і, відповідно, ключовий вплив на рішення інтелектуальної системи. Запропонований метод побудови процесно-орієнтованого пояснення в інтелектуальній інформаційній системі на основі можливісних каузальних залежностей включає етапи формування темпоральних і каузальних правил, розрахунок показників можливості та необхідності, а також представлення пояснень з урахуванням атрибутів станів процесу формування рішення. Метод орієнтований на підтримку внутрішніх користувачів інтелектуальної системи на основі побудови інтерпретованого представлення процесу формування рішення.

Біографія автора

Сергій Федорович Чалий, Харківський національний університет радіоелектроніки, кафедра ІУС

Доктор технічних наук, професор

Кафедра інформаційних управляючих систем

Посилання

Doshi-Velez, F., & Kim, B. (2017). Towards a rigorous science of interpretable machine learning. arXiv preprint. https://doi.org/10.48550/arXiv.1702.08608

Ribeiro, M.T., Singh, S., & Guestrin, C. (2016). «Why should I trust you?»: Explaining the predictions of any classifier. Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. https://doi.org/10.1145/2939672.2939778

Guidotti, R., Monreale, A., Ruggieri, S., Turini, F., Giannotti, F., & Pedreschi, D. (2018). A survey of methods for explaining black box models. ACM Computing Surveys, 51(5), 1-42. https://doi.org/10.1145/3236009

Adadi, A., & Berrada, M. (2018). Peeking inside the black-box: A survey on Explainable Artificial Intelligence (XAI). IEEE Access, 6, 52138-52160. https://doi.org/10.1109/ACCESS.2018.2870052

van der Aalst, W.M.P., La Rosa M., & Santoro F.M. (2016). Business process management: Don’t forget to improve the process! Business & Information Systems Engineering, 58(1), 1-6. https://doi.org/10.1007/s12599-015-0409-x

Gunning, D., & Aha, D. W. (2019). DARPA's Explainable Artificial Intelligence (XAI) Program. AI Magazine, 40(2), 44-58. https://doi.org/10.1609/aimag.v40i2.2850

Miller, T. (2019). Explanation in artificial intelligence: Insights from the social sciences. Artificial Intelligence, 267, 1-38. https://doi.org/10.1016/j.artint.2018.07.007

Lundberg, S. M., & Lee, S. I. (2017). A unified approach to interpreting model predictions. Advances in Neural Information Processing Systems, 30, 4765-4774. https://proceedings.neurips.cc/paper/2017/file/8a20a8621978632d76c43dfd28b67767-Paper.pdf

Selvaraju, R. R., Cogswell, M., Das, A., Vedantam, R., Parikh, D., & Batra, D. (2017). Grad-CAM: Visual explanations from deep networks via gradient-based localization. In Proceedings of the IEEE International Conference on Computer Vision (pp. 618-626). IEEE. https://doi.org/10.1109/ICCV.2017.74

Pearl, J. (2009). Causality: Models, reasoning and inference (2nd ed.). Cambridge University Press. https://doi.org/10.1017/CBO9780511803161

Peters, J., Janzing, D., & Schölkopf, B. (2017). Elements of causal inference: foundations and learning algorithms. MIT Press. https://mitpress.mit.edu/books/elements-causal-inference

Chalyi, S., & Leshchynskyi, V. (2020). Temporal representation of causality in the construction of explanations in intelligent systems. Advanced Information Systems, 4(3), 113–117. https://doi.org/10.20998/2522-9052.2020.3.16.

. Чалий С. Ф. Метод можливісного оцінювання пояснення в системі штучного інтелекту / С. Ф. Чалий, В. О. Лещинський. Вісник Національного технічного університету «ХПІ». Сер. : Системний аналіз, управління та інформаційні технології = Bulletin of the National Technical University «KhPI». Ser.: System analysis, control and information technology: зб. наук. пр. Харків: НТУ «ХПІ», 2023. № 2 (10). С. 95-101.

Molnar, C. (2019). Interpretable machine learning. A Guide for Making Black Box Models Explainable. https://christophm.github.io/interpretable-ml-book/

Chalyi, Sergii & Leshchynskyi, V.. (2023). Оцінка чутливості пояснень в інтелектуальній інформаційній системі. Системи управління, навігації та зв’язку. Збірник наукових праць. 2. 165-169. 10.26906/SUNZ.2023.2.165

Chalyi, Sergii & Leshchynskyi, Volodymyr. (2023). Інформаційна технологія оцінки пояснень в інтелектуальній інформаційній системі. Системи управління, навігації та зв’язку. Збірник наукових праць. 4. 120-124. 10.26906/SUNZ.2023.4.120

Chala O. (2018) Models of temporal dependencies for a probabilistic knowledge base. Econtechmod. An International Quarterly Journal. Vol. 7, No. 3. P. 53 – 58.

Chala O. (2018) Models of temporal dependencies for a probabilistic knowledge base. Econtechmod. An International Quarterly Journal. Vol. 7, No. 3. P. 53 – 58.

Levykin V., Chala O. Development of a method of probabilistic inference of sequences of business process activities to support business process management. Eastern-European Journal of Enterprise Technologies. 2018. № 5/3(95). P. 16-24. DOI: 10.15587/1729-4061.2018.142664.

van der Aalst, W. M. P. (2016). Process mining: Data science in action (2nd ed.). Springer.

Dubois, D., Prade, H. (2022). Possibility Theory. In: Glăveanu, V.P. (eds) The Palgrave Encyclopedia of the Possible. Palgrave Macmillan, Cham. https://doi.org/10.1007/978-3-030-90913-0_175.

van Dongen, B. (2011). Real-life event logs - Hospital log [Dataset]. 4TU.ResearchData. https://doi.org/10.4121/uuid:d9769f3d-0ab0-4fb8-803b-0d1120ffcf54

##submission.downloads##

Опубліковано

2024-12-04

Як цитувати

Чалий, С. Ф., & Лещинський, В. О. (2024). Побудова процесно-орієнтованих пояснень в інтелектуальних інформаційних системах на основі можливісних каузальних залежностей. АСУ та прилади автоматики, 1(182), 25–33. https://doi.org/10.30837/0135-1710.2024.182.025