Причинно-наслідкове моделювання пояснень в інтелектуальних системах

Автор(и)

  • Сергій Федорович Чалий Харківський національний університет радіоелектроніки, кафедра ІУС, Україна https://orcid.org/0000-0002-9982-9091
  • Володимир Олександрович Лещинський Харківський національний університет радіоелектроніки, кафедра ПІ, Україна https://orcid.org/0000-0002-8690-5702

DOI:

https://doi.org/10.30837/0135-1710.2025.185.053

Ключові слова:

пояснення, інтелектуальна система, самопояснювальний штучний інтелект, темпоральна залежність, каузальна залежність, можливість, система штучного інтелекту, artificial intelligence system

Анотація

Об'єктом дослідження є процес побудови пояснень в інтелектуальних інформаційних системах. Метою дослідження є розробка причинно-наслідкового підходу до побудови пояснень в інтелектуальних системах з тим, щоб відобразити у формі пояснення причини отриманого рішення, а також причини дій процесу формування рішення й обмеження на ці дії, що дає можливість представити роботу інтелектуальної системи у зрозумілій для користувачів формі. Для досягнення мети роботи вирішуються такі завдання: розробка причинно-наслідкової моделі пояснення; розробка методу побудови пояснень на основі причинно-наслідкової моделі. Висновки. Запропоновано причинно-наслідкову модель пояснення з ієрархічною трирівневою структурою, яка структурує представлення пояснень на глобальному, процесному та локальному рівнях у темпоральному та каузальному аспектах. Модель на глобальному рівні містить можливісні причинно-наслідкові залежності між вхідними даними та рішенням системи з урахуванням прихованих факторів, на процесному рівні відображає каузальні залежності між діями процесу формування рішення на основі темпоральних правил типів «Next» та «Future», на локальному рівні задає детерміновані обмеження на послідовність дій процесу. Запропоновано темпорально-каузальний метод побудови пояснень, що містить п'ять етапів: визначення внутрішніх та зовнішніх користувачів, побудову пояснень на глобальному рівні з розрахунком можливості та необхідності, формування пояснень на процесному рівні через темпоральні правила та каузальні залежності, побудову локальних обмежень та їх перевірку, інтеграцію трирівневого пояснення. Експериментальна перевірка методу проведена на реальних даних процесу управління інцидентами.

Посилання

Miller, T. (2019). Explanation in artificial intelligence: Insights from the social sciences. Artificial Intelligence, 267, 1-38. https://doi.org/10.1016/j.artint.2018.07.007

Mehrabi, N., Morstatter, F., Saxena, N., Lerman, K., & Galstyan, A. (2021). A survey on bias and fairness in machine learning. ACM Computing Surveys, 54(6), 1-35.

Adadi, A., & Berrada, M. (2018). Peeking inside the black-box: A survey on Explainable Artificial Intelligence (XAI). IEEE Access, 6, 52138-52160. https://doi.org/10.1109/ACCESS.2018.2870052

Guidotti, R., Monreale, A., Ruggieri, S., Turini, F., Giannotti, F., & Pedreschi, D. (2018). A survey of methods for explaining black box models. ACM Computing Surveys, 51(5), 1-42.

Chalyi, S., Leshchynskyi, V., & Leshchynska, I. (2019). Method of forming recommendations using temporal constraints in a situation of cyclic cold start of the recommender system. EUREKA: Physics and Engineering, 4, 34-40. https://doi.org/10.21303/2461-4262.2019.00952

Ribeiro, M. T., Singh, S., & Guestrin, C. (2016). «Why should I trust you?» Explaining the predictions of any classifier. Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, 1135-1144.

D. Gunning і D. Aha, (2019) «DARPA’s Explainable Artificial Intelligence (XAI) Program», AI Magazine, 40 (2), 44-58, https://doi.org/10.1609/aimag.v40i2.2850.

Arrieta, A. B., Díez-Rodríguez, N., Del Ser, J., Bennetot, A., Tabik, S., Barbado, A.,. & Herrera, F. (2020). Explainable Artificial Intelligence (XAI): Concepts, taxonomies, opportunities and challenges toward responsible AI. Information Fusion, 58, 82-115.

Lundberg, S. M., & Lee, S. I. (2017). A unified approach to interpreting model predictions. In Advances in Neural Information Processing Systems, 4765-4774.

Chalyi, S., & Leshchynskyi, V. (2020). Temporal representation of causality in the construction of explanations in intelligent systems. Advanced Information Systems, 4(3), 113-117. https://doi.org/10.20998/2522-9052.2020.3.16

Чалий С. Ф., Лещинський В. О., Лещинська І. О. (2021) Контрфактуальна темпоральна модель причинно-наслідкових зв'язків для побудови пояснень в інтелектуальних системах,/ Вісник Національного технічного університету «ХПІ». Сер. : Системний аналіз, управління та інформаційні технології = Bulletin of the National Technical University «KhPI». Ser.: System analysis, control and information technology: зб. наук. пр. – Харків : НТУ «ХПІ», 2 (6), С. 41-46.

Chala O. (2018) Models of temporal dependencies for a probabilistic knowledge base. Econtechmod. An International Quarterly Journal. 7 (3), 53–58.

Levykin V., Chala O. (2018). Development of a method of probabilistic inference of sequences of business process activities to support business process management. Eastern-European Journal of Enterprise Technologies. 5/3(95), 16-24. https://doi.org/10.15587/1729-4061.2018.142664.

Чала О. В. (2020) Модель узагальненого представлення темпоральних знань для задач підтримки управлінських рішень. Вісник Національного технічного університету «ХПІ». Системний аналіз, управління та інформаційні технології. 1(3), 14-18. https://doi.org/10.20998/2079-0023.2020.01.03.

Chala O. (2018) Models of temporal dependencies for a probabilistic knowledge base. Econtechmod. An International Quarterly Journal. 7, 3, 53–58.

Pearl, J., & Mackenzie, D. (2018). The book of why: the new science of cause and effect. Basic books.

Imbens, G. W., & Rubin, D. B. (2015). Causal inference in statistics, social, and biomedical sciences. Cambridge University Press..

Sloman, S. A. (2005). Causal models: How people think about the world and its alternatives. Oxford University Press. https://doi.org/10.1093/acprof:oso/9780195183115.001.0001

Chalyi, S., & Leshchynskyi, V. (2020). Causal reasoning in the construction of explanations in intelligent systems. Advanced Information Systems, 4(4), 105-110. https://doi.org/10.20998/2522-9052.2020.4.14

##submission.downloads##

Опубліковано

2025-06-27

Як цитувати

Чалий, С. Ф., & Лещинський, В. О. (2025). Причинно-наслідкове моделювання пояснень в інтелектуальних системах. АСУ та прилади автоматики, 1(185), 53–62. https://doi.org/10.30837/0135-1710.2025.185.053