Представлення узгоджених знань з урахуванням їх логічної несуперечливості для задачі побудови пояснень в інтелектуальних системах
DOI:
https://doi.org/10.30837/0135-1710.2021.177.069Анотація
Метою дослідження є розробка моделі узгоджених знань щодо процесу прийняття рішення в інтелектуальних системах, яка враховувала б їх логічну несуперечливість та забезпечувала можливість формування пояснення процесу та результату роботи таких систем. Об'єктом дослідження є процеси побудови пояснень в інтелектуальних системах. Задачі дослідження: розробка узагальненого підходу до узгодження знань для побудови пояснень в інтелектуальних інформаційних системах; розробка моделі представлення узгоджених знань з урахуванням їх логічної несуперечливості. Отримано наступні результати. Розроблено узагальнений підхід до узгодження знань для побудови пояснень в інтелектуальних інформаційних системах. Підхід забезпечує можливість формування множини узгоджених пояснень, що відображають різні аспекти процесу прийняття рішення та отриманого інтелектуальною системою результату, що спрощує застосування цих результатів у предметній області користувача. Запропоновано модель представлення узгоджених знань з урахуванням їх логічної несуперечливості. Модель дає можливість перевірити узгодженість знань безпосередньо при формуванні пояснень, що створює умови для формування пояснень за принципом чорного ящику та дає можливість доповнити функціонуючі системи можливостями пояснень, а також адаптувати пояснення при зміні їх функціональності.
Посилання
Miller T. Explanation in artificial intelligence: Insights from the social sciences. Artificial Intelligence. 2019. №267. P. 1-38.
Zhang Y., Chen X. Explainable recommendation: A survey and new perspectives. Foundations and Trends in Information Retrieval. 2020. № 14(1). Р. 1-101.
Левикін В.М., Чала О.В. Підтримка прийняття рішень в інформаціно-управляючих системах з використанням темпоральної бази знань. Науково-технічний журнал «Сучасні інформаційні системи», 2018 V. 2. №. 4. P. 101-107.
Levykin V., Chala O. Development of a method of probabilistic inference of sequences of business process activities to support business process management. Eastern-European Journal of Enterprise Technologies. 2018. № 5/3(95). P. 16-24. DOI: 10.15587/1729-4061.2018.142664.
Phillips-Wren G. Intelligent Systems to Support Human Decision Making. Artificial Intelligence: Concepts, Methodologies, Tools, and Applications. 2017. P. 3023-3036. http://doi:10.4018/978-1-5225-1759-7.ch125.
Ribeiro M., Singh S., Guestrin C. "Why should I trust you?": Explaining the predictions of any classifier. Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Demonstrations. 2016. P. 97-101. DOI: 10.1145/2939672.2939778.
Wang T., Lin Q. Hybrid decision making: When interpretable models collaborate with black-box models. Journal of Machine Learning Research. 2019. № 1. P. 1-48. 8. Thagard P., Verbeurgt K. Coherence as constraint satisfaction. Cognitive Science. 1998. №. 22. P. 1-24.
Thagard P. Coherence, truth, and the development of scientific knowledge. Philosophy of Science. 2007. №. 74. P. 28-47.
Thagard P. Causal inference in legal decision making: Explanatory coherence vs. Bayesian networks. Applied Artificial Intelligence. 2004. №. 18. P. 231-249. 11. Harwood W. The Logic of Trust. PhD thesis, University of York. 2012. P. 245.
Laurence B.J. The Structure of Empirical Knowledge. Harvard University Press. 1985. P. 258.
Chalyi S.F., Leshchynskyi V.O., Leshchynska I.O. Explanation Model in an Intelligent Information System Based on the Concept of Knowledge Coherence. 2020. №1(3) . P. 19-23. https://doi.org/10.20998/2079-0023.2020.01.04.
Chalyi S., Leshchynskyi V., Leshchynska I. Designing explanations in the recommender systems based on the principle of a black box // Сучасні інформаційні системи. 2019. Т. 3, № 2. С. 47-51.