Побудова функціонально-темпорального представлення ментальної моделі рішення в задачі формування пояснень в інтелектуальних системах
DOI:
https://doi.org/10.30837/0135-1710.2025.185.034Ключові слова:
пояснення, інтелектуальна система, самопояснювальний штучний інтелект, система штучного інтелекту, ментальна модель, користувачі інтелектуальної системи, функціонально-темпоральне представлення, сценарії використанняАнотація
Об'єктом дослідження є процес побудови ментальної моделі рішення для користувача інтелектуальної інформаційної системи. Метою є розробка підходу до побудови функціонально-темпорального представлення ментальної моделі рішення інтелектуальної інформаційної системи. Задачі: розробка функціонально-темпорального представлення ментальної моделі рішення інтелектуальної інформаційної системи; розробка методу побудови ментальної моделі рішення інтелектуальної інформаційної системи. Наукова новизна отриманих результатів полягає в такому. Розроблено функціонально-темпоральне представлення ментальної моделі, яке містить структуровану множину властивостей рішення у функціональному аспекті, а також сценарії використання рішення у темпоральному аспекті. Запропоновано метод побудови функціонально-темпорального представлення ментальної моделі, який містить етапи формування структурованого набору вхідних даних, формування переліку потенційних ментальних моделей за процесом використання, відбору релевантних властивостей рішення, побудови ментальних моделей на основі інтеграції функціональних та темпоральних характеристик, агрегації властивостей за сценаріями використання та формування доповненого представлення ментальних моделей. Метод дає можливість обґрунтовано відібрати для користувача релевантне пояснення щодо отриманого рішення. Експериментальна перевірка розробленого методу показала можливість формування ментальних моделей, які відображають як функціональні властивості рішення, так і сценарії їх використання.
Посилання
Kordon, A. (2016). Intelligent systems in industry. In V. Sgurev, R. Yager, J. Kacprzyk, & V. Jotsov (Eds.), Innovative issues in intelligent systems (pp. 1-31). Springer.
Miller, T. (2019). Explanation in artificial intelligence: Insights from the social sciences. Artificial Intelligence, 267, 1-38. https://doi.org/10.1016/j.artint.2018.07.007
Gunning, D., & Aha, D. (2019). DARPA's explainable artificial intelligence (XAI) program. AI Magazine, 40(2), 44-58. https://doi.org/10.1609/aimag.v40i2.2850
Johnson-Laird, P. N. (1983). Mental models: Towards a cognitive science of language, inference, and consciousness. Harvard University Press.
Чалий, С., & Лещинська, І. (2023). Концептуальна ментальна модель пояснення в системі штучного інтелекту. Вісник Національного технічного університету «ХПІ». Серія: Системний аналіз, управління та інформаційні технології, 1(9), 70-75. https://doi.org/10.20998/2079-0023.2023.01
Adadi, A., & Berrada, M. (2018). Peeking inside the black-box: A survey on Explainable Artificial Intelligence (XAI). IEEE Access, 6, 52138-52160. https://doi.org/10.1109/ACCESS.2018.2870052
Frasca, M., La Torre, D., Pravettoni, G., Manzoni, G. M., & Caputo, A. (2024). Explainable and interpretable artificial intelligence in medicine: A systematic bibliometric review. Discovery Artificial Intelligence, 4, 15. https://doi.org/10.1007/s44163-024-00114-7
Lundberg, S. M., & Lee, S. I. (2017). A unified approach to interpreting model predictions. Advances in Neural Information Processing Systems, 30, 4765-4774.
Lundberg, S. M., & Lee, S. I. (2017). A unified approach to interpreting model predictions. Advances in Neural Information Processing Systems, 30, 4765-4774.
Samek, W., Montavon, G., Lapuschkin, S., Anders, C. J., & Müller, K. R. (2022). Explaining deep neural networks and beyond: A review of methods and applications. Proceedings of the IEEE, 109(3), 247-278.
Чалий С. Ф., Лещинський В. О. (2024). Темпорально-каузальні методи побудови пояснень в системах штучного інтелекту. АСУ та прилади автоматики, 181, 91-99. https://doi.org/10.30837/0135-1710.2024.181.091
Чалий, С., Лещинський, В., & Лещинська, І. (2022). Каузальна модель процесу побудови пояснень в інформаційній системі. Системи управління, навігації та зв'язку, 3(69), 99-103. https://doi.org/10.26906/SUNZ.2022.3.099
Чалий С. Ф., Лещинський В. О. (2024). Побудова пояснень на локальному рівні представлення процесу формування рішень для внутрішніх користувачів інтелектуальної системи. Біоніка інтелекту, 1 (100), 58-64. https://doi.org/10.30837/ bi.2024.1(100).08.
Craik, K. (1943). The nature of explanation. Cambridge University Press.
Johnson-Laird, P. N., & Byrne, R. M. J. (1991). Deduction. Lawrence Erlbaum Associates.
Norman, D. A. (2014). Some Observations on Mental Models. In D. Gentner & A. L. Stevens (Eds.), Mental Models (pp. 7-14). Psychology Press.
Чалий, С. Ф., & Лещинська, І. О. (2024). Уточнення ментальної моделі рішення на основі доповнення вхідних даних в задачі формування пояснень в інтелектуальній системі. АСУ та прилади автоматики, 1(182), 66–72. https://doi.org/10.30837/0135-1710.2024.182.066
Gentner, D., & Stevens, A. L. (2014). Mental models. Psychology Press.
Spirtes, P., Glymour, C., & Scheines, R. (2000). Causation, prediction, and search (2nd ed.). MIT Press.
Andrews, R. W., Lilly, J., Srivastava, D., & Feigh, K. M. (2022). The role of shared mental models in human-AI teams: A theoretical review. Theoretical Issues in Ergonomics Science, 24(2), 129-175.