Принципи побудови ментальних моделей рішення для зовнішнього користувача в задачі формування пояснень в інтелектуальній системі

Автор(и)

  • Сергій Федорович Чалий Харківський національний університет радіоелектроніки, кафедра ІУС, Україна https://orcid.org/0000-0002-9982-9091
  • Ірина Олександрівна Лещинська Харківський національний університет радіоелектроніки, кафедра ПІ, Україна https://orcid.org/0000-0002-8737-4595

DOI:

https://doi.org/10.30837/0135-1710.2024.181.082

Ключові слова:

пояснення, інтелектуальна система, самопояснювальний штучний інтелект, система штучного інтелекту, ментальна модель, користувачі інтелектуальної системи

Анотація

Предметом дослідження є процес побудови ментальних моделей користувача в інтелектуальних інформаційних системах. Метою є удосконалення  принципів побудови ментальних моделей зовнішніх користувачів щодо рішень інтелектуальної інформаційної системи з тим, щоб формувати пояснення у відповідності як до потреб цих користувачів, так і до обмежень щодо використання рішень у визначеній предметній області. Вирішуються такі задачі: удосконалення існуючих принципів побудови ментальних моделей на основі структуризації опису рішення інтелектуальної системи; розробка принципу побудови ментальних моделей користувача інтелектуальної системи, що враховує обмеження при використанні отриманого рішення. Наукова новизна отриманих результатів полягає в такому. Адаптовано існуючі принципи побудови ментальних моделей людиною з урахуванням відмінностей побудови пояснень щодо рішення в інтелектуальній системі, представленій у вигляді «чорної скриньки». Адаптовані принципи враховують відповідність структури ментальної моделі та рішення, множинність ментальних моделей щодо рішення, неповноту вхідних даних для прийняття рішення. Запропоновано принцип доповнення вхідних даних, який полягає у використанні нерелевантних з точки зору користувача значень властивостей рішення для обмеження множини релевантних рішень. Використання даного принципу при побудові пояснення  дає можливість врахувати негативні аспекти використання отриманого результату і тим самим спростити користувачеві вибір та застосування цього рішення.

Біографії авторів

Сергій Федорович Чалий, Харківський національний університет радіоелектроніки, кафедра ІУС

доктор технічних наук, професор, професор кафедри ІУС ХНУРЕ, м. Харків, Україна.

Ірина Олександрівна Лещинська, Харківський національний університет радіоелектроніки, кафедра ПІ

кандидат технічних наук, доцент, доцент кафедри ПІ ХНУРЕ, м. Харків, Україна.

Посилання

Kordon, A. (2016). Intelligent Systems in IndustrySgurev. Innovative Issues in Intelligent Systems. Studies in Computational Intelligence, 623, 1-31. Springer, Cham. doi: https://doi.org/10.1007/978-3-319-27267-2_1

Nassih, R., & Berrado, A. (2020). State of the art of fairness, interpretability and explainability in machine learning: Case of prim. Proceedings of the 13th International Conference on Intelligent Systems: Theories and Applications, 1-5. doi: https://doi.org/10.1145/3419604.3419776

Frasca, M., La Torre, D., Pravettoni, G., Manzoni, G. M., & Caputo, A. (2024). Explainable and interpretable artificial intelligence in medicine: a systematic bibliometric review. Discovery Artificial Intelligence, 4, 15. doi: https://doi.org/10.1007/s44163-024-00114-7

Rook, L. (2021). Mental models: A robust definition. The Learning Organization, 28(1), 6-17. doi: https://doi.org/10.1108/TLO-09-2019-0136

Adadi, A., & Berrada, M. (2018). Peeking inside the black-box: A survey on Explainable Artificial Intelligence (XAI). IEEE Access, 6, 52138-52160. doi: https://doi.org/10.1109/ACCESS.2018.2870052

Gunning і D. Aha, (2019). DARPA’s Explainable Artificial Intelligence (XAI) Program. AI Magazine, 40(2), 44-58. doi: https://doi.org/10.1609/aimag.v40i2.2850

Miller T. (2019). Explanation in artificial intelligence: Insights from the social sciences. Artificial Intelligence, 267, 1-38. doi: https://doi.org/10.1016/j.artint.2018.07.007

Tversky, B. (2019). Mind in motion: How action shapes thought. Trends in Cognitive Sciences, 23(11), 935-944. doi: https://doi.org/10.1016/j.tics.2019.08.007

Чалий С. Ф., Лещинський В. О., Лещинська І. О. (2021). Контрфактуальна темпоральна модель причинно-наслідкових зв'язків для побудови пояснень в інтелектуальних системах/ Вісник Національного технічного університету «ХПІ». Сер. : Системний аналіз, управління та інформаційні технології = Bulletin of the National Technical University «KhPI». Ser.: System analysis, control and information technology: зб. наук. пр. Харків: НТУ «ХПІ», 2 (6), 41-46.

Chala O. (2018). Models of temporal dependencies for a probabilistic knowledge base. Econtechmod. An International Quarterly Journal, 7, 3. 53–58.

Чала О. В. (2020) Модель узагальненого представлення темпоральних знань для задач підтримки управлінських рішень. Вісник Національного технічного університету «ХПІ». Системний аналіз, управління та інформаційні технології, 1(3), 14-18. doi: 10.20998/2079-0023.2020.01.03

Chalyi, S., & Leshchynskyi, V. (2020). Temporal representation of causality in the construction of explanations in intelligent systems. Advanced Information Systems, 4(3), 113–117. doi: https://doi.org/10.20998/2522-9052.2020.3.16

Чалий С. Ф., Лещинський В. О., Лещинська І. О. (2021). Контрфактуальна темпоральна модель причинно-наслідкових зв'язків для побудови пояснень в інтелектуальних системах,/ Вісник Національного технічного університету "ХПІ". Сер. : Системний аналіз, управління та інформаційні технології = Bulletin of the National Technical University «KhPI». Ser.: System analysis, control and information technology : зб. наук. пр. – Харків: НТУ "ХПІ", № 2 (6), С. 41-46.

Чалий, С., & Лещинська, І. (2023). Концептуальна ментальна модель пояснення в системі штучного інтелекту. Вісник Національного технічного університету «ХПІ». Серія: Системний аналiз, управління та iнформацiйнi технологiї, (1 (9), 70–75. doi: https://doi.org/10.20998/2079-0023.2023.01

Roese, N. J., & Epstude, K. (2017). The functional theory of counterfactual thinking: New evidence, new challenges, new insights. Advances in experimental social psychology, 56, 1-79). Academic Press. doi: https://doi.org/10.1016/bs.aesp.2017.02.001

Byrne, R. M. (2002). Mental models and counterfactual thoughts about what might have been. Trends in Cognitive Sciences, 6(10), 426-431. doi: https://doi.org/10.1016/S1364-6613(02)01974-5

Johnson-Laird, P. N. (1983). Mental models: Towards a cognitive science of language, inference, and consciousness. Harvard University Press.

Johnson-Laird, P. N. (2006). How we reason. Oxford University Press.

##submission.downloads##

Опубліковано

2024-09-16