Адаптивна кластеризація багатоекстремальних масивів даних з використанням модифікованого алгоритму риб'ячої зграї
DOI:
https://doi.org/10.30837/0135-1710.2022.178.033Анотація
Розглянуто задачу кластеризації багатоекстремальних масивів даних. Для оптимізації функцій пошуку локальних екстремумів запропоновано алгоритм, що є по суті оптимізаційною функцією модифікованого алгоритму риб'ячої зграї (Fish School Search), випадкового пошуку та еволюційної оптимізації.
Посилання
Gan G., Ma Ch., Wu J. Data Clustering: Theory, Algorithms and Applications. Philadiphia, Pensilvania: SIAM: 2007. 455 p.
Abonyi J., Feil D. Cluster Analisis for Data Mining and System Identification. Basel: Birlhause. 2007. 303 p.
Xu R., Wunsch D.C. II - Clustering. - Hoboken, N.J.: John Wiley&Sons, Inc., 2009. 341p.
Aggarwal, C.C. Data Mining: Text Book. Springer. 2015.
Engelbrecht A.P. Computational Intelligence an Introducion. John Willey&Sons, 2007. 597 p.
Rukowski L. Computational Intelligence Methods and Techniques. Berlin Heidelberg: Springer - Verlag. 2008. 514 p.
Kroll A. Computational Intelligence. Eine Einfurming in Problelme, Methoden and Tchnische Anwen-dungen. Munchen: Oldenbourg Verlag. 2013. 428.p.
Kohonen T. Self-Organizing Maps/ Kohonen T. Berlin: Springer, 1995. 362 p. DOI: 10.1007/978-3-642-56927-2.
Hinneburg A., Klim D.A. An efficient approach to clustering in large multimedia databases with noise. Proc. 4th Int. Conf. in Knowkedge Discovery and Data Mining (KDD 98). N.Y.: AAAI Press. 1998. P. 58-65.
Hinneburg A., Gabriel H.-H. DENCLUE 2.0: Fast clustering based on kernel density estimation.
Hinneburg A., Klim D.A. A general approach to clustering in large databases with noise - kniwledge and Identification Systems. 2003. 5 (5). P. 387-415.
Rehhioni H.,Idrissi A., Abourezq M., Zegrary F. DENCLUE-IM: A new approachfor big data clustering. Procedia Computer Science. 2016. 83. P. 560-567.
Parzen E. On estimation of a proobably density function and mode. The Annalis of Math Statistics. 1962. 33. №3. P. 1065-1076.
Nadaraya E.A. On nonparametric estimation of density function and regressiion curves. Theory of Probab. Appl. 1965. 10. P. 186-190. 15. Wantson G.S. Smooth regression analysis. Sankhya: The Indian Journal of Statistics. 1964. Ser. A. 26. № 4. P. 359-372.
Kennedy J., Eberhart R. Particle swarm optimization. Proc. IEEE Int. Conf. on Neural Networks. Perth, Australia, 1995. P. 1942-1948.
Eiben A., Smith J. Introduction to Evolutionary Computing. Heidelberg: Springer. 2003.
Karpenko A. P. Population algorithms for global continious optimization. Review of new and little - known algorithms. Приложение к журналу" Информационные технологии". 2012. № 7. 32 p.
Bastos-Felino C.J.A., Lima Neto C.J.A., Lins A.J.C.C., Nascimento A.I.S., Lima M.P. Fish School Search. Nature. Insperiod Algorithms for Optimization. Berlin Hedelberg: Springer Verlag. 2009. SCI 193 . P. 261-277.
Cavalcanti Jr. G.M., Bastos-Felino C.J.A., Lima Neto F.B., Castro R.M.C.S. A hybrid algorithm based on fish school search and particle swarm optimization for dynamic problems. Proc. Int. Conf. in Swarm Intelligence (ICSI). 2011. V. 2. P.543-552.
Janecek A.,Tan Y. Feeding the fish-weight update strategies for the fish school seach algorithm. Berlin Heidelberg: Springer - Verlag. Lecture Nodes in Computer Scince. 2011. V. 6729. Part II. P. 553-562.
Растрігін Л.А. Випадковий пошук у процесах адаптації. Рига: Зінатне. 1973. 132 с.
Box Y.E.P. Evolutionary operation: A method for increasity industrial productivity. Applied Statistics. 1957. 6. P. 81-101.
Spendley W., Hext G.R., Hinswath F.R. Sequential application of simplex design in optimization and evolutionary operation. Tehnometrics. 1962. 4. P. 441-461.
Nelder J.A., Mead R. A simplex method for function minimization. Computer J. 1965. 7. P. 308-313.