Un algoritmo de búsqueda armónica para clustering con selección de características
DOI:
https://doi.org/10.17533/udea.redin.14724Palabras clave:
harmony search, clustering, feature selectionResumen
En este artículo se presenta un nuevo algoritmo de clustering denominado IHSK, con la capacidad de seleccionar características en un orden de complejidad lineal. El algoritmo es inspirado en la combinación de los algoritmos de búsqueda armónica y K-means. Para la selección de las características se usó el concepto de variabilidad y un método heurístico que penaliza la presencia de dimensiones con baja probabilidad de aportar en la solución actual. El algoritmo fue probado con conjuntos de datos sintéticos y reales, obteniendo resultados prometedores.
Descargas
Citas
A. K. Jain, M. N. Murty, P. J. Flynn. “Data clustering: a review”. ACM Comput. Surv. Vol. 31. 1999. pp. 264- 323. DOI: https://doi.org/10.1145/331499.331504
K. Jacob, N. Charles, T. Marc. Grouping Multidimensional Data Recent Advances in Clustering. Ed. Springer-Verlag. New York. 2006. pp. 25-72.
J. Dy, G.C.E. Brodley, J. Mach. “Feature Selection for Unsupervised Learning”. Learn. Res. Vol.5. 2004. pp. 845-889.
Z. Geem, J. Kim, G.V. Loganathan. “A New Heuristic Optimization Algorithm”. Harmony Search Simulation. Vol.76. 2001. pp. 60-68. DOI: https://doi.org/10.1177/003754970107600201
M. G. H Omran, M. Mahdavi. “Global-best harmony search”. Applied Mathematics and Computation, Vol. 198. 2008. pp. 643-656. DOI: https://doi.org/10.1016/j.amc.2007.09.004
M. Mahdavi, M. Fesanghary, E. Damangir. “An improved harmony search algorithm for solving optimization problems”. Applied Mathematics and Computation. Vol. 188. 2007. pp. 1567-1579. DOI: https://doi.org/10.1016/j.amc.2006.11.033
S. J. Redmondand, C. Heneghan. “A method for initialising the K-means clustering algorithm using kd-trees”. Pattern Recognition Letters. Vol. 28. 2007. pp. 965-973. DOI: https://doi.org/10.1016/j.patrec.2007.01.001
A. K Jain, R.C. Dubes. Algorithms for clustering data. Ed. Prentice-Hall Inc. Englewood Cliffs (NJ.). 1988. pp.143-222.
A. Webb. Statistical Pattern Recognition. 2ª ed. Ed. John Wiley & Sons. Malvern (UK) 2002. pp. 361- 408. DOI: https://doi.org/10.1002/0470854774
A. L. Blum, P. Langley. “Selection of relevant features and examples in machine learning”. Artificial Intelligence. Vol. 97. 1997. pp. 245-271. DOI: https://doi.org/10.1016/S0004-3702(97)00063-5
K. Ron, H. J. George. “Wrappers for feature subset selection”. Artif. Intell. Vol. 97. 1997. pp. 273-324. DOI: https://doi.org/10.1016/S0004-3702(97)00043-X
H. Zeng, Y. M. Cheung. “A new feature selection method for Gaussian mixture clustering”. Pattern Recognition. Vol. 42. 2009. pp. 243-250. DOI: https://doi.org/10.1016/j.patcog.2008.05.030
S. Osiński, J. Stefanowski, D. Weiss. “Lingo search results clustering algorithm based on Singular Value Decomposition”. International Conference on Intelligent Information Systems (IIPWM). Zakapore (Poland). 2004. pp. 359-397. DOI: https://doi.org/10.1007/978-3-540-39985-8_37
J. Han, M. Kamber. Data Mining Concepts and Techniques. 2ª ed. Ed.Morgan Kaufmann Publishers. 2006.pp.71-72.
S. Weiguo, L. Xiaohui, M. Fairhurst. “A Niching Memetic Algorithm for Simultaneous Clustering and Feature Selection”. IEEE Transactions on Knowledge and Data Engineering. Vol. 20. 2008. pp. 868-879. DOI: https://doi.org/10.1109/TKDE.2008.33
Descargas
Publicado
Cómo citar
Número
Sección
Licencia
Derechos de autor 2018 Revista Facultad de Ingeniería
Esta obra está bajo una licencia internacional Creative Commons Atribución-NoComercial-CompartirIgual 4.0.
Los artículos disponibles en la Revista Facultad de Ingeniería, Universidad de Antioquia están bajo la licencia Creative Commons Attribution BY-NC-SA 4.0.
Eres libre de:
Compartir — copiar y redistribuir el material en cualquier medio o formato
Adaptar : remezclar, transformar y construir sobre el material.
Bajo los siguientes términos:
Reconocimiento : debe otorgar el crédito correspondiente , proporcionar un enlace a la licencia e indicar si se realizaron cambios . Puede hacerlo de cualquier manera razonable, pero no de ninguna manera que sugiera que el licenciante lo respalda a usted o su uso.
No comercial : no puede utilizar el material con fines comerciales .
Compartir igual : si remezcla, transforma o construye a partir del material, debe distribuir sus contribuciones bajo la misma licencia que el original.
El material publicado por la revista puede ser distribuido, copiado y exhibido por terceros si se dan los respectivos créditos a la revista, sin ningún costo. No se puede obtener ningún beneficio comercial y las obras derivadas tienen que estar bajo los mismos términos de licencia que el trabajo original.