un ponderado

Blog

HogarHogar / Blog / un ponderado

Oct 17, 2023

un ponderado

Scientific Reports volumen 13, número de artículo: 14061 (2023) Citar este artículo Detalles de métricas En la cultura digital actual basada en datos, existe una demanda crítica de soluciones optimizadas que esencialmente

Scientific Reports volumen 13, número de artículo: 14061 (2023) Citar este artículo

Detalles de métricas

En la cultura digital actual basada en datos, existe una demanda crítica de soluciones optimizadas que esencialmente reduzcan los gastos operativos al tiempo que intentan aumentar la productividad. La cantidad de memoria y el tiempo de procesamiento que se pueden utilizar para procesar enormes volúmenes de datos están sujetos a una serie de limitaciones. Sin duda, esto sería un problema mayor si un conjunto de datos contuviera información redundante y poco interesante. Por ejemplo, muchos conjuntos de datos contienen una serie de características no informativas que principalmente engañan a un algoritmo de clasificación determinado. Para abordar esto, los investigadores han estado desarrollando una variedad de técnicas de selección de características (FS) que tienen como objetivo eliminar información innecesaria de los conjuntos de datos sin procesar antes de ponerlos frente a un algoritmo de aprendizaje automático (ML). Los algoritmos de optimización metaheurísticos suelen ser una opción sólida para resolver problemas NP difíciles como FS. En este estudio, presentamos una técnica wrapper FS basada en el algoritmo de búsqueda de gorriones (SSA), un tipo de metaheurística. SSA es un método de inteligencia de enjambre (SI) que se destaca por su rápida convergencia y estabilidad mejorada. SSA tiene algunos inconvenientes, como una menor diversidad de enjambres y una capacidad de exploración débil en iteraciones tardías, como la mayoría de los algoritmos SI. Entonces, usando diez mapas caóticos, intentamos mejorar SSA de tres maneras: (i) la generación inicial de enjambre; (ii) la sustitución de dos variables aleatorias en SSA; y (iii) sujetar a los gorriones que cruzan el área de búsqueda. Como resultado, obtenemos CSSA, una forma caótica de SSA. Amplias comparaciones muestran que CSSA es superior en términos de diversidad de enjambre y velocidad de convergencia para resolver varias funciones representativas del conjunto de referencia del Congreso sobre Computación Evolutiva (CEC) del Instituto de Ingenieros Eléctricos y Electrónicos (IEEE). Además, el análisis experimental de CSSA en dieciocho conjuntos de datos de aprendizaje automático interdisciplinarios y de múltiples escalas del repositorio de datos de la Universidad de California en Irvine (UCI), así como tres conjuntos de datos de microarrays de alta dimensión, demuestra que CSSA supera a doce algoritmos de última generación. en una tarea de clasificación basada en la disciplina FS. Finalmente, un análisis estadístico post-hoc con un nivel de significancia del 5% basado en la prueba de rangos con signo de Wilcoxon, la prueba de rangos de Friedman y la prueba de Nemenyi confirma la importancia de CSSA en términos de idoneidad general, precisión de clasificación, tamaño de característica seleccionada, tiempo de cálculo y traza de convergencia. y estabilidad.

El siglo XXI se ha convertido en la era de los datos, con su análisis y utilización visibles en todas partes y en todos los aspectos de la vida, y estos datos frecuentemente son de carácter de alta dimensión1,2,3,4,5. Sin embargo, es inevitable que estos datos contengan una cantidad sustancial de características redundantes e irrelevantes, lo que aumenta la sobrecarga computacional y el riesgo de sobreajuste cuando se manejan con algoritmos tradicionales de aprendizaje automático (ML)6,7,8. Como resultado, para hacer un mejor uso de los datos, se deben desarrollar procedimientos eficientes, como la selección de características (FS), para manejar las características inútiles9,10,11. Comúnmente se utilizan envoltorios, filtros y técnicas de FS integradas para diferenciarlos en función de su evaluación de subconjuntos de características12. Los enfoques basados ​​en contenedores se basan en algoritmos de ML predefinidos para obtener una mayor precisión de clasificación, pero su cálculo es muy costoso porque los algoritmos de ML deben ejecutarse numerosas veces13. Por el contrario, al evaluar subconjuntos de características, los enfoques basados ​​en filtros no utilizan ningún algoritmo de aprendizaje automático, lo que reduce el costo informático pero puede reducir la precisión de la clasificación14. Las técnicas integradas incorporan FS en el aprendizaje de modelos, teniendo en cuenta la influencia del modelo algorítmico y al mismo tiempo reduciendo el peso computacional; sin embargo, estos métodos tienen poca capacidad de generalización y una complejidad computacional significativa15.

Debido a que la cantidad de subconjuntos de características varía geométricamente debido a la dimensionalidad de los datos, es un desafío producir resultados adecuados utilizando métodos tradicionales, especialmente cuando se trabaja con datos de alta dimensión. Para reducir el alto costo computacional causado por la maldición de la dimensionalidad, se pueden desarrollar nuevos enfoques de selección de subconjuntos de características basados ​​en algoritmos de inteligencia de enjambre (SI) envolventes debido a su robustez y ajustabilidad16,17,18. Los algoritmos SI tienen tres características esenciales: flexibilidad, autoorganización y resiliencia. Estos algoritmos suelen estar inspirados en el comportamiento grupal en la naturaleza, como la búsqueda de alimento, la lucha contra la depredación y la migración19. Los algoritmos SI típicos son optimización de colonias de hormigas (ACO)20, optimización de enjambre de partículas (PSO)21, optimizador de lobo gris (GWO)22, colonia de abejas artificial (ABC)23, algoritmo de optimización de ballenas (WOA)24, algoritmo de optimización de saltamontes (GOA) 25, optimización de Harris Hawks (HHO)26 y algoritmo de enjambre de aves (BSA)27. Otros algoritmos de optimización incluyen el algoritmo bat (BA)28, la optimización de búsqueda atómica (ASO)29 y la optimización de la solubilidad del gas Henry (HGSO)30. En general, los algoritmos metaheurísticos pueden manejar eficazmente problemas de FS, reduciendo la complejidad computacional y al mismo tiempo logrando una mayor precisión de clasificación y, por lo tanto, los enfoques SI se han aplicado consistentemente a problemas de FS31,32,33,34. Por ejemplo, Hussain et al.35 integraron el algoritmo seno-coseno (SCA) en HHO para equilibrar las capacidades de exploración y explotación de HHO, y los resultados experimentales en varios problemas de optimización numérica y FS revelaron la ventaja competitiva del algoritmo propuesto sobre otros algoritmos SI. Neggaz et al.36 aplicaron por primera vez HGSO para resolver problemas de FS. Los resultados experimentales en conjuntos de datos con diferentes tamaños de características (de 13 a 15009) mostraron que HGSO es eficaz para minimizar el tamaño de las características, especialmente en datos de alta dimensión, al tiempo que preserva la máxima precisión de clasificación.

Sin embargo, los algoritmos SI tienden a caer en la optimización local debido a: (i) el desequilibrio entre exploración y explotación; y (ii) super estocasticidad37,38. Numerosos estudios han demostrado que la teoría del caos puede derrotar tal cuestión debido a sus características de semiestocástico, ergodicidad y sensibilidad al enjambre inicial39,40. Khosravi et al.41 incorporaron una nueva estrategia de búsqueda local y el mapa caótico Piecewise, para que su algoritmo de optimización de la enseñanza fuera capaz de abordar problemas de FS de alta dimensión. Zhang et al.42 integraron la mutación gaussiana y el mapa caótico logístico en el algoritmo de la mosca de la fruta (FFA) para evitar una convergencia prematura y, por tanto, fortalecer la capacidad de exploración. Sayed et al.43 optimizaron el algoritmo de búsqueda de cuervos (CSA) mediante el uso de diez mapas caóticos para mejorar su rendimiento al abordar problemas de FS en términos de precisión de clasificación, número de características seleccionadas y velocidad de convergencia. Altay et al.44 reemplazaron los parámetros aleatorios en BSA con diez mapas caóticos para aumentar la capacidad de exploración.

El algoritmo de búsqueda de gorriones (SSA) es uno de los muchos algoritmos SI desarrollados recientemente. En él, el gorrión es una especie diestra que busca alimento mediante la colaboración colectiva y puede escapar eficazmente de los depredadores naturales. La SSA fue propuesta por Xue et al.45 emulando tales propiedades. En comparación con sus homólogos, SSA ha atraído mucha atención debido a su rápida convergencia, gran eficiencia de búsqueda y estabilidad46,47,48,49,50,51. Sin embargo, SSA adolece de los mismos defectos que otros algoritmos SI en el sentido de que la diversidad de enjambres y las capacidades exploratorias disminuyen a medida que avanza el algoritmo47,52. Como resultado, se han realizado mejoras significativas en SSA. Para que SSA fuera más exhaustiva en la exploración del espacio de soluciones, Xue et al.53 utilizaron un nuevo enfoque de búsqueda de vecinos. Gao et al.52 agregaron un mapa caótico y una técnica de evolución de mutaciones a SSA para mejorar su robustez y velocidad de convergencia. Gad et al.54 binarizaron SSA utilizando funciones en forma de S y V e incluyeron un enfoque de reubicación aleatoria para gorriones transgresores, así como una nueva estrategia de búsqueda local para equilibrar sus capacidades de exploración y explotación. Lyu et al.55 utilizaron el mapa caótico Tent y la técnica de mutación gaussiana para mejorar el SSA y aplicarlo a desafíos simples de segmentación de imágenes. Además, Yang et al.56 mejoraron el SSA con el uso del mapa caótico sinusoidal, un enfoque de ponderación adaptativo y un operador de mutación de distribución t adaptativo, y luego aplicaron la técnica sugerida a problemas de optimización numérica. Sin embargo, nadie ha utilizado todavía un SSA mejorado por el caos para resolver problemas de FS. El rendimiento del algoritmo SI generalmente se puede mejorar de tres maneras: (i) ajustando sus parámetros; (ii) alterar sus mecanismos; y (iii) combinarlos con otros algoritmos57. A la luz de esto, este trabajo tiene como objetivo mejorar SSA redefiniendo sus parámetros y procedimientos aleatorios mediante el uso de un mapa caótico. Las siguientes son las principales contribuciones:

El enjambre inicial, las posiciones transgresivas y las variables aleatorias en SSA se procesan mediante el uso de mapas caóticos para aumentar simultáneamente la diversidad del enjambre y lograr un buen equilibrio entre exploración y explotación en él. La comparación de veinte variantes diferentes de SSA mejoradas por el caos produce el mejor SSA caótico (CSSA).

CSSA se compara con doce algoritmos pares, incluidos SSA, ABC, PSO, BA, WOA, GOA, HHO, BSA, ASO, HGSO, evolución diferencial adaptativa basada en el historial de éxito con reducción lineal del tamaño de la población (LSHADE)58 y estrategia de evolución con covarianza. adaptación matricial (CMAES)59, en algunas funciones representativas del Congreso sobre Computación Evolutiva (CEC) del Instituto de Ingenieros Eléctricos y Electrónicos (IEEE) y dieciocho conjuntos de datos multiescala del repositorio de datos de la Universidad de California en Irvine (UCI) como andamio para verificar su competitividad. Además, este estudio también selecciona siete métodos FS propuestos recientemente de la literatura para verificar que CSSA todavía tiene ventajas sobre varios algoritmos de última generación.

La capacidad de CSSA se prueba aún más en tres conjuntos de datos de microarrays de alta dimensión con una cantidad de características/genes (dimensiones) de hasta 12500.

Medimos empírica y teóricamente las fortalezas y debilidades de CSSA frente a diferentes algoritmos para resolver problemas de FS bajo métricas de evaluación, como aptitud general, precisión de clasificación, tamaño de característica seleccionada, convergencia y estabilidad.

Se realiza un análisis estadístico post-hoc, que incluye la prueba de rangos con signo de Wilcoxon, la prueba de rangos de Friedman y la prueba de Nemenyi, con un nivel de significancia del 5% para verificar la significancia estadística de CSSA sobre sus pares.

A continuación, este artículo está organizado de la siguiente manera. La Sección Preliminares presenta el principio SSA y los diez mapas caóticos que se han probado con él, mientras que la Sección. El algoritmo de búsqueda de gorriones caóticos (CSSA) propuesto presenta el CSSA propuesto. La sección Resultados experimentales y discusión compara CSSA con doce algoritmos pares y siete enfoques de FS populares en la literatura, y se proporcionan y analizan datos experimentales sobre dieciocho conjuntos de datos UCI y tres conjuntos de datos de microarrays de alta dimensión. La sección Discusión analiza las fortalezas y limitaciones de CSSA. Finalmente, la Secta. Conclusión concluye el artículo.

Esta sección presenta una breve historia de la SSA y su formulación matemática. SSA es un algoritmo SI desarrollado recientemente que, en un lenguaje matemático, imita los comportamientos de búsqueda de alimento y antidepredadores de los gorriones. En general, los gorriones se clasifican como productores o gorrones en función de sus valores de aptitud, que se evalúan periódicamente utilizando las posiciones actuales de los individuos. Los productores son en gran medida responsables de suministrar alimentos al enjambre, mientras que los gorrones suelen utilizar a los productores como un medio para obtener una fuente de alimento. Además, a medida que los depredadores se acercan al enjambre, algunos exploradores modifican sus posiciones para protegerse a sí mismos y a todo el enjambre. Como resultado, el enjambre de gorriones puede recolectar alimento continuamente y al mismo tiempo garantizar la seguridad para la reproducción del enjambre mediante diversas estrategias. Diferentes especies de gorriones tienen diferentes roles y los siguientes son los componentes de SSA y su proceso algorítmico.

El enjambre se inicializa. SSA primero genera aleatoriamente las posiciones iniciales de un grupo de gorriones como

donde N denota el número de individuos en el enjambre, D representa la dimensionalidad de un vector de decisión (o el número de características en un conjunto de datos que se procesa en el caso de problemas de FS) y \(x_{i,j}\) denota un valor tomado por un gorrión i en una dimensión j. SSA juzga la calidad de las soluciones obtenidas mediante una función de aptitud

donde se utiliza una función de aptitud f(.) para evaluar la calidad de una solución dada \({\textbf{x}}_i\).

El productor es el principal responsable de encontrar fuentes de alimentos y sus reglas de actualización de posición son

SSA mejora la calidad de sus soluciones intercambiando información entre sus iteraciones consecutivas. Ec. (3) se utiliza para describir la forma en que se intercambia información entre productores a medida que aumenta el número de iteraciones. t denota el número de iteración actual. Dado que SSA no se utiliza para encontrar la solución óptima global, sino para proporcionar una solución relativamente mejor, el número máximo de iteraciones T generalmente se usa como condición para la terminación del algoritmo. \(\alpha \) generalmente tiene un valor aleatorio en el rango [0, 1]. El valor de advertencia \(R_2 \sim U{(0,1)}\) indica el nivel de peligro de la ubicación de un productor, mientras que el valor de seguridad \(ST \in [0.5,1]\) es un valor umbral utilizado para determinar si la ubicación de un productor es segura. \(R_2

El enjambre en África subsahariana se puede dividir en productores y gorrones. Los vagabundos se renuevan como

donde \({\mathbf{g}}_{peor}\) y \({\mathbf{g}}_{mejor}\) denotan las peores y mejores posiciones globales actuales, respectivamente, con la ayuda de las cuales los descubridores Puede mejorar la velocidad de convergencia del algoritmo, pero aumenta el riesgo de caer en un óptimo local. \(A^+=A^T(AA^T)^{-1}\), donde A denota una matriz \(1 \times D\) en la que cada elemento tiene un valor establecido aleatoriamente en 1 o \( -1\). Ec. (4) muestra que \(i>N/2\) indica que los carroñeros necesitan volar a otra parte para conseguir comida; de lo contrario, los gorrones obtienen comida de los productores.

Los exploradores se seleccionan al azar del enjambre, normalmente entre el 10% y el 20% del tamaño total del enjambre, y se actualizan a medida que avanzan.

donde \(\beta \) toma un valor aleatorio con propiedades de distribución normal, K es un parámetro que toma un valor aleatorio entre \(-1\) y 1, \(\sigma \) es una constante para evitar la ocurrencia de una error cuando el denominador es 0, y \(f({\mathbf{g}}_{best}^{t})\) y \(f({\mathbf{g}}_{peor}^{t} )\) son valores de aptitud de los mejores y peores individuos globales actuales, respectivamente. Los scouters toman la aptitud según un criterio de actualización, es decir, \(f({\textbf{x}}_i^{t})>f({\mathbf{g}}_{best}^{t})\) indica que el gorrión está en riesgo de depredación y necesita cambiar su ubicación según el mejor individuo actual, mientras que cuando \(f({\textbf{x}}_i^{t})=f({\mathbf{g} }_{best}^{t})\), un gorrión necesita acercarse estratégicamente a otros individuos seguros para mejorar su índice de seguridad.

Se aplican pautas de actualización y detención. La posición actual de un gorrión sólo se actualiza si su aptitud correspondiente es mejor que la de la posición anterior. Si no se alcanza el número máximo de iteraciones actuales, regrese al Paso 2; en caso contrario, posición de salida y aptitud del mejor individuo.

Por tanto, el marco básico de SSA se realiza en el Algoritmo 1.

El caos se define como un fenómeno y exhibe algún tipo de comportamiento caótico mediante el uso de una función de evolución y tiene tres características principales: i) cuasi estocástico; ii) ergodicidad; y iii) sensibilidad a las condiciones iniciales60. Si se cambia su condición inicial, esto puede conducir a un cambio no lineal en su comportamiento futuro. Por lo tanto, los parámetros estocásticos en la mayoría de los algoritmos pueden fortalecerse mediante el uso de la teoría del caos, dado que la ergodicidad del caos puede ayudar a explorar el espacio de solución más completamente. La Tabla 1 presenta las expresiones matemáticas para los diez mapas caóticos utilizados en este estudio44, donde \({\tilde{x}}\) representa el número aleatorio generado a partir de un mapa caótico unidimensional. La Figura 1 también muestra sus propias visualizaciones.

Visualizaciones de los diez mapas caóticos utilizados en este estudio y generados con Matplotlib 3.5.261 en Python 3.9.1262.

En este estudio, CSSA se produce mitigando las deficiencias de SSA a través de mapas caóticos en tres aspectos: i) enjambre inicial; ii) dos parámetros aleatorios; y iii) sujetar a los gorriones que cruzan el espacio de búsqueda. El enjambre inicial de SSA generalmente se genera aleatoriamente y, por lo tanto, la diversidad del enjambre eventualmente se pierde fácilmente, lo que lleva a una falta de exploración extensa del espacio de soluciones. Esto puede modificarse periódicamente a lo largo del proceso iterativo utilizando la naturaleza ergódica del caos. Para los dos parámetros aleatorios, este estudio considera \(\alpha \) en el productor (Ec. (3)) y K en el scouter (Ec. (5)). Dado que \(\alpha \in [0,1]\), se reemplaza claramente por cualquiera de los diez mapas caóticos, condicionado a que los mapas caóticos de Chebyshev e Iterativo tomen valores absolutos. Además, \(K \in [-1,1]\), por lo que este estudio finalmente resuelve su sustitución por el mapa de Chebyshev. Finalmente, la posición de los gorriones que salen del rango de búsqueda también se fija con la ayuda de mapas caóticos redefiniéndola como

donde \(x_{i,j}^{t}\) y \({\tilde{x}}_{i,j}^{t}\), respectivamente, representan las posiciones original y caótica de un gorrión i en una dimensión j y una iteración t. Al analizar los resultados experimentales en la Sección Análisis comparativo, la versión final de CSSA finalmente se lanza con la siguiente configuración final: (i) el mapa circular se usa para generar el enjambre inicial, reemplace \(\alpha \) en la ecuación. (3), y reubicar los gorriones que cruzan el rango de búsqueda mediante la ecuación. (6); y (ii) el mapa de Chebyshev sustituye a K en la ecuación. (5).

Utilizar únicamente a los mejores individuos de SSA para guiar la dirección evolutiva de su enjambre mejora su velocidad de convergencia pero también aumenta el riesgo de caer en un óptimo local. Para abordar este problema, SSA establece algunos números aleatorios en el algoritmo, pero el generador de números aleatorios utilizado no carece de correlación secuencial en llamadas sucesivas, por lo que la diversidad del enjambre aún disminuye en la última iteración del algoritmo. La aleatoriedad y la imprevisibilidad de las secuencias caóticas se pueden utilizar en la generación de números aleatorios para mejorar la diversidad del enjambre de SSA, aumentando así su capacidad de exploración para examinar el espacio de búsqueda más ampliamente63,64. Por lo tanto, este trabajo utiliza mapas caóticos para generar el enjambre inicial de SSA y reemplaza algunos números aleatorios en él.

Hasta donde sabemos, los vectores binarios65 son sustanciales para codificar características en problemas de FS, y se puede usar un esquema facilitador (por ejemplo, funciones de transferencia) para convertir el espacio de búsqueda continuo en uno binario66, en el que se usan ceros y unos para organizar la posición. de individuos. Inicialmente se seleccionan todas las características y, durante las iteraciones posteriores, una característica se indica como 1 si se selecciona; de lo contrario, se representa como 0. En este estudio, para construir el espacio de búsqueda binaria, CSSA se discretiza utilizando una función de transferencia en forma de V67 como

Así, las ubicaciones de los individuos de SSA se componen de vectores binarios68 como

donde \(r \sim U{(0,1)}\). \(r < V(\cdot)\) significa que si una característica se seleccionó previamente, ahora se descarta y viceversa; de lo contrario, se conserva el estado de selección de una característica.

CSSA primero construye un enjambre inicial usando mapas caóticos. Dependiendo del rango de los mapas caóticos, el punto inicial de los mapas caóticos puede tomar cualquier valor entre 0 y 1, por ejemplo, el punto inicial de los mapas caóticos de Chebyshev e Iterativo puede tomar un valor entre −1 y 1. El valor \({\tilde{x}}^{0}\) para un mapa caótico puede tener una influencia significativa de los patrones de fluctuación en él. Entonces, excepto para el mapa caótico Tent donde \({\tilde{x}}^{0}=0.6\), utilizamos \({\tilde{x}}^{0}= 0.7\)43,69 para Todos los mapas caóticos. Cada ubicación de un gorrión representa una solución posiblemente viable condicionada a sujetar dentro del rango [0, 1] para cada una de sus dimensiones.

En segundo lugar, se requiere un determinante para evaluar la calidad de cada solución binarizada que obtenemos. Los problemas de FS normalmente incluyen dos objetivos de optimización mutuamente excluyentes, a saber, maximizar la precisión de la clasificación y reducir el tamaño de la característica seleccionada. Los métodos de suma ponderada se emplean ampliamente en este tipo de problemas debido a su sencillez y simplicidad de implementación70. Empleamos el enfoque de suma ponderada en la función de aptitud para lograr un buen equilibrio entre los dos objetivos como

donde k-Vecino más cercano (k-NN, \(k=5\)31,54) y \(Err_i\) representan el algoritmo de clasificación que se ejecuta en las características seleccionadas en una solución i y la tasa de error de clasificación respectiva, respectivamente. k-NN se usa comúnmente en combinación con metaheurísticas en tareas de clasificación para resolver problemas de FS debido a su eficiencia computacional54. \(\vert S_i\vert \) representa el número de características útiles que CSSA ha seleccionado en i. Una proporción de selección de funciones más pequeña indica que el algoritmo ha seleccionado funciones útiles de manera más efectiva. \(\gamma \) representa un coeficiente de ponderación, que se fija en 0,99 según estudios existentes54,71.

A continuación, se actualiza la posición de los gorriones según las Ecs. (3), (4) y (5), siempre que \(\alpha \) y K se reemplacen con valores aleatorios independientes generados por un mapa caótico dado. Esto apoya en gran medida a los agentes de búsqueda de CCSA para explorar y explotar de manera más efectiva cada región potencial del espacio de búsqueda.

Finalmente, CSSA termina según una condición de terminación predefinida. Para los problemas de optimización, normalmente existen tres condiciones de terminación: (i) se alcanza el número máximo de iteraciones; (ii) se obtiene una solución decente; y (iii) una ventana de tiempo predeterminada. La primera condición se utiliza como condición de terminación en este estudio. En general, CSSA se implementa en el algoritmo 2. En aras de la simplicidad, la figura 2 también muestra su diagrama de flujo.

Diagrama de flujo de CSSA.

La selección de características basada en métodos envolventes evalúa los subconjuntos candidatos varias veces en el proceso de encontrar el subconjunto de características óptimo, lo que aumenta la complejidad del algoritmo. Por lo tanto, esta sección analiza la complejidad general de CSSA en el peor de los casos.

Para facilitar el análisis de la complejidad temporal de CSSA, el Algoritmo 2 se inspecciona paso a paso. En la fase de inicialización (Línea 2), la posición de N gorriones se inicializa con \(\mathcal{O}\)(N) complejidad temporal. En la fase del bucle principal, la complejidad temporal de la binarización (Línea 5), ​​la evaluación de la solución (Línea 6) y la actualización de posiciones y la redefinición de variables que salen de los límites (Líneas 10 a 21) es \(\mathcal{O}\)( N), \(\mathcal{O}(N+N \log {N}+1)\) y \(\mathcal{O}\)(2N), respectivamente. Finalmente, encontrar el mejor individuo globalmente (Línea 6) tiene una complejidad temporal de \(\mathcal{O}(\log {N})\). Por lo tanto, la peor complejidad temporal de CSSA se puede definir como \(\mathcal{O}(N)+\mathcal{O}(T((N+N+N \log {N}+1)+2N))+ \mathcal{O}(\log {N})=\mathcal{O}(N)+\mathcal{O}(T(4N+N \log {N}+1))+\mathcal{O}(\ log {N})=\mathcal{O}(TN \log {N})\). Por otro lado, la complejidad espacial de CSSA se mide por la sobrecarga que impone a la memoria, es decir, \(\mathcal{O}\)(ND).

En este estudio, se realizan experimentos en dieciocho conjuntos de datos de la UCI enumerados en la Tabla 2, que cubren diferentes áreas temáticas, incluidas física, química, biología, medicina, etc.72. Los conjuntos de datos interdisciplinarios tienen ventajas para evaluar la aplicabilidad de CSSA en múltiples disciplinas.

Utilizamos principalmente cuatro métricas para evaluar el desempeño general de los competidores, a saber, aptitud media (\(Mean_{Fit}\)), precisión media (\(Mean_{Acc}\)), número medio de características seleccionadas (\(Mean_ {Feat}\)), y el tiempo computacional medio (\(Mean_{Time}\)) definido como

donde \(M=30\) es el número máximo de ejecuciones independientes. \(f_*^{k}\), \(Acc_*^{k}\), \(\vert S_*^{k}\vert \), y \(Time_*^{k}\) respectivamente, denota los valores de aptitud, precisión, tamaño de característica seleccionada y tiempo de cálculo (medido en milisegundos) para la mejor solución global obtenida en la ejecución k.

Cuanto más pequeños sean los valores de \(Mean_{Fit}\), \(Mean_{Feat}\) y \(Mean_{Time}\), mejor será el rendimiento del CSSA. Por el contrario, cuanto mayor sea el valor de \(Mean_{Acc}\), mayor será el rendimiento del CSSA. La optimización de los resultados se valida mediante el uso de la estrategia de retención, en la que los conjuntos de entrenamiento y prueba se realizan dividiendo aleatoriamente cada conjunto de datos en dos partes, donde la fase de entrenamiento ocupa el 80% del conjunto de datos y la fase de prueba ocupa el 80% del conjunto de datos. el 20% restante73. Debido a la naturaleza estocástica de los algoritmos metaheurísticos, no se pueden replicar completamente y, por lo tanto, los resultados promedio para cada algoritmo y conjunto de datos único se determinan en 30 ejecuciones independientes y se obtienen como los valores finales para todas las métricas. Además, utilizamos W, T y L para representar, respectivamente, el número de victorias, empates y derrotas de CSSA en comparación con sus rivales en todos los conjuntos de datos experimentados. Aunque esto puede medir adecuadamente la efectividad del método propuesto, también se requieren pruebas estadísticas no paramétricas, como la prueba de rangos con signo de Wilcoxon, la prueba de rangos de Friedman y la prueba de Nemenyi, para determinar la significancia estadística de CSSA sobre sus rivales. Son más apropiadas y seguras que las pruebas paramétricas, ya que suponen cierta comparabilidad, aunque limitada, y no requieren distribuciones normales ni homogeneidad de varianza74. Los mejores resultados generales se indican en negrita.

En esta sección, la \(Mean_{Fit}\) de CSSA se compara y examina con los diez mapas caóticos enumerados en la Tabla 1, para obtener la mejor versión de CSSA jamás creada. Luego se calculan \(Mean_{Fit}\), \(Mean_{Acc}\), \(Mean_{Feat}\) y \(Mean_{Time}\) y se realiza un análisis estadístico post-hoc en los dieciocho conjuntos de datos UCI y tres conjuntos de datos de microarrays de alta dimensión detallados en las Tablas 2 y 21, respectivamente, para ver si CSSA tiene una ventaja competitiva sobre sus pares conocidos. CSSA también se compara con varios métodos de FS relevantes y de última generación en la literatura para poner los resultados adquiridos en contexto. Además, se utiliza un estudio de ablación para realizar análisis de convergencia y análisis de equilibrio entre exploración y explotación. El entorno experimental tiene un impacto en los resultados finales y la Tabla 3 resume las circunstancias de todos los experimentos. Con frecuencia, existen múltiples hiperparámetros en los algoritmos metaheurísticos y sus valores afectan en gran medida el rendimiento de los resultados finales hasta cierto punto. En este trabajo, las configuraciones de parámetros específicos de los algoritmos de todos los competidores coinciden con las recomendadas en sus respectivos artículos, sin ningún ajuste de parámetros75. La Tabla 4 solo proporciona los parámetros que comparten todos los algoritmos.

En esta sección, se investiga la efectividad de CSSA bajo diferentes mapas caóticos reportados en la Tabla 1 con un punto inicial \({\tilde{x}}^{0}=0.7\) para que todos los mapas caóticos obedezcan a patrones de fluctuación43,69 y excepcionalmente \({\tilde{x}}^{0}=0.6\) para el mapa de Tienda sujeto a su condición de juicio. De este modo, se puede lanzar la mejor versión de CSSA. K en la ecuación. (5) toma un valor aleatorio en el rango \([-1,1]\) y sólo los mapas de Chebyshev e Iterativo pueden, entre los diez mapas caóticos, dar un valor en dicho rango. Entonces, CSSA se experimenta por separado y los resultados se registran para el mapa de Chebyshev en lugar de K y el mapa iterativo en lugar de K en las Tablas 5 y 6, respectivamente. Dado que las otras tres mejoras, es decir, generar el enjambre inicial, sustituyendo \(\alpha \) en la ecuación. (3), y la reubicación de gorriones transgresores, se pueden modificar usando valores aleatorios en el rango [0, 1], se pueden probar claramente con los diez mapas caóticos, condicionados a que los mapas de Chebyshev e Iterativo tomen valores absolutos. La \(Mean_{Fit}\) en la ecuación. (10) se toma como métrica clave en este experimento para medir la distinción entre diferentes versiones de CSSA basadas en los diez mapas caóticos. Además, empleamos W*, T* y L* para reflejar las ventajas y desventajas de las veinte variantes de CSSA al compararlas de forma independiente con SSA.

De las Tablas 5 y 13 combinadas, cuando se usa el mapa Sinusoidal, por ejemplo, para sustituir \(\alpha \), los resultados experimentales muestran que CSSA con los mapas Chebyshev e Iterativo reemplazando a K no funciona de manera efectiva, con mejores resultados que SSA en solo 5 y 4 conjuntos de datos, respectivamente, lo que indica que el mapa sinusoidal no puede mejorar el rendimiento de SSA. Además, "W|T|L" muestra que el mapa sinusoidal no tiene victorias ni empates en los dieciocho conjuntos de datos en comparación con otros mapas. Los resultados experimentales de CSSA en otros mapas son relativamente mejores que los de SSA en la mayoría de los conjuntos de datos. En general, los mejores resultados se obtienen cuando CSSA funciona mejor que SSA en un total de 17 conjuntos de datos, como se muestra en la Tabla 5. Por lo tanto, dado que intentamos maximizar el rendimiento de SSA, este estudio toma el mapa de Chebyshev en lugar de K y el Círculo. map para las otras tres mejoras, con el fin de lanzar la mejor variante de CSSA jamás basada en mapas caóticos.

La Tabla 7 compara el CSSA propuesto con el SSA basado en \(Mean_{Fit}\), \(Mean_{Acc}\), \(Mean_{Feat}\) y \(Mean_{Time}\). CSSA obtiene una ventaja \(Mean_{Fit}\) sobresaliente para un total de 17 conjuntos de datos, y solo tiene un rendimiento inferior al de SSA en el conjunto de datos de WineEW. En términos de \(Mean_{Acc}\), CSSA obtiene la mayor precisión en 14 conjuntos de datos y de manera similar para los otros 4. En términos de \(Mean_{Feat}\), CSSA también supera a SSA en la mayoría de los conjuntos de datos. En cuanto a \(Mean_{Time}\), CSSA tiene relativamente menos tiempo de cálculo en la mayoría de los conjuntos de datos. Por un lado, esto implica que la función de aptitud elegida es capaz de integrar el papel de la precisión y el tamaño de la característica seleccionada en las tareas de clasificación. Además, muestra que CSSA puede equilibrar las capacidades de exploración y explotación, protegiendo a SSA de caer en el óptimo local.

Esta sección compara CSSA con doce algoritmos conocidos, incluidos SSA, ABC, PSO, BA, WOA, GOA, HHO, BSA, ASO, HGSO, LSHADE y CMAES, para determinar si CSSA tiene una ventaja competitiva sobre ellos. En la Tabla 8 se ofrece una breve descripción de los algoritmos comparados.

La Tabla 9 compara el \(Mean_{Fit}\) de CSSA con el de sus pares. Los resultados muestran que CSSA obtiene el \(Mean_{Fit}\) más pequeño en 13 conjuntos de datos y ABC, SSA y CMAES funcionan relativamente mejor en los conjuntos de datos restantes. Por lo tanto, los resultados de \(Mean_{Fit}\) muestran que CSSA tiene sus propios méritos para la mayoría de los conjuntos de datos y puede funcionar mejor en comparación con otros rivales al adaptarse a las tareas de clasificación.

La Tabla 10 compara CSSA con otros algoritmos en términos de \(Mean_{Acc}\). Los resultados de la comparación ilustran que CSSA obtiene la \(Mean_{Acc}\) más alta en 9 conjuntos de datos, empata con la más alta en 6 conjuntos de datos, teniendo por lo tanto un rendimiento sobresaliente en un total de 15 conjuntos de datos, mientras que ABC solo tiene una \(Mean_{Acc}\) más alta. Acc}\) que CSSA en solo 3 conjuntos de datos: CongressEW, Exactly2 y Tic-tac-toe. Por otro lado, CMAES sólo funciona mejor que CSSA en Tic-tac-toe. Esto puede atribuirse a la naturaleza compleja de los datos de estos conjuntos de datos.

La Tabla 11 compara CSSA con sus pares en términos de \(Mean_{Feat}\). CSSA tiene la menor cantidad de funciones seleccionadas en 9 conjuntos de datos, mientras que los otros 12 algoritmos ganaron solo en 9 conjuntos de datos. Cabe destacar que ABC ocupa el segundo lugar después de CSSA solo en términos de \(Mean_{Fit}\) y \(Mean_{Acc}\), pero no tiene ventajas en términos de \(Mean_{Feat}\).

La Tabla 12 compara \(Mean_{Time}\) de CSSA con otros algoritmos. LSHADE tiene el \(Mean_{Time}\) más bajo entre todos los algoritmos, pero el algoritmo funciona mal en otros aspectos como \(Mean_{Fit}\), \(Mean_{Acc}\) y \(Mean_{Feat) }\). Si bien ABC tiene un rendimiento ligeramente mejor en estas métricas, tiene el tiempo de ejecución más largo, alcanzando casi tres veces la duración de CSSA. Además, aunque el \(Mean_{Time}\) de CSSA está en el medio del rango de todos los algoritmos comparados, tiene un costo de tiempo menor que el SSA estándar, como se muestra en la Tabla 7). Esto muestra que CSSA mejora significativamente el rendimiento de SSA sin aumentar o incluso disminuir la complejidad temporal del algoritmo. Este es otro aspecto que demuestra la ventaja de CSSA sobre el estándar.

Además, las Figs. 3 y 4 demuestran la estabilidad de CSSA en términos de \(Mean_{Acc}\) y \(Mean_{Feat}\) en medios de diagramas de caja. Como puede verse en la Fig. 3, CSSA obtuvo diagramas de caja más altos en todos los conjuntos de datos excepto Exactly2. Por otro lado, CSSA tiene tamaños de cuadros más pequeños en todos los conjuntos de datos excepto PenglungEW, SonarEW y SpectEW, lo que indica que CSSA es más estable en términos de \(Mean_{Acc}\) en comparación con sus pares. La Figura 4 también muestra que CSSA puede lograr una \(Mean_{Feat}\) más baja en la mayoría de los conjuntos de datos, lo que garantiza un tamaño más bajo de los diagramas de caja. La Figura 5 muestra \(Mean_{Acc}\) y \(Mean_{Feat}\) de todos los competidores. Se puede ver que CSSA logra la \(Mean_{Acc}\) más alta acompañada de la menor \(Mean_{Feat}\).

Diagrama de caja de \(Mean_{Acc}\).

Diagrama de caja de \(Mean_{Feat}\).

Gráfico de barras de \(Mean_{Acc}\) y \(Mean_{Feat}\).

Los resultados experimentales mencionados anteriormente pueden describir eficazmente las diferencias sutiles entre los algoritmos en competencia, pero también necesitamos controlar el algoritmo en su conjunto. Se analiza más a fondo el comportamiento de convergencia de todos los competidores. La Figura 6 compara visualmente la traza \(Mean_{Fit}\) de todos los competidores para los dieciocho conjuntos de datos, donde todos los resultados son la media de 30 ejecuciones independientes por cada iteración. Está claro que CSSA es más eficaz en comparación con SSA en casi todos los conjuntos de datos, lo que demuestra que la convergencia de CSSA es más acelerada que la de sus pares. Para la mayoría de los conjuntos de datos, CSSA se encuentra al final de los rastros de convergencia de los otros once algoritmos, lo que indica que CSSA tiene una ventaja competitiva entre sus rivales en términos de convergencia rápida mientras se sale del óptimo local. Esto puede deberse a las características distintivas (especialmente la ergodicidad) de los mapas caóticos, que ayudan a cubrir todo el espacio de búsqueda de manera más conveniente. Por lo tanto, CSSA logra mejores comportamientos exploratorios y explotadores que sus pares.

Curvas de convergencia de CSSA y sus pares.

Aunque del análisis anterior se desprende claramente que CSSA tiene ventajas significativas sobre sus pares, se requieren pruebas estadísticas adicionales de los resultados experimentales para aportar rigor en términos de análisis de estabilidad y confiabilidad. En este estudio, analizamos si CSSA tiene una ventaja estadísticamente significativa sobre sus pares basada en un valor p mediante el uso de la prueba de rangos con signo de Wilcoxon con un nivel de significancia del 5%76. Cuando p<0,05, esto indica una ventaja significativa de CSSA en comparación con sus pares; de lo contrario, CSSA tiene una eficacia comparable entre todos los competidores.

La Tabla 13 muestra los resultados de la prueba de rango con signo de Wilcoxon para CSSA sobre otros competidores en términos de \(Mean_{Fit}\), donde "+" representa el número de conjuntos de datos en los que CSSA tiene una ventaja significativa sobre sus pares, " \(\approx \)” indica que CSSA es comparable al algoritmo competidor correspondiente, y “-” representa la cantidad de conjuntos de datos en los que CSSA funciona peor que el algoritmo con el que se compara. De la Tabla 13, queda claro que CSSA tiene ventajas sobresalientes sobre PSO, BA, HHO y ASO para los dieciocho conjuntos de datos, y sobre SSA, HGSO, LSHADE, CMAES, GOA, BSA, WOA y ABC en 7, 17, 17, 16, 16, 16, 15, 14 y 12 conjuntos de datos, respectivamente. Por lo tanto, CSSA supera significativamente a sus pares en la mayoría de los conjuntos de datos.

Además, medimos aún más la significancia estadística de CSSA en relación con otros algoritmos en términos de \(Mean_{Fit}\) mediante la prueba de rango de Friedman77. Suponiendo que tomamos un nivel de significancia \(\alpha =0.05\), la prueba de rangos de Friedman se mide como

lo cual es indeseablemente conservador y, por lo tanto, se obtiene una mejor estadística como78

donde \(N_{D}\) es el número de conjuntos de datos, \(N_{A}\) es el número de algoritmos comparativos y \(R_{k}\) es la clasificación promedio de un algoritmo k. Por lo tanto, tenemos \(N_{D} = 18\), \(N_{A} = 13\) y \(R_{k}\) calculados a partir de las Tablas 9, 10, 11 y 12. La Tabla 14 muestra \(R_{k}\), \(\chi _{F}^{2}\) y \(F_{F}\) para todos los algoritmos bajo nuestras cuatro métricas de evaluación. \(F_{F}\) obedece a la distribución F con grados de libertad \(N_{A}-1\) y \((N_{A}-1)(N_{D}-1)\). El cálculo da \(F(12,204)=1.80\), y dado que todos \(F_{F}\) son mayores que ese valor, hay una diferencia significativa entre los algoritmos a favor de CSSA.

La prueba de rango de Friedman por sí sola generalmente no puede comparar la importancia de los algoritmos entre sí. Así, también se realiza la prueba de Nemenyi74. Esta prueba esencialmente compara la diferencia entre la clasificación promedio de cada algoritmo con una diferencia crítica CD. Si la diferencia es mayor que CD, indica que el algoritmo con menor ranking es superior; de lo contrario, no hay diferencia estadística entre los algoritmos. CD se calcula como

donde \(q_{\alpha }\) se calcula como 3.31, dado que \(N_{A}=13\) y el nivel de confianza \(\alpha =0.05\). Por lo tanto, \(CD = 4,30\), y se mantienen diferencias significativas entre dos algoritmos cuando la diferencia entre su clasificación promedio es mayor que ese valor.

La Figura 7 muestra los resultados de CD para todos los competidores. Los puntos verticales indican la clasificación promedio de los algoritmos y el segmento de línea horizontal que comienza con el punto indica la diferencia crítica. Una diferencia significativa entre los algoritmos está representada por la ausencia de intersección de los segmentos de línea horizontal de los algoritmos. Como se muestra, CSSA funciona mejor en términos de \(Mean_{Fit}\), \(Mean_{Acc}\) y \(Mean_{Feat}\), pero funciona peor en términos de \(Mean_{Time}\ ). CSSA cruza sólo SSA, ABC y WOA en términos de \(Mean_{Fit}\) y sólo SSA, WOA y HHO en términos de \(Mean_{Feat}\), lo que indica que CSSA es significativamente diferente de la mayoría de los algoritmos comparados en términos de \(Mean_{Fit}\) y \(Mean_{Feat}\). Por otro lado, la Fig. 7b muestra que CSSA es significativamente diferente de PSO, BA, HHO, ASO, HGSO y LSHADE en términos de \(Mean_{Acc}\), y la Fig. 7d muestra que no hay ninguna ventaja significativa en \(Mean_{Time}\) para CSSA, sino más bien una ventaja significativa para LSHADE. Además, existe una diferencia entre CSSA y SSA, aunque no es significativa. En general, dado que \(Mean_{Fit}\) entre todas las métricas de evaluación puede sintetizar la capacidad del algoritmo para manejar problemas de FS, la prueba de rangos con signo de Wilcoxon, la prueba de rangos de Friedman y la prueba de Nemenyi muestran que CSSA tiene un desempeño satisfactoriamente significativo sobre sus pares.

La prueba de Nemenyi en CSSA frente a sus pares en términos de \(Mean_{Fit}\), \(Mean_{Acc}\), \(Mean_{Feat}\) y \(Mean_{Time}\).

En este experimento, se seleccionan cinco funciones de referencia continuas representativas del conjunto de pruebas de referencia de la CEC para investigar el impacto de las diferentes mejoras integradas en CSSA en términos de diversidad de enjambre y traza de convergencia. Sus características y definiciones matemáticas se reportan en la Tabla 15.

Dado que CSSA se propone específicamente para problemas de FS, su espacio de búsqueda está restringido a [0, 1] debido a la existencia de mapas caóticos. Sin embargo, para demostrar plenamente las ventajas de sus componentes principales, CSSA debe probarse en diferentes espacios de búsqueda para diversas funciones de referencia. Por lo tanto, analizamos más a fondo CSSA en comparación con CSSA sin enjambre inicial caótico (NINICSSA), CSSA sin parámetros aleatorios caóticos (NPARCSSA) y CSSA sin actualización caótica de posiciones transgresivas (NPOSCSSA). Definimos la configuración de parámetros en este experimento para todos los algoritmos como: el número máximo de iteraciones es 100, el tamaño del enjambre es 30 y \(D=50\) para las funciones Rosenbock, Ackley y Rastrigin. Todos los resultados se registran como la media de 30 ejecuciones independientes.

Las tablas 16, 17 y 18 representan los resultados experimentales de CSSA contra NINICSSA, NPARCSSA y NPOSCSSA en los dieciocho conjuntos de datos de la UCI, respectivamente. En general, CSSA supera a otras versiones de CSSA en términos de \(Mean_{Fit}\), \(Mean_{Acc}\) y \(Mean_{Feat}\), y también está claro que CSSA tiene una importante ventaja sobre NPOSCSSA, ganando 16, 11 y 15 veces en \(Mean_{Fit}\), \(Mean_{Acc}\) y \(Mean_{Feat}\), respectivamente. Por otro lado, se puede ver que, en términos de \(Mean_{Time}\), CSSA tiene una menor sobrecarga computacional en comparación con NINICSSA, NPARCSSA y NPOSCSSACSSA, debido a que el mapa caótico puede generar secuencias aleatorias de manera más simple y sencilla. eficientemente. En definitiva, está claro que las tres mejoras propuestas en este estudio son indispensables para impulsar el rendimiento general de CSSA, y redefinir la posición transgresiva mediante un mapa caótico es especialmente importante.

Además, estudiamos los méritos exploratorios añadidos al CSSA gracias a sus principales componentes. Por lo tanto, tomamos la distancia promedio desde el centro del enjambre para todos los gorriones como medida de la diversidad del enjambre79 como

donde \(\dot{{\textbf{x}}}_{j}\) es el valor en la j-ésima dimensión del centro del enjambre \(\dot{{\textbf{x}}}\). Un \({\mathscr {D}}\) mayor indica que cuanto mayor es la dispersión de individuos en el enjambre, mayor es la diversidad del enjambre y, a la inversa, menor es la diversidad del enjambre.

En consecuencia, la Fig. 8 compara CSSA con sus variantes eliminadas en términos de diversidad de enjambre. A medida que el algoritmo converge gradualmente, los individuos alcanzan un estado similar, lo que lleva a una convergencia del enjambre al mínimo a medida que avanzan las iteraciones79. Es obvio en la Fig. 8 que SSA y NINICSSA siempre mantienen la misma diversidad de enjambre en la función Shekel, lo que indica que el algoritmo no evoluciona y cae en un óptimo local, mientras que las otras variantes de CSSA con enjambre inicial caótico convergen gradualmente, lo que muestra que Inicializar el enjambre mediante un mapa caótico facilita que el algoritmo salte del óptimo local. Las curvas de diversidad de las funciones restantes muestran que la diversidad de NPOSCSSA sigue siendo básicamente la misma que la de SSA, y se puede ver que la diversidad de enjambre de NPOSCSSA y SSA es alta debido a la presencia de individuos transgresores. Sin embargo, NPOSCSSA todavía tiene sus propias ventajas sobre SSA. Por ejemplo, NPOSCSSA converge normalmente en la función Shekel, lo que indica que aunque no se realizan actualizaciones para los gorriones transgresores en esta versión, NPOSCSSA aún puede utilizar mapas caóticos en el enjambre inicial y parámetros aleatorios para permitir que CSSA escape de los óptimos locales. Por otro lado, la diversidad de enjambres de NPARCSSA convergió suavemente hasta el punto mínimo de manera similar a SSA. Es posible que, al igual que SSA para la función Shekel, ocurra una situación similar cuando NPARCSSA trata con funciones más complejas, pero es solo porque NPARCSSA retiene actualizaciones caóticas de enjambre inicial y posición caótica, es decir, no puede encontrar sus deficiencias cuando el tipo La función que se está optimizando es limitada. Por el contrario, existe una tendencia clara en la diversidad de enjambres para CSSA cuando el enjambre inicial, la ubicación de la transgresión y los parámetros aleatorios se modifican mediante mapas caóticos. En resumen, cada mejora integrada en CSSA tiene su propio mérito y es indispensable para la diversidad del enjambre y evitar caer en óptimos locales.

Curvas de diversidad de enjambres.

De la Fig. 9, CSSA tiene la capacidad de alta exploración y baja explotación, para explorar inicialmente el espacio de la solución de manera integral y, a medida que aumenta la iteración, la capacidad de exploración del algoritmo disminuye gradualmente mientras que la capacidad de explotación aumenta, para converger a la solución óptima global más rápidamente. Como puede verse, la capacidad de exploración de todos los algoritmos excepto CSSA en la fase inicial de las cinco funciones de referencia disminuye drásticamente mientras que la capacidad de explotación aumenta considerablemente. Por el contrario, CSSA puede mantener una compensación decente al preservar una alta capacidad de exploración en la etapa inicial y una capacidad de explotación posterior, lo que permite que el algoritmo explore el espacio de la solución más completamente y busque regiones factibles para encontrar la solución óptima global.

Curvas de compensación exploración-explotación.

En general, las Figs. 8 y 9 muestran que: (i) NPOSCSSA tiene un rendimiento similar al SSA pero tiene la capacidad de evitar óptimos locales, como se muestra en los resultados de las pruebas de las funciones Ackley y Shekel; (ii) NINICSSA tiene riesgo de convergencia prematura pero su tendencia de convergencia es fluctuante; (iii) NPARCSSA tiene una tendencia de convergencia suave como SSA, lo que conlleva el riesgo de que el algoritmo caiga en un óptimo local cuando se trata de problemas más complejos; y (iv) CSSA conserva las ventajas anteriores al tiempo que evita las deficiencias, lo que permite que el algoritmo muestre los mejores resultados en términos de diversidad de enjambres y el equilibrio entre las capacidades de exploración y explotación.

La Tabla 19 compara CSSA con otros algoritmos en la literatura, incluida la dinámica de poblaciones evolutiva híbrida y GOA (BGOA-EPD-Tour)80, el algoritmo de búsqueda gravitacional híbrido (HGSA)81, HHO mejorado (IHHO)82, un optimizador de equilibrio cuántico autoadaptativo. con ABC (SQEOABC)83, algoritmo de optimización de coyote binario (BCOA)84, optimizador de búsqueda de grupos binarios caóticos (CGSO5)85 y algoritmo de depredador marino integrado de caos (CMPA)86.

Para verificar si CSSA tiene una ventaja competitiva sobre algoritmos similares, se eligen dos algoritmos caóticos propuestos recientemente, es decir, CGSO5 y CMPA, entre los algoritmos comparados. De la Tabla 19, \(Mean_{Acc}\) de CSSA es mayor que la de CGSO5 y CMPA en todos los conjuntos de datos, excepto en el conjunto de datos CongressEW donde es inferior a CMPA. Además, los resultados de la comparación con otros algoritmos no caóticos también muestran que CSSA tiene ventajas sobresalientes. En resumen, una comparación con los trabajos de la literatura de FS demuestra la utilidad y superioridad de CSSA sobre otros métodos de última generación.

Para verificar la escalabilidad y solidez de CSSA para abordar problemas de FS, probamos además tres conjuntos de datos de microarrays de alta dimensión que tienen hasta 12000 características, a saber, 11_Tumors, Brain_Tumor2 y Leukemia2. Todos tienen un tamaño de característica alto y un tamaño de muestra bajo, como se informa en la Tabla 21. Dado que los datos de alta dimensión pueden causar una sobrecarga de tiempo significativa, preferimos usar las configuraciones experimentales en la Tabla 20. Las Tablas 22, 23, 24 y 25 muestran los resultados experimentales en términos de \(Mean_{Fit}\), \(Mean_{Acc}\), \(Mean_{Feat}\) y \(Mean_{Time}\), respectivamente. Es evidente que CSSA tiene ventajas sobresalientes sobre otros algoritmos en términos de \(Mean_{Fit}\) y \(Mean_{Acc}\), pero su rendimiento en términos de \(Mean_{Feat}\) es relativamente pobre. lo cual puede justificarse por la alta \(Mean_{Acc}\) obtenida. Por otro lado, todos los algoritmos tienen una enorme sobrecarga en términos de \(Mean_{Time}\), que normalmente es causada por las limitaciones de los propios métodos basados ​​en contenedores. Esto se puede mejorar combinando otros métodos (por ejemplo, métodos basados ​​en filtros).

Para hacer frente a los problemas encontrados en el SSA estándar, como la pérdida temprana de la diversidad de enjambres y, por lo tanto, caer fácilmente en óptimos locales, este estudio integra mapas caóticos en el SSA para producir CSSA. La eficacia de CSSA ha sido demostrada a través de muchos estudios comparativos y analíticos. El objetivo principal de esta sección es brindar un breve resumen de las fortalezas y debilidades de CSSA.

CSSA tiene las siguientes ventajas:

En este trabajo se investiga completamente el efecto de mejora de diez mapas caóticos en SSA y, por lo tanto, se examina el grado de contribución de diversos mapas caóticos desde una perspectiva global. El mejor CSSA determinado de esta manera puede evitar la unilateralidad de un único mapa caótico y servir como referencia para investigaciones posteriores.

CSSA mejora el rendimiento de SSA al tiempo que reduce su costo computacional. En la Tabla 7, se puede ver que CSSA mejora significativamente el rendimiento del algoritmo en términos de \(Mean_{Fit}\), \(Mean_{Acc}\), \(Mean_{Feat}\) y \( Mean_{Time}\) sin aumentar mucho el coste computacional.

Las tablas 9, 10, 11 y 12 describen en detalle los resultados de CSSA en comparación con doce algoritmos bien conocidos en términos de \(Mean_{Fit}\), \(Mean_{Acc}\), \(Mean_{Feat} \), y \(Mean_{Time}\). Las Figuras 3, 4 y 5 visualizan la precisión de la clasificación y el rendimiento de la tasa de reducción de características de todos los competidores. Se puede ver que CSSA reduce efectivamente la \(Mean_{Feat}\) (0.4399) mientras logra la \(Mean_{Acc}\) más alta (0.9216). Además, la capacidad de CSSA para manejar datos verdaderamente de alta dimensión se ha demostrado mediante experimentos en tres conjuntos de datos de microarrays con hasta 12000 características.

Además, siete métodos propuestos recientemente seleccionados de la literatura se comparan con CSSA, y el estudio comparativo muestra que nuestro método propuesto no solo supera a otros algoritmos no caóticos sino que también tiene ventajas sobresalientes entre los caóticos similares.

Además, CSSA tiene sus propias limitaciones:

La Tabla 12 demuestra que CSSA no es óptimo en términos de \(Mean_{Time}\), lo que puede deberse al hecho de que SSA se desarrolló originalmente para un espacio de búsqueda continua. Aunque la función en forma de V en la Ec. (7) permite a CSSA abordar problemas discretos, su esencia aún está evolucionando a través de un enfoque continuo. Como resultado, para mejorar el rendimiento general y reducir los costos computacionales, se puede diseñar una variante SSA más eficiente para problemas discretos.

Es vital tener en cuenta que CSSA no puede minimizar con éxito la \(Mean_{Feat}\) cuando se trata de datos de dimensiones extremadamente altas. La Tabla 24 demuestra que CSSA selecciona más de 5000 características (una reducción de casi el 50%) en los tres conjuntos de datos, lo que indica que el algoritmo no puede reducir con éxito el tamaño de las características seleccionadas y no es propicio para el análisis y la extracción de características valiosas. Este problema se puede superar combinando filtros (que se utilizan para reducir y seleccionar funciones de alta calidad) y contenedores (que se utilizan para mejorar el rendimiento del algoritmo). CSSA, por otro lado, logra \(Mean_{Fit}\) y \(Mean_{Acc}\) superiores superiores, como se ve en las Tablas 22 y 23, respectivamente.

En este artículo, se sugiere y utiliza un nuevo algoritmo de búsqueda de gorriones caóticos (CSSA) para problemas de FS. La mayor parte de la literatura se centra en la influencia de un único mapa caótico en un algoritmo. En este estudio se investigan exhaustivamente diez mapas caóticos. Según nuestros hallazgos, CSSA con mapas caóticos de Chebyshev y Circle integrados ofrece los mejores resultados entre los esquemas evaluados al hacer un buen equilibrio entre exploración y explotación en CSSA. CSSA ofrece una ventaja competitiva en la optimización global y el tratamiento de problemas de FS en comparación con doce algoritmos de última generación, incluidos LSHADE y CMAES, y siete enfoques relevantes propuestos recientemente en la literatura, según una investigación comparativa. Además, un análisis estadístico post-hoc confirma la importancia de CSSA en la mayoría de los conjuntos de datos UCI y conjuntos de datos de microarrays de alta dimensión, lo que demuestra que CSSA tiene una capacidad excepcional para seleccionar características favorables y al mismo tiempo lograr una alta precisión de clasificación.

Sin embargo, cuando se trata de conjuntos de datos de alta dimensión, el costo de tiempo de CSSA no es satisfactorio en comparación con sus contemporáneos y la tasa de selección de características no se reduce con éxito. Para abordar estas preocupaciones, proponemos integrar los filtros y contenedores en trabajos futuros, para aprovechar sus respectivos beneficios en la construcción de una nueva versión binaria de SSA que sea más adecuada para problemas de FS de alta dimensión.

Los conjuntos de datos generados y/o analizados durante el estudio actual están disponibles del autor correspondiente a solicitud razonable.

Raja, JB & Pandian, SC Modelo de minería de datos basado en Pso-fcm para predecir la enfermedad diabética. Computadora. Métodos Progr. Biomédica. 196, 105659 (2020).

Artículo de Google Scholar

Dhiman, G. & Kumar, V. Algoritmo de optimización Seagull: teoría y sus aplicaciones para problemas de ingeniería industrial a gran escala. Conocimiento. Sistema. 165, 169-196 (2019).

Artículo de Google Scholar

Singh, P. y Dhiman, G. Representación de la incertidumbre mediante un enfoque de entropía difusa: aplicación especial en imágenes satelitales de alta resolución detectadas remotamente (rshrsis). Aplica. Computación suave. 72, 121-139 (2018).

Artículo de Google Scholar

Zhao, L. & Dong, X. Un método de selección de características del Internet industrial de las cosas basado en criterios de evaluación de entropía potencial. Acceso IEEE 6, 4608–4617 (2018).

Artículo de Google Scholar

Habib, M., Aljarah, I., Faris, H. y Mirjalili, S. Optimización de enjambres de partículas multiobjetivo: teoría, revisión de la literatura y aplicación en la selección de funciones para el diagnóstico médico. Evolución. Mach. Aprender. Tecnología. 58, 175-201 (2020).

Google Académico

Abdel-Basset, M., Ding, W. y El-Shahat, D. Un algoritmo de optimización híbrido de Harris Hawks con recocido simulado para la selección de características. Artif. Intel. Rev. 54, 593–637 (2021).

Artículo de Google Scholar

Song, X.-F., Zhang, Y., Gong, D.-W. y Gao, X.-Z. Una rápida selección de características híbridas basada en agrupamiento guiado por correlación y optimización de enjambre de partículas para datos de alta dimensión. Traducción IEEE. Cibern. 52(9), 9573–9586 (2021).

Artículo de Google Scholar

Abdelkader, HE, Gad, AG, Abohany, AA & Sorour, SE Una técnica eficiente de extracción de datos para evaluar el nivel de satisfacción con el aprendizaje en línea para estudiantes de educación superior durante el covid-19. Acceso IEEE 10, 6286–6303 (2022).

Artículo de Google Scholar

Blum, AL y Langley, P. Selección de características y ejemplos relevantes en el aprendizaje automático. Artif. Intel. 97, 245–271 (1997).

Artículo MathSciNet MATEMÁTICAS Google Scholar

Xu, J., Tang, B., He, H. & Man, H. Selección de características semisupervisada basada en criterios de relevancia y redundancia. Traducción IEEE. Red neuronal. Aprender. Sistema. 28, 1974-1984 (2016).

Artículo MathSciNet PubMed Google Scholar

Liu, H., Motoda, H. & Yu, L. Un enfoque de muestreo selectivo para la selección activa de funciones. Artif. Intel. 159, 49–74 (2004).

Artículo MathSciNet MATEMÁTICAS Google Scholar

Chandrashekar, G. & Sahin, F. Una encuesta sobre métodos de selección de funciones. Computadora. eléctrico. Ing. 40, 16-28 (2014).

Artículo de Google Scholar

Li, A.-D., Xue, B. y Zhang, M. Optimización mejorada del enjambre de partículas binarias para la selección de funciones con nuevas estrategias de inicialización y reducción del espacio de búsqueda. Aplica. Computación suave. 106, 107302 (2021).

Artículo de Google Scholar

Lazar, C. y col. Una encuesta sobre técnicas de filtro para la selección de características en el análisis de microarrays de expresión genética. Trans. IEEE/ACM. Computadora. Biol. Bioinf. 9, 1106-1119 (2012).

Artículo de Google Scholar

Li, Z. Un algoritmo de optimización de lobo gris de seno dorado de aprendizaje de oposición local para la selección de características en la clasificación de datos SSRN. Aplica. Computación suave. 142, 110319 (2022).

Artículo de Google Scholar

Dhiman, G. y col. Bepo: un novedoso optimizador binario del pingüino emperador para la selección automática de funciones. Conocimiento. Sistema. 211, 106560 (2021).

Artículo de Google Scholar

Song, X.-F., Zhang, Y., Gong, D.-W. & Sol, X.-Y. Selección de funciones mediante optimización básica de enjambre de partículas con información mutua. Reconocimiento de patrones. 112, 107804 (2021).

Artículo de Google Scholar

Dokeroglu, T., Deniz, A. y Kiziloz, HE Un estudio completo sobre metaheurísticas recientes para la selección de características. Neurocomputación 548, 963–569 (2022).

Google Académico

Bonabeau, E. & Meyer, C. Inteligencia de enjambre: una forma completamente nueva de pensar en los negocios. Harv. Autobús. Rev. 79, 106–115 (2001).

CAS Google Académico

Dorigo, M., Birattari, M. & Stutzle, T. Optimización de colonias de hormigas. Computación IEEE. Intel. revista 1, 28–39 (2006).

Artículo de Google Scholar

Eberhart, R. & Kennedy, J. Un nuevo optimizador que utiliza la teoría del enjambre de partículas. En MHS'95. Actas del sexto simposio internacional sobre micromáquinas y ciencias humanas, 39–43 (IEEE, 1995).

Mirjalili, S., Mirjalili, SM & Lewis, A. El optimizador del lobo gris. Adv. Ing. Software. Rev. 69, 46–61 (2014).

Artículo de Google Scholar

Karaboga, D. y col. Una idea basada en un enjambre de abejas para la optimización numérica. Tecnología. Rep., Informe técnico-tr06, Universidad Erciyes. Facultad de ingeniería, informática\(\ldots \)(2005).

Mirjalili, S. & Lewis, A. El algoritmo de optimización de ballenas. Adv. Ing. Software. Rev. 95, 51–67 (2016).

Artículo de Google Scholar

Saremi, S., Mirjalili, S. & Lewis, A. Algoritmo de optimización de Grasshopper: teoría y aplicación. Adv. Ing. Software. 105, 30–47 (2017).

Artículo de Google Scholar

Heidari, AA y cols. Optimización de Harris Hawks: algoritmo y aplicaciones. Futuro. Genero. Computadora. Sistema. 97, 849–872 (2019).

Artículo de Google Scholar

Meng, X.-B., Gao, X. Z., Lu, L., Liu, Y. y Zhang, H. Un nuevo algoritmo de optimización bioinspirado: algoritmo de enjambre de aves. J. Exp. Teor. Artif. Intel. 28, 673–687 (2016).

Artículo de Google Scholar

Yang, X.-S. Un nuevo algoritmo metaheurístico inspirado en los murciélagos. Estrategias cooperativas para la optimización inspiradas en la naturaleza (NICSO 2010) 65–74 (2010).

Zhao, W., Wang, L. & Zhang, Z. Optimización de búsqueda atómica y su aplicación para resolver un problema de estimación de parámetros hidrogeológicos. Conocimiento. Sistema. 163, 283–304 (2019).

Artículo de Google Scholar

Hashim, FA, Houssein, EH, Mabrouk, MS, Al-Atabany, W. y Mirjalili, S. Optimización de la solubilidad del gas de Henry: un algoritmo novedoso basado en la física. Futuro. Genero. Computadora. Sistema. 101, 646–667 (2019).

Artículo de Google Scholar

Abd El-Mageed, AA, Gad, AG, Sallam, KM, Munasinghe, K. & Abohany, AA Reducción de dimensionalidad basada en algoritmo de optimización binaria adaptativa impulsada por el viento mejorada para clasificación supervisada. Computadora. Industria. Ing. 167, 107904 (2022).

Artículo de Google Scholar

Tarkhaneh, O., Nguyen, TT y Mazaheri, S. Un novedoso método de selección de subconjuntos de características basado en contenedores que utiliza un algoritmo de evolución diferencial binaria modificado. inf. Ciencia. 565, 278–305 (2021).

Artículo MathSciNet Google Scholar

Hammouri, AI, Mafarja, M., Al-Betar, MA, Awadallah, MA y Abu-Doush, I. Un algoritmo de libélula mejorado para la selección de funciones. Conocimiento. Sistema. 203, 106131 (2020).

Artículo de Google Scholar

Nguyen, BH, Xue, B. & Zhang, M. Una encuesta sobre enfoques de inteligencia de enjambre para la selección de funciones en la minería de datos. Evolución del enjambre. Computadora. 54, 100663 (2020).

Artículo de Google Scholar

Hussain, K., Neggaz, N., Zhu, W. y Houssein, EH Una eficiente optimización híbrida de seno-coseno de Harris Hawk para la selección de características de baja y alta dimensión. Exp. Sistema. Aplica. 176, 114778 (2021).

Artículo de Google Scholar

Neggaz, N., Houssein, EH y Hussain, K. Una optimización eficiente de la solubilidad del gas Henry para la selección de características. Exp. Sistema. Aplica. 152, 113364 (2020).

Artículo de Google Scholar

Yang, X.-S. Análisis de eficiencia de técnicas de inteligencia de enjambre y aleatorización. J. Computación. Teor. Nanociencia. 9, 189-198 (2012).

Artículo CAS Google Scholar

Pardalos, PM & Rebennack, S. Algoritmos experimentales: décimo simposio internacional, SEA 2011, Kolimpari, Chania, Creta, Grecia, 5 al 7 de mayo de 2011, Actas, vol. 6630 (Springer, 2011).

Tubishat, M. y col. Algoritmo dinámico de enjambre de salpas para la selección de características. Exp. Sistema. Aplica. 164, 113873 (2021).

Artículo de Google Scholar

Mirjalili, S. & Gandomi, AH Constantes gravitacionales caóticas para el algoritmo de búsqueda gravitacional. Aplica. Computación suave. 53, 407–419 (2017).

Artículo de Google Scholar

Khosravi, H., Amiri, B., Yazdanjue, N. y Babaiyan, V. Un algoritmo mejorado de optimización de la enseñanza grupal basado en búsqueda local y mapa caótico para la selección de características en datos de alta dimensión. Exp. Sistema. Aplica. 117493 (2022).

Zhang, X. y col. Optimización y selección de características construidas por moscas de la fruta caóticas mutacionales gaussianas. Exp. Sistema. Aplica. 141, 112976 (2020).

Artículo de Google Scholar

Sayed, GI, Hassanien, AE y Azar, AT Selección de funciones mediante un novedoso algoritmo caótico de búsqueda de cuervos. Computación neuronal. Aplica. 31, 171–188 (2019).

Artículo de Google Scholar

Varol Altay, E. & Alatas, B. Algoritmos de enjambre de aves con mapeo caótico. Artif. Intel. Rev. 53, 1373-1414 (2020).

Artículo de Google Scholar

Xue, J. y Shen, B. Un novedoso enfoque de optimización de la inteligencia de enjambre: algoritmo de búsqueda de gorriones. Sistema. Ciencia. Ing. de Control. 8, 22-34 (2020).

Artículo de Google Scholar

Awadallah, MA, Al-Betar, MA, Doush, IA, Makhadmeh, SN y Al-Naymat, G. Versiones recientes y aplicaciones del algoritmo de búsqueda de gorriones. Arco. Computadora. Métodos Ing. 456, 1–28 (2023).

Google Académico

Zhang, C. & Ding, S. Una red de configuración estocástica basada en un algoritmo de búsqueda de gorriones caóticos. Conocimiento. Sistema. 220, 106924 (2021).

Artículo de Google Scholar

Liu, G., Shu, C., Liang, Z., Peng, B. y Cheng, L. Un algoritmo de búsqueda de gorriones modificado con aplicación en la planificación de rutas 3D para uav. Sensores 21, 1224 (2021).

Artículo ADS CAS PubMed PubMed Central Google Scholar

Wang, P., Zhang, Y. & Yang, H. Investigación sobre la optimización económica de un clúster de microrredes basada en el algoritmo de búsqueda del gorrión del caos. Computadora. Intel. Neurociencias. 2021, 369–421 (2021).

Google Académico

Zhang, Z. & Han, Y. Algoritmo de búsqueda de gorriones discretos para el problema del viajante simétrico. Aplica. Computación suave. 118, 108469 (2022).

Artículo de Google Scholar

Zhu, Y. & Yousefi, N. Identificación óptima de parámetros de pilas de pemfc utilizando un algoritmo de búsqueda adaptativo de gorriones. En t. J. Energía de hidrógeno 46, 9541–9552 (2021).

Artículo CAS Google Scholar

Gao, B., Shen, W., Guan, H., Zheng, L. y Zhang, W. Investigación sobre el algoritmo evolutivo mejorado de búsqueda de gorriones multiestrategia y su aplicación. Acceso IEEE 10, 62520–62534 (2022).

Artículo de Google Scholar

Xue, J., Shen, B. y Pan, A. Un algoritmo de búsqueda de gorriones intensificado para resolver problemas de optimización. J. Inteligencia ambiental. Tararear. Computadora. 54, 1-17 (2022).

Google Académico

Gad, AG, Sallam, KM, Chakrabortty, RK, Ryan, MJ y Abohany, AA Un algoritmo de búsqueda binaria mejorado de gorriones para la selección de características en la clasificación de datos. Computación neuronal. Aplica. 486, 1–49 (2022).

Google Académico

Xin, L., Xiaodong, M., Jun, Z. & Zhen, W. Algoritmo de optimización de búsqueda de Chaos Sparrow. Universidad J. de Beijing. Aeronauta. Astronauta. 47, 1712-1720 (2021).

Google Académico

Yang, X. y col. Un novedoso algoritmo adaptativo de búsqueda de gorriones basado en mapeo caótico y mutación de distribución t. Aplica. Ciencia. 11, 11192 (2021).

Artículo CAS Google Scholar

Wang, X., Hu, H., Liang, Y. y Zhou, L. Sobre los modelos matemáticos y aplicaciones de algoritmos de optimización inteligente de enjambre. Arco. Computadora. Métodos Ing. 4123, 1–28 (2022).

MathSciNetGoogle Académico

Tanabe, R. & Fukunaga, AS Mejora del rendimiento de la búsqueda de sombra mediante la reducción lineal del tamaño de la población. En el congreso del IEEE de 2014 sobre computación evolutiva (CEC), 1658-1665 (IEEE, 2014).

Hansen, N., Müller, SD y Koumoutsakos, P. Reducción de la complejidad temporal de la estrategia de evolución desaleatorizada con adaptación de matriz de covarianza (cma-es). Evolución. Computadora. 11, 1-18 (2003).

Artículo PubMed Google Scholar

Tavazoei, MS & Haeri, M. Comparación de diferentes mapas unidimensionales como patrón de búsqueda caótica en algoritmos de optimización del caos. Aplica. Matemáticas. Computadora. 187, 1076–1085 (2007).

MathSciNet MATEMÁTICAS Google Scholar

Matplotlib. https://matplotlib.org/3.5.2/index.html.

Pitón. https://www.python.org/downloads/release/python-3912/.

Naskar, A., Pramanik, R., Hossain, SS, Mirjalili, S. y Sarkar, R. La escalada de aceptación tardía ayudó a la búsqueda de armonía caótica para la selección de características: un análisis empírico de datos médicos. Exp. Sistema. Aplica. 221, 119745 (2023).

Artículo de Google Scholar

Caponetto, R., Fortuna, L., Fazzino, S. & Xibilia, MG Secuencias caóticas para mejorar el rendimiento de algoritmos evolutivos. Traducción IEEE. Evolución. Computadora. 7, 289–304 (2003).

Artículo de Google Scholar

Sadeghian, Z., Akbari, E. y Nematzadeh, H. Un método de selección de características híbrido basado en la teoría de la información y el algoritmo de optimización de mariposa binaria. Ing. Aplica. Artif. Intel. 97, 104079 (2021).

Artículo de Google Scholar

Sayed, GI, Khoriba, G. & Haggag, MH Un novedoso algoritmo optimizador de equilibrio caótico con funciones de transferencia en forma de S y V para la selección de funciones. J. Inteligencia ambiental. Tararear. Computadora. 741, 1–26 (2022).

Google Académico

Mirjalili, S. & Lewis, A. Funciones de transferencia en forma de S versus funciones en forma de V para la optimización de enjambres de partículas binarias. Evolución del enjambre. Computadora. 9, 1-14 (2013).

Artículo de Google Scholar

Mafarja, M. et al. Enfoques del algoritmo de optimización de saltamontes binarios para problemas de selección de características. Exp. Sistema. Aplica. 117, 267–286 (2019).

Artículo de Google Scholar

Saremi, S., Mirjalili, S. & Lewis, A. Optimización basada en biogeografía con caos. Computación neuronal. Aplica. 25, 1077–1097 (2014).

Artículo de Google Scholar

Yang, X.-S. Algoritmos de optimización inspirados en la naturaleza (Academic Press, 2020).

Gao, Y., Zhou, Y. & Luo, Q. Un algoritmo optimizador de equilibrio binario eficiente para la selección de funciones. Acceso IEEE 8, 140936–140963 (2020).

Artículo de Google Scholar

Frank, A. Repositorio de aprendizaje automático de Uci. https://archive.ics.uci.edu/ml (2010).

Mafarja, M. & Mirjalili, S. Enfoques de optimización de ballenas para la selección de funciones de contenedor. Aplica. Computación suave. 62, 441–453 (2018).

Artículo de Google Scholar

Demšar, J. Comparaciones estadísticas de clasificadores en múltiples conjuntos de datos. J. Mach. Aprender. Res. 7, 1–30 (2006).

MathSciNet MATEMÁTICAS Google Scholar

Fister, I., Brest, J., Iglesias, A., Galvez, A. & Deb, S. Sobre la selección de un punto de referencia mediante la determinación de las cualidades de los algoritmos. Acceso IEEE 9, 51166–51178 (2021).

Artículo de Google Scholar

Carrasco, J., García, S., Rueda, M., Das, S. & Herrera, F. Tendencias recientes en el uso de pruebas estadísticas para comparar algoritmos de computación evolutiva y de enjambre: pautas prácticas y una revisión crítica. Evolución del enjambre. Computadora. 54, 100665 (2020).

Artículo de Google Scholar

Friedman, M. Una comparación de pruebas de significancia alternativas para el problema de las clasificaciones m. Ana. Matemáticas. Estadística. 11, 86–92 (1940).

Artículo MathSciNet MATEMÁTICAS Google Scholar

Iman, RL & Davenport, JM Aproximaciones de la región crítica de la estadística fbietkan. Comunitario. Estadística. Métodos teóricos 9, 571–595 (1980).

Artículo MATEMÁTICAS Google Scholar

Olorunda, O. & Engelbrecht, AP Medición de la exploración/explotación en enjambres de partículas utilizando la diversidad de enjambres. En el congreso IEEE de 2008 sobre computación evolutiva (congreso mundial IEEE sobre inteligencia computacional), 1128-1134 (IEEE, 2008).

Mafarja, M. et al. Dinámica evolutiva de poblaciones y enfoques de optimización de saltamontes para problemas de selección de características. Conocimiento. Sistema. 145, 25–45 (2018).

Artículo de Google Scholar

Taradeh, M. y col. Una selección de características evolutiva basada en búsqueda gravitacional. inf. Ciencia. 497, 219–239 (2019).

Artículo de Google Scholar

Zhong, C., Li, G., Meng, Z., Li, H. & He, W. Un optimizador de equilibrio cuántico autoadaptativo con colonia de abejas artificial para la selección de características. Computadora. Biol. Medicina. 528, 106520 (2023).

Artículo de Google Scholar

Alzaqebah, A., Al-Kadi, O. y Aljarah, I. Un optimizador de Harris Hawk mejorado basado en una máquina de aprendizaje extremo para la selección de funciones. Progr. Artif. Intel. 638, 1–21 (2023).

Google Académico

de Souza, RCT, de Macedo, CA, dos Santos Coelho, L., Pierezan, J. & Mariani, VC Algoritmo de optimización de coyote binario para la selección de funciones. Reconocimiento de patrones. 107, 107470 (2020).

Artículo de Google Scholar

Abualigah, L. & Diabat, A. Optimizador de búsqueda de grupos binarios caóticos para la selección de funciones. Exp. Sistema. Aplica. 192, 116368 (2022).

Artículo de Google Scholar

Alrasheedi, AF, Alnowibet, KA, Saxena, A., Sallam, KM & Mohamed, AW Chaos incorpora el algoritmo de depredador marino (CMPA) para la selección de características. Matemáticas 10, 1411 (2022).

Artículo de Google Scholar

Pitón. https://www.python.org/downloads/release/python-397/.

Descargar referencias

Esta investigación fue apoyada por el Centro de Computación de Alto Rendimiento de la Universidad de Arquitectura de Hebei, Zhangjiakou, China. Les agradeceríamos las instalaciones instrumentales necesarias y el apoyo con experimentos de datos de alta dimensión.

Este trabajo fue apoyado en parte por el Proyecto de Ciencia y Tecnología del Departamento de Educación de Hebei bajo la subvención No. ZD2021040.

Departamento de Matemáticas y Física, Universidad de Arquitectura de Hebei, Zhangjiakou, 075000, China

LiYun Jia y Tao Wang

Facultad de Computación e Información, Universidad Kafrelsheikh, Kafrelsheikh, 33516, Egipto

Ahmed G. Gad

Facultad de Computación y Tecnología de la Información, Academia Árabe de Ciencia, Tecnología y Transporte Marítimo (AASTMT), El Cairo, Egipto

Ahmed Salem

También puedes buscar este autor en PubMed Google Scholar.

También puedes buscar este autor en PubMed Google Scholar.

También puedes buscar este autor en PubMed Google Scholar.

También puedes buscar este autor en PubMed Google Scholar.

TW y AGG concibieron el estudio, implementaron el modelo y analizaron e interpretaron los resultados. TW escribió el texto principal del manuscrito. LJ, AS y AGG revisaron y revisaron el manuscrito. LJ brindó apoyo financiero. Todos los autores aprovaron el manuscrito final.

Correspondencia a Ahmed G. Gad.

Los autores declaran no tener conflictos de intereses.

Springer Nature se mantiene neutral con respecto a reclamos jurisdiccionales en mapas publicados y afiliaciones institucionales.

Acceso Abierto Este artículo está bajo una Licencia Internacional Creative Commons Attribution 4.0, que permite el uso, compartir, adaptación, distribución y reproducción en cualquier medio o formato, siempre y cuando se dé el crédito apropiado al autor(es) original(es) y a la fuente. proporcione un enlace a la licencia Creative Commons e indique si se realizaron cambios. Las imágenes u otro material de terceros en este artículo están incluidos en la licencia Creative Commons del artículo, a menos que se indique lo contrario en una línea de crédito al material. Si el material no está incluido en la licencia Creative Commons del artículo y su uso previsto no está permitido por la normativa legal o excede el uso permitido, deberá obtener permiso directamente del titular de los derechos de autor. Para ver una copia de esta licencia, visite http://creativecommons.org/licenses/by/4.0/.

Reimpresiones y permisos

Jia, L., Wang, T., Gad, AG et al. Un algoritmo de búsqueda de gorriones caóticos de suma ponderada para la selección interdisciplinaria de características y clasificación de datos. Representante científico 13, 14061 (2023). https://doi.org/10.1038/s41598-023-38252-0

Descargar cita

Recibido: 25 de febrero de 2023

Aceptado: 05 de julio de 2023

Publicado: 28 de agosto de 2023

DOI: https://doi.org/10.1038/s41598-023-38252-0

Cualquier persona con la que comparta el siguiente enlace podrá leer este contenido:

Lo sentimos, actualmente no hay un enlace para compartir disponible para este artículo.

Proporcionado por la iniciativa de intercambio de contenidos Springer Nature SharedIt

Al enviar un comentario, acepta cumplir con nuestros Términos y pautas de la comunidad. Si encuentra algo abusivo o que no cumple con nuestros términos o pautas, márquelo como inapropiado.