Las MA son como las GA, pero los genomas individuales pueden mejorar in situ.
En una AG clásica, un individuo es una muestra estática única. Esas muestras se mezclan con el crossover y los resultados se alteran con mutaciones para que las próximas generaciones de muestras estáticas se prueben.
Con los AM, las muestras mismas pueden hacer un poco de escalada durante la vida del individuo.
- Cómo escribir un programa ruby para mostrar los números de Armstrong en una matriz (siendo la matriz; Números = [123,124,153,370,234,23,45]
- ¿Qué es el algoritmo para completar la etiqueta de inicio HTML faltante en Java?
- ¿Cómo funciona LSH, 'hashing local sensible', para calcular el valor de hash?
- ¿Es esta una función de clasificación de burbujas válida? Si es así, ¿entonces cómo?
- ¿Qué series matemáticas debo saber para calcular la complejidad de cualquier algoritmo o pseudocódigo?
Ejemplo: Imagine evolucionar una red neuronal para realizar alguna tarea, utilizando una estructura fija y codificando los pesos en el genoma de longitud fija. Un GA probaría las redes, quizás incluso permitiendo algo de aprendizaje, pero el genoma del individuo siempre sería el peso inicial. Con una MA, los pesos aprendidos se retroalimentan en el genoma antes de reproducirse.
No veo que las AM sean muy útiles, ni están inspiradas biológicamente. Requieren un mapeo inequívoco de genotipo-fenotipo 1 a 1, que es casi inútil excepto para tareas bastante triviales. El verdadero poder de los GA es cuando tienes un mapeo del desarrollo, lo que significa que las pequeñas mutaciones pueden tener un efecto pequeño o grande, al igual que en la biología.