Una introducción a los algoritmos meméticos

19
Inteligencia Artificial. Revista Iberoamericana de Inteligencia Artificial Asociación Española para la Inteligencia Artificial [email protected] ISSN (Versión impresa): 1137-3601 ISSN (Versión en línea): 1988-3064 ESPAÑA 2003 Pablo Moscato / Carlos Cotta UNA INTRODUCCIÓN A LOS ALGORITMOS MEMÉTICOS Inteligencia Artificial. Revista Iberoamericana de Inteligencia Artificial, año/vol. 7, número 019 Asociación Española para la Inteligencia Artificial Valencia, España Red de Revistas Científicas de América Latina y el Caribe, España y Portugal Universidad Autónoma del Estado de México http://redalyc.uaemex.mx

Transcript of Una introducción a los algoritmos meméticos

Inteligencia Artificial. Revista Iberoamericana de Inteligencia ArtificialAsociación Española para la Inteligencia [email protected] ISSN (Versión impresa): 1137-3601ISSN (Versión en línea): 1988-3064ESPAÑA

2003 Pablo Moscato / Carlos Cotta

UNA INTRODUCCIÓN A LOS ALGORITMOS MEMÉTICOS Inteligencia Artificial. Revista Iberoamericana de Inteligencia Artificial, año/vol. 7,

número 019 Asociación Española para la Inteligencia Artificial

Valencia, España

Red de Revistas Científicas de América Latina y el Caribe, España y Portugal

Universidad Autónoma del Estado de México

http://redalyc.uaemex.mx

Inteligencia Artificial, Revista Iberoamericana de Inteligencia Artificial. No.19 (2003),pp. 131-148 ISSN: 1137-3601. © AEPIA (http://www.aepia.org/revista).

An Introduction to Memetic Algorithms

Pablo Moscato (1), Carlos Cotta (2)

(1) School of Electrical Engineering and Computer Science University of Newcastle

Callaghan, NSW, 2308, Australia

(2) Departamento de Lenguajes y Ciencias de la Computación Universidad de Málaga

Campus de Teatinos, 29071 Málaga, Spain

e-mail: [email protected], [email protected] Memetic algorithms (MAs) are optimization techniques based on the synergistic combination of ideas taken from other metaheuristics, such as populational search (as in evolutionary techniques), and local search (as in gradient-ascent techniques). This work shows the general structure of MAs, and provides some guidelines for their design. Furthermore, an overview of the numerous applications of these techniques is presented. The paper finishes with an sketch of current trends in the development of the area.

Una Introduccion a los Algoritmos Memeticos

Pablo MoscatoSchool of Electrical Engineering and Computer Science,

University of Newcastle, Callaghan, NSW, 2308, [email protected]

Carlos CottaDepartamento de Lenguajes y Ciencias de la Computacion

Universidad de Malaga, Campus de Teatinos, 29071 - Malaga, [email protected]

Resumen

Los algoritmos memeticos (MA) son tecnicas de optimizacion que combinan sinergicamente conceptostomados de otras metaheurısticas, tales como la busqueda basada en poblaciones (como en los algoritmosevolutivos), y la mejora local (como en las tecnicas de seguimiento del gradiente). En este trabajo semuestra la anatomıa general de un MA, y se proporcionan pautas para el diseno de los mismos. Asimismo,se muestra una panoramica general del amplio abanico de aplicaciones que tienen estas tecnicas. Eltrabajo concluye bosquejando algunos de los aspectos de mayor interes actual en el desarrollo del area.

1. Introduccion

Los orıgenes de los algoritmos memeticos (MA)se remontan a finales de los anos ochenta a pe-sar de que algunos trabajos en decadas ante-riores tambien tienen similares caracterısticas.En aquella epoca, el campo de la computacionevolutiva estaba comenzando a afianzarse soli-damente, una vez que el choque conceptual quehabıa causado la introduccion de estas tecnicasal mundo de la optimizacion se iba atenuando.Otro tanto cabıa decir de tecnicas relacionadascomo podıan ser el recocido simulado (SA) o labusqueda tabu (TS). En general, estas tecnicashacıan uso de heurısticas subordinadas para ll-evar a cabo el proceso de optimizacion, motivopor el cual se acuno el termino ‘metaheurısticas’para denominarlas (vease el primer artıculo deesta monografıa).

Fue en este escenario en el que surgio la ideabasica que sustenta a los MA: combinar concep-tos y estrategias de diferentes metaheurısticas

para intentar aunar las ventajas de las mismas.La denominacion ‘memetico’ surge del terminoingles ‘meme’ , acunado por R. Dawkins comoel analogo del gen en el contexto de la evolucioncultural. La siguiente cita [36] (nuestra traduc-cion) ilustra el concepto:

“Ejemplos de ‘memes’ son melodıas,ideas, frases hechas, modas en la ves-timenta, formas de hacer vasijas, ode construir bovedas. Del mismo mo-do que los genes se propagan en elacervo genetico a traves de gametos,los ‘memes’ se propagan en el acervomemetico saltando de cerebro a cere-bro en un proceso que, en un am-plio sentido, puede denominarse im-itacion.”

Tras esta definicion tan provocadora subyace laidea central de los MA: mejoras individuales delas soluciones en cada uno de los agentes jun-to con procesos de cooperacion y competiciones

1

de tipo poblacional. En un claro caso de reso-nancia historica, los MA1 tuvieron los mismosdifıciles comienzos que los clasicos algoritmosevolutivos (EA) y como estos, han conseguidovencer las reticencias iniciales a su uso, hasta elpunto de haberse convertido hoy en dıa en unmodelo de optimizacion puntero, con infinidadde aplicaciones practicas. La Seccion 4 dara unabreve panoramica de las mismas. Previamente,se vera una definicion un tanto mas precisa deque es lo que se entiende por MA. Tal como semostrara en la Seccion 2 a traves de una planti-lla algorıtmica general, un MA puede ser vistocomo una estrategia de busqueda en la que unconjunto de agentes optimizadores cooperan ycompiten [99].

Tras presentar la plantilla algorıtmica ante-riormente mencionada, se procedera a discutircomo esta puede ser instanciada para abordarproblemas de optimizacion concretos. En estesentido, se vera como un MA intenta explotartodo el conocimiento que sobre dichos proble-mas de optimizacion se tenga. Esta filosofıa defuncionamiento esta muy en la lınea de lo que L.Davis defendıa ya a principios de los 90 [35], yque posteriormente vino a ser confirmado porresultados teoricos bien conocidos, como porejemplo el Teorema de “No Free Lunch” (NFL)de Wolpert y Macready [136].

Esta explotacion del conocimiento sensible quesobre el problema de optimizacion se tienepuede llevarse a cabo de diferentes formas, e.g.,usando heurısticas preexistentes, representacio-nes ad hoc, etc. Estos aspectos seran tratadosen la Seccion 3. Finalizaremos este trabajo conuna breve resena de algunas de las lıneas deinvestigacion mas interesantes que en la actua-lidad estan abiertas en el campo de los MA.

2. Anatomıa de un MA

Los MA combinan conceptos de diferentesmetaheurısticas tal como se adelanto anterior-mente. En particular, la relacion de estas tecni-cas con los EA resulta especialmente significati-va, al menos desde lo que se podrıa denominarun punto de vista sintactico. Esto es fundamen-

1Los terminos EA hıbrido, y EA Lamarckiano seusan tambien frecuentemente para referirse a estastecnicas

talmente debido a la naturaleza poblacional delos MA, y por este motivo comenzaremos la de-scripcion de estas tecnicas abordando los aspec-tos heredados de los EA.

Un MA mantiene en todo momento unapoblacion de diversas soluciones al problemaconsiderado. Llamaremos agente a cada unade las mismas. Esta denominacion es una ex-tension del termino individuo tan comunmenteempleado en el contexto de los EA, y permitecapturar elementos distintivos de los MA quese mostraran mas adelante (por ejemplo, unagente puede contener mas de una solucion alproblema considerado [6]). Estos agentes se in-terrelacionan entre sı en un marco de competi-cion y de cooperacion, de manera muy seme-jante a lo que ocurre en la Naturaleza entre losindividuos de una misma especie (los seres hu-manos, sin ir mas lejos). Cuando consideramosla poblacion de agentes en su conjunto, esta in-teraccion puede ser estructurada en una suce-sion de grandes pasos temporales denominadosgeneraciones. La Figura 1 muestra el esquemade una de estas generaciones.

PROC Paso-Generacional(↓↑ pob : Agente[ ], ↓ ops : Operador[ ])

Variablescriadores, nueva pob : Agente[ ];

Iniciocriadores ← Seleccionar(pob);nueva pob ← Reproducir(criadores, ops);pob ← Actualizar (pob, nueva pob)

Fin

Figura 1: Esquema de una generacion. En estafigura y en todas las posteriores, los parametrosde entrada y entrada/salida se marcan respec-tivamente con ↓ y ↓↑.

Tal como se muestra, cada generacion consisteen la actualizacion de la poblacion de agentes,usando para tal fin una nueva poblacion obteni-da mediante la recombinacion de las carac-terısticas de algunos agentes seleccionados. Pre-cisamente, este componente de seleccion es, jun-to con el paso final de actualizacion, el respon-sable de forzar la competicion entre agentes.Mas concretamente, la seleccion se encarga deelegir una muestra de los mejores agentes con-tenidos en la poblacion actual. Esto se realizamediante el empleo de una funcion guıa Fg en-cargada de cuantificar cuan bueno es cada unode los agentes en la resolucion del problema

FUNC Reproducir(↓ pob : Agente[ ], ↓ ops : Operador[ ]) →

→ Agente[ ]Variables

buf : Agente[ ][ ];j : N;

Iniciobuf [0] ← pob;PARA j ← 1:|ops| HACER

buf [j] ← Aplicar (ops[j], buf [j − 1]);FINPARA;DEVOLVER buf [|ops|]

Fin

Figura 2: Generacion de la nueva poblacion.

abordado. Por su parte, el reemplazo o actu-alizacion incide en el aspecto competitivo, en-cargandose de la importante tarea de limitarel tamano de la poblacion, esto es, eliminar al-gunos agentes para permitir la entrada de otrosnuevos y ası enfocar la tarea de busqueda. Eneste proceso tambien puede emplearse la infor-macion proporcionada por la funcion guıa paraseleccionar los agentes que se eliminaran.

Tanto la seleccion como el reemplazo son pro-cesos puramente competitivos en los que unica-mente varıa la distribucion de agentes existen-tes, esto es, no se crean nuevos agentes. Es-to es responsabilidad de la fase de reproduc-cion. Dicha reproduccion tiene lugar mediantela aplicacion de cierto numero de operadores re-productivos tal como se muestra en la Figu-ra 2. Como puede apreciarse, es posible em-plear un numero variado de operadores. Noobstante, lo mas tıpico es emplear unicamentedos operadores: recombinacion y mutacion. Elprimero es el responsable de llevar a cabo losprocesos de cooperacion entre agentes (usual-mente dos, aunque es posible considerar gruposmas grandes [41]). Dicha cooperacion tiene lu-gar mediante la construccion de nuevos agentesempleando informacion extraıda del grupo deagentes recombinados, y quizas alguna infor-macion externa (si bien esto ultimo suele seren ocasiones algo que se intenta evitar, e.g., ver[77]). Precisamente, la inclusion de informacionexterna no contenida en ninguno de los agentesinvolucrados es responsabilidad del operador demutacion. Basicamente, este tipo de operadorgenerara un nuevo agente mediante la modifi-cacion parcial de un agente existente.

PROC Optimizador-Local(↓↑ actual : Agente, ↓ op : Operador)

Variablesnuevo : Agente

InicioREPETIR

nuevo ← Aplicar (op, actual);SI (Fg(nuevo) ≺F Fg(actual)) ENTONCES

actual ← nuevo;FINSI

HASTA QUE Terminacion-Local();DEVOLVER actual;

Fin

Figura 3: Esquema de un optimizador local

En relacion con los operadores de mutacion, esposible definir un meta-operador basado en laaplicacion iterativa de un operador de mutacionarbitrario sobre un agente. El empleo de estosmetaoperadores es uno de los rasgos mas distin-tivos de los MA. Concretamente, dichos meta-operadores iteran la aplicacion del operador demutacion, conservando los cambios que llevana una mejora en la bondad del agente, moti-vo por el cual son denominados optimizadoreslocales. La Figura 3 ilustra el proceso. Comopuede verse, la iteracion en la aplicacion deloperador de mutacion y la subsiguiente conser-vacion de los cambios favorables se realiza hastaque se alcanza un cierto criterio de terminacion(un numero de iteraciones fijo, un cierto numerode iteraciones sin mejora, haber alcanzado unamejora suficiente, etc.).

Estos optimizadores locales pueden considerar-se como un operador mas, y como tales puedenemplearse en diferentes fases de la reproduc-cion. Por ejemplo, pueden usarse tras la apli-cacion de otros operadores “simples” de recom-binacion y mutacion, aplicarse solo a un sub-conjunto de los agentes o unicamente ser aplica-do al final del ciclo reproductivo. En cualquiercaso, es la existencia de estos optimizadores in-dividuales la que justifica el empleo de la de-nominacion ‘agente’ en la jerga de los MA:El algoritmo puede caracterizarse como unacoleccion de agentes que realizan exploracionesautonomas del espacio de busqueda, cooperan-do ocasionalmente a traves de la recombinacion,y compitiendo continuamente por los recursoscomputacionales a traves de la seleccion y elreemplazo 2.

2Como puede apreciarse, el empleo de optimizacion

Tras haber descrito el paso generacional basico,podemos ahora considerar una vision global deun MA basada en la iteracion de este procedi-miento, tal como se muestra en la Figura 4.

FUNC MA (↓ tamanoPob : N,↓ ops : Operador[ ]) → Agente

Variablespob : Agente[ ];

Iniciopob ← Iniciar-Poblacion(tamanoPob);REPETIR

pob ← Paso-Generacional (pob, ops)SI Convergencia(pob) ENTONCES

pob ← Reiniciar-Poblacion(pob);FINSI

HASTA QUE Terminacion-MA()DEVOLVER i-esimo-Mejor(pob, 1);

Fin

Figura 4: El esqueleto generico de un MA

La generacion de la poblacion inicial puedeacometerse de diferentes formas. Por ejemplo,pueden crearse |pob| agentes al azar, o emplearlas soluciones proporcionadas por heurısticasexistentes [76][126]. Una posibilidad mas sofisti-cada es el empleo de optimizadores locales paratal fin, tal como se ilustra en la Fig. 5:

FUNC Iniciar-Poblacion(↓ µ : N) → Agente[ ]

Variablespob : Agente[ ];agente : Agente;j : N;

InicioPARA j ← 1:µ HACER

agente ← Agente-Aleatorio();pob[j] ← Optimizador-Local (agente);

FINPARADEVOLVER pob

Fin

Figura 5: Generacion guiada de la poblacion ini-cial.

La funcion para la reiniciacion de la poblaciones otro de los componentes fundamentales delMA, ya que de el dependera que se haga un usoapropiado de los recursos computacionales delsistema, o por el contrario estos se malgasten

local es un elemento diferenciador de los MA, pero nies el unico, ni es imprescindible encontrarlo en la formadescrita. Debe pues evitarse caer en la falsa igualdadMA = EA+busqueda local.

en la explotacion de una poblacion de agentesque haya alcanzado un estado degenerado, e.g.,con una gran similitud entre todos los agentesde la poblacion. Esto es lo que se conoce co-mo convergencia del MA, y es algo que puedeser cuantificado empleando por ejemplo medi-das clasicas de Teorıa de la Informacion comola entropıa de Shannon [34]. Una vez se ha de-tectado la convergencia del MA (cuando la en-tropıa ha caıdo por debajo de un cierto valorlımite por ejemplo), la poblacion de agentes sereinicia, conservando una porcion de la misma,y generando nuevos agentes para completarla(Figura 6).

FUNC Reiniciar-Poblacion(↓ pob : Agente[ ])→ Agente[ ]

Variablesnueva pob : Agente[ ];j, cons : N;

Iniciocons ← |pob|·%CONSERVAR;PARA j ← 1:cons HACER

newpop[j] ← i-esimo-Mejor(pob, j);FINPARAPARA j ← (cons + 1) : |pob| HACER

nueva pob[j] ← Agente-Aleatorio();nueva pob[j] ←

← Optimizador-Local (nueva pob[j]);FINPARA;DEVOLVER nueva pob

Fin

Figura 6: Reiniciacion de la poblacion en unMA.

La funcion anterior completa la definicion fun-cional de un MA. A modo de resumen, la Tabla1 muestra una comparativa de los conceptos msrelevantes de los MA, y como estos difieren delmodelo mas clsico de los GA.

3. Tecnicas para el Disenode MA

Cuando se aborda el diseno de un MA efectivopara un cierto problema, hay que partir de labase de que no existe procedimiento sistematicopara tal fin, ya que de lo contrario se entrarıaen conflicto con resultados teoricos bien cono-cidos (e.g., el Teorema NFL). Ello implica queunicamente pueden considerarse heurısticas dediseno, que probablemente resultaran en un MA

Cuadro 1: Comparativa de algunos de los as-pectos mas distintivos de los GA y los MA.

GAcodificacion esquemas, cadenas lineales,

alfabetos predefinidosindividuo solucion al problemacruce intercambio no-guiado

de informacionmutacion introduccion aleatoria

de nueva informacionMA

representacion formas, no-linealidad,cercanıa al problema

agente solucion/ones al problema +mecanismo mejora local

recombinacion intercambio guiadode informacion

mutacion introduccion sensiblede nueva informacion

mejora local aprendizaje lamarckiano

efectivo, pero que obviamente no lo puedengarantizar.

El primer elemento que resulta imprescindibledeterminar es la representacion de las solu-ciones al problema. Por ejemplo, supongase quese esta intentando resolver una instancia delproblema del viajante de comercio (TSP). In-formalmente, las soluciones son rutas cerradasque visitan n ciudades solo una vez. La cuestionen este punto es que caracterısticas de estassoluciones manipularan los operadores repro-ductivos. Para empezar, es posible expresar lasrutas como una permutacion de las ciudades,y definir operadores que manipulen los valoresexistentes en posiciones especıficas de la per-mutacion. Esta serıa la representacion basadaen posiciones de las permutaciones [27][47]. Porotro lado, los operadores podrıan manipular in-formacion relativa a la adyacencia entre elemen-tos de las permutaciones. Dado que el TSP sedefine a partir de una matriz de distancia en-tre pares de ciudades, es intuitivo observar queeste ultimo enfoque serıa mas conveniente. Dehecho, puede comprobarse que esto es ası enla practica, y que operadores basados en adya-cencia [77] funcionan mejor sobre este proble-ma que otros basados en posiciones tales comoPMX [48] o CX [101].

El ejemplo anterior del TSP ilustra la necesi-dad de capturar de alguna manera cuantitativa

la relacion que existe entre una representacionde un problema y su bondad. A tal efecto, sehan definido diferentes criterios como los que acontinuacion se mencionan. Algunos de los mis-mos son generalizaciones de conceptos propiosde los GA, mientras que otros sı pueden ser masespecıficos del modelo MA:

Minimizacion de la epistasis: se habla deepistasis cuando los elementos basicos deinformacion a partir de los cuales se cons-truyen las soluciones (y que son manipula-dos por los operadores reproductivos) in-teractuan de manera no aditiva sobre lafuncion guıa [33]. La existencia de una in-teraccion de este tipo impide que se pue-da descomponer la funcion objetivo enterminos optimizables de manera indepen-diente3. Obviamente, cuanto menor sea es-ta interaccion no aditiva, mayor sera tam-bien la relevancia que en terminos abso-lutos tengan los elementos de informacionmanipulados por los operadores, y menospropensa sera la funcion guıa a extraviarla busqueda.

Minimizacion de la varianza de bondad[113]: La varianza en bondad de un cier-to elemento de informacion es la varianzaen los valores que devuelve la funcion guıa,medida sobre un conjunto representativode soluciones con dicho elemento de infor-macion. De manera similar a lo que ocurrıaen el criterio anterior, cuanto menor seaesta varianza mas significativos seran loselementos de informacion, y habra menos“ruido” en la funcion guıa.

Maximizacion de la correlacion de bondad :asumiendo un cierto operador reproducti-vo, se mide la correlacion existente entrela adecuacion de los agentes progenitores ylos agentes descendientes. Si la correlaciones alta, los agentes buenos tendran una des-cendencia buena por lo general. Dado quela fase de seleccion se encarga de elegir a losagentes de mayor adecuacion, la busque-da se ira desplazando gradualmente hacialas zonas mas prometedoras del espacio debusqueda.

3Este impedimento ha de entenderse en el sentido deque una optimizacion separada de los elementos basicosde informacion conducirıa a un optimo local de la fun-cion objetivo.

En cualquier caso, lo que resulta claro de ladiscusion anterior es que en ultimo extremo laseleccion de una representacion es algo que de-pende de los operadores empleados. Es pues laseleccion de operadores el problema de disenoque debe abordarse. En este sentido, existen dosvertientes: la seleccion de un operador de entreun conjunto de operadores preexistentes, o ladefinicion de nuevos operadores. En el primercaso, la lınea de actuacion podrıa ser la quesigue [27]:

1. Sea Ω = ω1, ω2, · · · , ωk el conjunto deoperadores disponibles. En primer lugarse identifica la representacion manipuladapor cada uno de ellos.

2. Usar cualquiera de los criterios anterior-mente mencionados para evaluar la bondadde cada representacion.

3. Seleccionar el operador ωi que manipule larepresentacion de mayor bondad.

Esto se denomina analisis inverso de operado-res, ya que en cierto sentido se realiza una cier-ta ingenierıa inversa para determinar el opera-dor/representacion mas ventajoso. La alterna-tiva es el analisis directo, en el que se disenannuevos operadores como sigue [27]:

1. Identificar varias representaciones para elproblema considerado.

2. Usar cualquiera de los criterios anterior-mente mencionados para evaluar la bondadde cada representacion.

3. Crear nuevos operadores Ω′ =ω′1, ω′2, · · · , ω′m a traves de la ma-nipulacion de los elementos de informacionmas relevantes.

El ultimo paso del analisis directo puede re-alizarse empleando para tal fin algunas plan-tillas genericas (independientes de los elemen-tos de informacion manipulados) disenadas atal fin, e.g., “random respectful recombina-tion” (R3), “Random Assorting Recombina-tion” (RAR), “Random Transmitting Recombi-nation” (RTR), etc. [112].

Tanto en el caso de seleccion de un opera-dor “clasico” como de creacion de un opera-

dor a partir de las plantillas genericas men-cionadas anteriormente, se estaran empleandotıpicamente operadores “ciegos”, que manipu-lan informacion relevante pero lo hacen sin us-ar informacion de la instancia del problemaque se pretende resolver. Obviamente resul-tarıa muy interesante ser capaces de introducirconocimiento adicional para poder guiar estamanipulacion. A los operadores reproductivosque usan este conocimiento del problema se lesdenomina heurısticos o hıbridos (hasta en cier-to caso se los tildo de memeticos), pudiendoconsiderarse dos ambitos principales en los queutilizar dicho conocimiento: la seleccion de lainformacion de los progenitores que se usara enla descendencia, y la seleccion de la informacionexterna que se empleara.

Con respecto a lo primero, la evidencia ex-perimental sugiere que la propiedad de respeto(transmision de caracterısticas comunes a todoslos progenitores) es beneficiosa (e.g., vease [28][77]). Tras esta transmision inicial de informa-cion, la descendencia puede completarse de dife-rentes maneras. Por ejemplo, Radcliffe y Surry[113] proponen el empleo de optimizadores lo-cales, o tecnicas de enumeracion implıcita. Enambos casos, el metodo elegido se aplicarıa paracompletar las soluciones empleando cuanta in-formacion externa fuera necesaria.

En el caso particular de utilizar tecnicas de enu-meracion ımplicita (por ejemplo, ramificaciony acotacion), el enfoque anterior puede sercomputacionalmente costoso. Una alternativaes el empleo de dicha tecnica de enumeracionimplıcita, restringida al conjunto de informa-cion contenida en los agentes progenitores. Esteenfoque se denomina recombinacion dinastica-mente optima [31] (DOR), y tiene la propiedadde ser monotono creciente en la bondad de lassoluciones generadas, i.e., cualquier descendien-te es al menos tan bueno como el mejor de susprogenitores.

El conocimiento del problema puede incluirsetambien en los operadores mediante el empleode heurısticas constructivas. Por ejemplo, EAX(Edge Assembly Crossover) [97] es un operadorespecializado para el TSP en el que se empleauna heurıstica voraz para la construccion de ladescendencia.

Las ideas expuestas en los parrafos anterioresson aplicables a los operadores de mutacion,

aunque con ciertas salvedades, ya que estosestan forzados a introducir nueva informacion.En general, notese que la solucion parcial a lacual se ha hecho mencion anteriormente puedeobtenerse mediante la eliminacion de algunoselementos de informacion de una solucion. Elloquiere decir que mediante la posterior apli-cacion de un procedimiento de completado delos ya mencionados se obtendrıa una solucionmutada.

Como cierre de esta seccion, es importanteresenar una vez mas el caracter heurıstico delos principios de diseno mencionados. Hay aunmucho por hacer en esta vertiente metodologi-ca de los MA (e.g., vease [64]). En este senti-do, notese que la filosofıa de los MA es muyflexible, y desde siempre se oriento a la in-corporacion de ideas tomadas de otras meta-heurısticas. Por ello, del estudio de las diferen-tes tecnicas de optimizacion discutidas en es-ta monografıa pueden obtenerse nuevas ideas yherramientas conducentes a nuevos y mas po-tentes algoritmos memeticos.

4. Aplicaciones de los MA

Existen cientos de aplicaciones de los MA enel ambito de la optimizacion combinatoria. Esono es sorprendente si tenemos en consideracionque existen miles de problemas de optimizacionpertenecientes a la clase NP, donde los MA sehan mostrado de gran valor. Curiosamente, esfrecuente que estos MA se hallen disfrazadosu ocultos bajo otras denominaciones (EA/GAhıbridos, EA/GA lamarckianos, etc.), tal comose menciono en la Seccion 1. No obstante, estafalta de consistencia terminologica es cada vezmenos frecuente.

Hecha esta apreciacion, ofrecemos aquı unabreve lista de algunas de las aplicaciones quedan cuenta de la popularidad que ha alcanza-do esta metodologıa. Destacamos los siguientes:problemas de particionado en grafos [83] [138],particion de numeros [7], conjunto Independi-ente de cardinalidad maxima [1] [54] [122], em-paquetado [117], coloreado de grafos [26] [39][43] [24], recubrimiento de conjuntos [4], plan-ificacion de tareas en una maquina con tiem-pos de “set-up” y fechas de entrega [44] [87],planificacion de tareas en varias maquinas [22]

[78] [88], problemas de asignacion generalizados[23], problemas de mochila multidimensional [5][29] [51], programacion entera no-lineal [127]asignacion cuadratica [18] [81] [82], particiona-do de conjuntos [72], y muy especialmente elproblema del viajante de comercio [50] [56] [82][92] [114].

Es de destacar que en una gran parte de es-tas publicaciones los propios autores destacanque la metodologıa constituye el estado del artepara el problema en consideracion, lo que esde interes debido a que estos son problemas“clasicos” en el area de la optimizacion com-binatoria.

El paradigma fue utilizado en otros proble-mas menos conocidos, pero sin duda de igualimportancia, como son: emparejamiento par-cial de formas geometricas [105], optimizacionen “paisajes NK” [80], diseno de trayectoriasoptimas para naves espaciales [32], asignacionde frecuencias [59], construccion de arboles deexpansion mınimos con restricciones de gra-do [115], problemas de emplazamiento [57] [71][123], optimizacion de rutas [120], problemasde transporte [46] [100], asignacion de tare-as [53], isomorfismos en grafos [129], proble-mas de biconexion de vertices [60], agru-pamiento [85], telecomunicaciones [10] [111][121], identificacion de sistemas no-lineares[40], optimizacion multiobjetivo [62], progra-macion de tareas de mantenimiento [13] [14][15], “open shop scheduling” [21] [42] [74],“flowshop scheduling” [19] [94] [95], planifi-cacion de proyectos [98] [116] [106], planifi-cacion de almacen [132], planificacion de pro-duccion [38] [89] [8], confeccion de horarios [11][75] [108], planificacion de turnos [37], planifi-cacion de juegos deportivos [25] y planificacionde examenes [12] [49].

Los MA, tambien han sido citados en la litera-tura de aprendizaje en maquinas y robotica co-mo algoritmos geneticos hıbridos. Destacamosalgunas aplicaciones como por ejemplo: entre-namiento de redes neuronales [58] [90] [128], re-conocimiento de caracterısticas [2], clasificacionde caracterısticas [69] [86], analisis de seriestemporales [103], aprendizaje de comportamien-tos reactivos en agentes moviles [30], planifi-cacion de trayectorias [102] [109] [119], controloptimo [20], etc.

En las areas de la Electronica y la Ingenierıa

podemos destacar: proyectos de VLSI [3], op-timizacion de estructuras [137] y mecanica defracturas [107], modelado de sistemas [131],control de reactores quımicos [140], calibracionde motores [61], problemas de diseno optimo enAeronautica [9] [110], diseno de sistemas opti-cos [55], control de trafico [125], y planificacionen problemas de potencia [130] entre otros.

Otras aplicaciones de estas tecnicas pueden en-contrarse en: Medicina [52] [133], Economıa[73] [104], Oceanografıa [96], Matematicas [118][134] [135], Procesamiento de imagenes y de voz[16] [70] [139], y un sinnumero de ellas en Bi-ologıa Molecular.

5. Conclusiones

Existen dos fuerzas importantes que favorecenla aplicacion de MA en varias areas. Por un la-do, la creciente disponibilidad de sistemas decomputacion concurrente, generalmente basa-dos en clusters, permite a los investigadores laposibilidad de paralelizar con cierta facilidad losprogramas. Los MA se adaptan muy bien a estetipo de paralelismo, a lo que hay que anadirla creciente relevancia de lenguajes como Java,que facilitan aun mas esta tarea. Por otro la-do, ya existe una mejor comprension, al menosheurıstica, sobre como crear MA eficientes. Aello se suman ciertos avances recientes en lateorıa de la complejidad computacional de ope-radores de recombinacion.

Existe tambien un creciente interes en el de-sarrollo sistematico de los MA mediante la in-corporacion de otras tecnicas. Estas puedenser de dos tipos: exactas (e.g., algoritmos deramificacion y poda, algoritmos de tratabili-dad a parametro fijo, etc.), o metaheurıstica(como la incorporacion de periodos de Busque-da Tabu para la difersificacion, etc.). Un ejem-plo clasico puede encontrarse en [7]: un metodomuy basico de Busqueda Tabu potencia un MAy permite obtener muy buenas soluciones en unproblema donde las tecnicas de Recocido Simu-lado tuvieron grandes dificultades.

Existen abiertas algunas lıneas muy intere-santes en Investigacion, como por ejemplo enla co-evolucion. Citando [91]:

“Es posible que una generacion futu-ra de MA trabaje en dos niveles y dosescalas temporales. En una escala decorto alcance, un conjunto de agentestrabajarıa en el espacio de busque-da asociado al problema mientras queen una escala de mas largo plazo,los agentes adaptarıan las heurısti-cas a ellos asociadas. Nuestro trabajocon D. Holstein que sera presentadoen este libro puede ser clasificado co-mo un primer paso en esta direccionprometedora. Sin embargo, es razona-ble pensar que en breve se implemen-taran de manera practica nuevos ymas complejos esquemas, involucran-do soluciones, agentes y tambien re-presentaciones.”

En el trabajo con D. Holstein, fue empleadoun MA que tambien utilizaba Busqueda Lo-cal Guiada. Algunos artıculos mas recientesestan en esta direccion [17][63][67]. Krasnogorintrodujo la terminologıa de “multimeme” parainequıvocamente identificar MA que tambienadaptan la definicion de vecindario utilizadoen las busquedas locales [68], y con colegasesta aplicando el metodo en el dificil proble-ma de la prediccion de las estructuras secun-darias de las proteınas [65]. Otro estudio de es-tos temas puede encontrarse en [124].

Otras areas de interes en el desarrollo deMA estan en el uso de estructuras de lapoblacion [45][93], busquedas locales auto-adaptables [66] y nuevos operadores de recom-binacion siguiendo las metodologıas empleadasen [56][79][84][90].

Referencias

[1] C.C. Aggarwal, J.B. Orlin, and R.P.Tai. Optimized crossover for the indepen-dent set problem. Operations Research,45(2):226–234, 1997.

[2] J. Aguilar and A. Colmenares. Resolu-tion of pattern recognition problems us-ing a hybrid genetic/random neural net-work learning algorithm. Pattern Analy-sis and Applications, 1(1):52–61, 1998.

[3] S. Areibi, M. Moussa, and H. Abdullah.A comparison of genetic/memetic algo-

rithms and heuristic searching. In Pro-ceedings of the 2001 International Con-ference on Artificial Intelligence ICAI2001, Las Vegas, Nevada, June 25, 2001.

[4] J. Beasley and P.C. Chu. A genetic algo-rithm for the set covering problem. Eu-ropean Journal of Operational Research,94(2):393–404, 1996.

[5] J. Beasley and P.C. Chu. A genetic algo-rithm for the multidimensional knapsackproblem. Journal of Heuristics, 4:63–86,1998.

[6] R. Berretta, C. Cotta, and P. Moscato.Enhancing the performance of memet-ic algorithms by using a matching-basedrecombination algorithm: Results on thenumber partitioning problem. In M. Re-sende and J. Pinho de Sousa, editors,Metaheuristics: Computer-Decision Mak-ing, pages 65–90. Kluwer Academic Pub-lishers, Boston MA, 2003.

[7] R. Berretta and P. Moscato. The num-ber partitioning problem: An open chal-lenge for evolutionary computation ? InD. Corne, M. Dorigo, and F. Glover,editors, New Ideas in Optimization,pages 261–278. McGraw-Hill, Maiden-head, Berkshire, England, UK, 1999.

[8] R. Berretta and L. F. Rodrigues. Amemetic algorithm for multi-stage capac-itated lot-sizing problems. Internation-al Journal of Production Economics. Enprensa.

[9] A.H.W. Bos. Aircraft conceptual designby genetic/gradient-guided optimization.Engineering Applications of Artificial In-telligence, 11(3):377–382, 1998.

[10] L. Buriol, M.G.C. Resende, C.C. Ribeiro,and M. Thorup. A memetic algorithmfor OSPF routing. In Sixth INFORMSTelecommunications Conference, March10-13, 2002 Hilton Deerfield Beach, BocaRaton, Florida, pages 187–188, 2002.

[11] E. K. Burke, D. G. Elliman, and R. F.Weare. A hybrid genetic algorithm forhighly constrained timetabling problems.In Proceedings of the Sixth InternationalConference on Genetic Algorithms, pages605–610. Morgan Kaufmann, San Fran-cisco, CA, 1995.

[12] E.K. Burke, J.P. Newall, and R.F. Weare.A memetic algorithm for university examtimetabling. In E.K. Burke and P. Ross,editors, The Practice and Theory of Au-tomated Timetabling, volume 1153 of Lec-ture Notes in Computer Science, pages241–250. Springer-Verlag, 1996.

[13] E.K. Burke and A.J. Smith. A memet-ic algorithm for the maintenance schedul-ing problem. In Proceedings of theICONIP/ANZIIS/ANNES ’97 Confer-ence, pages 469–472, Dunedin, NewZealand, 1997. Springer-Verlag.

[14] E.K. Burke and A.J. Smith. A memet-ic algorithm to schedule grid mainte-nance. In Proceedings of the Interna-tional Conference on Computational In-telligence for Modelling Control and Au-tomation, Vienna: Evolutionary Compu-tation and Fuzzy Logic for IntelligentControl, Knowledge Acquisition and In-formation Retrieval, pages 122–127. IOSPress, 1999.

[15] E.K. Burke and A.J. Smith. A multi-stage approach for the thermal genera-tor maintenance scheduling problem. InProceedings of the 1999 Congress on Evo-lutionary Computation, pages 1085–1092,Piscataway, NJ, USA, 1999. IEEE.

[16] S. Cadieux, N. Tanizaki, and T. Okamu-ra. Time efficient and robust 3-D brainimage centering and realignment usinghybrid genetic algorithm. In Proceed-ings of the 36th SICE Annual Conference,pages 1279–1284. IEEE, 1997.

[17] R. Carr, W. Hart, N. Krasnogor, J. Hirst,E. Burke, and J. Smith. Alignment ofprotein structures with a memetic evo-lutionary algorithm. In W. B. Langdonet al., editors, GECCO 2002: Proceedingsof the Genetic and Evolutionary Compu-tation Conference, pages 1027–1034, NewYork, 9-13 July 2002. Morgan KaufmannPublishers.

[18] J. Carrizo, F.G. Tinetti, and P. Moscato.A computational ecology for the quadrat-ic assignment problem. In Proceedings ofthe 21st Meeting on Informatics and Op-erations Research, Buenos Aires, Argenti-na, 1992. SADIO.

[19] S. Cavalieri and P. Gaiardelli. Hybrid ge-netic algorithms for a multiple-objectivescheduling problem. Journal of Intelli-gent Manufacturing, 9(4):361–367, 1998.

[20] N. Chaiyaratana and A.M.S. Zalzala. Hy-bridisation of neural networks and genet-ic algorithms for time-optimal control. InProceedings of the 1999 Congress on Evo-lutionary Computation, pages 389–396,Washington D.C., 1999. IEEE.

[21] R. Cheng, M. Gen, and Y. Tsujimura.A tutorial survey of job-shop schedul-ing problems using genetic algorithms. II.Hybrid genetic search strategies. Com-puters & Industrial Engineering, 37(1-2):51–55, 1999.

[22] R.W. Cheng and M. Gen. Parallel ma-chine scheduling problems using memeticalgorithms. Computers & Industrial En-gineering, 33(3–4):761–764, 1997.

[23] P.C. Chu and J. Beasley. A genetic al-gorithm for the generalised assignmentproblem. Computers & Operations Re-search, 24:17–23, 1997.

[24] P.E. Coll, G.A. Duran, and P. Mosca-to. On worst-case and comparative anal-ysis as design principles for efficient re-combination operators: A graph color-ing case study. In D. Corne, M. Dori-go, and F. Glover, editors, New Ideas inOptimization, pages 279–294. McGraw-Hill, Maidenhead, Berkshire, England,UK, 1999.

[25] D. Costa. An evolutionary tabu searchalgorithm and the NHL scheduling prob-lem. INFOR, 33(3):161–178, 1995.

[26] D. Costa, N. Dubuis, and A. Hertz. Em-bedding of a sequential procedure with-in an evolutionary algorithm for coloringproblems in graphs. Journal of Heuris-tics, 1(1):105–128, 1995.

[27] C. Cotta. A study of hybridisation tech-niques and their application to the designof evolutionary algorithms. AI Commu-nications, 11(3-4):223–224, 1998.

[28] C. Cotta and J. Muruzabal. Towardsa more efficient evolutionary inductionof bayesian networks. In J.J. Mereloet al., editors, Parallel Problem Solving

From Nature VII, volume 2439 of LectureNotes in Computer Science. Springer-Verlag, Paris, 2002.

[29] C. Cotta and J.M. Troya. A hybrid genet-ic algorithm for the 0-1 multiple knapsackproblem. In G.D. Smith, N.C. Steele, andR.F. Albrecht, editors, Artificial NeuralNets and Genetic Algorithms 3, pages251–255, Wien New York, 1998. Springer-Verlag.

[30] C. Cotta and J.M. Troya. Using a hy-brid evolutionary-A∗ approach for learn-ing reactive behaviors. In S. Cagnoniet al., editors, Real-World Applications ofEvolutionary Computation, volume 1803of Lecture Notes in Computer Science,pages 347–356, Edinburgh, 15-16 April2000. Springer-Verlag.

[31] C. Cotta and J.M. Troya. Embeddingbranch and bound within evolutionary al-gorithms. Applied Intelligence, 18:137–153, 2003.

[32] T. Crain, R. Bishop, W. Fowler, andK. Rock. Optimal interplanetarytrajectory design via hybrid geneticalgorithm/recursive quadratic programsearch. In Ninth AAS/AIAA Space FlightMechanics Meeting, pages 99–133, Breck-enridge CO, 1999.

[33] Y. Davidor. Epistasis variance: A view-point on GA-hardness. In G.J.E. Rawl-ins, editor, Foundations of Genetic Algo-rithms, pages 23–35. Morgan Kaufmann,1991.

[34] Y. Davidor and O. Ben-Kiki. The inter-play among the genetic algorithm opera-tors: Information theory tools used in aholistic way. In R. Manner and B. Man-derick, editors, Parallel Problem SolvingFrom Nature II, pages 75–84, Amster-dam, 1992. Elsevier Science PublishersB.V.

[35] L. Davis. Handbook of Genetic Algo-rithms. Van Nostrand Reinhold Comput-er Library, New York, 1991.

[36] R. Dawkins. The Selfish Gene. ClarendonPress, Oxford, 1976.

[37] P. de Causmaecker, G. van den Berghe,and E.K. Burke. Using tabu search as

a local heuristic in a memetic algorithmfor the nurse rostering problem. In Pro-ceedings of the Thirteenth Conference onQuantitative Methods for Decision Mak-ing, pages abstract only, poster presenta-tion, Brussels, Belgium, 1999.

[38] N. Dellaert and J. Jeunet. Solving largeunconstrained multilevel lot-sizing prob-lems using a hybrid genetic algorithm.International Journal of Production Re-search, 38(5):1083–1099, 2000.

[39] R. Dorne and J.K. Hao. A new genet-ic local search algorithm for graph color-ing. In A.E. Eiben, Th. Back, M. Schoe-nauer, and H.-P. Schwefel, editors, Paral-lel Problem Solving From Nature V, vol-ume 1498 of Lecture Notes in Comput-er Science, pages 745–754, Berlin, 1998.Springer-Verlag.

[40] L. dos Santos Coelho, M. Rudek, andO. Canciglieri Junior. Fuzzy-memetic ap-proach for prediction of chaotic time se-ries and nonlinear identification. In 6thOn-line World Conference on Soft Com-puting in Industrial Applications, Orga-nized by World Federation of Soft Com-puting, 2001. Co-sponsored by IEEE Sys-tems, Man, and Cybenertics Society.

[41] A.E. Eiben, P.-E. Raue, and Zs. Ruttkay.Genetic algorithms with multi-parent re-combination. In Y. Davidor, H.-P. Schwe-fel, and R. Manner, editors, Parallel Prob-lem Solving From Nature III, volume 866of Lecture Notes in Computer Science,pages 78–87. Springer-Verlag, 1994.

[42] J. Fang and Y. Xi. A rolling horizonjob shop rescheduling strategy in the dy-namic environment. International Jour-nal of Advanced Manufacturing Technol-ogy, 13(3):227–232, 1997.

[43] C. Fleurent and J.A. Ferland. Geneticand hybrid algorithms for graph coloring.Annals of Operations Research, 63:437–461, 1997.

[44] P.M. Franca, A.S. Mendes, and P. Mosca-to. Memetic algorithms to minimize tar-diness on a single machine with sequence-dependent setup times. In Proceedingsof the 5th International Conference ofthe Decision Sciences Institute, Athens,

Greece, pages 1708–1710, Atlanta, GA,USA, 1999. Decision Sciences Institute.

[45] P.M. Franca, A.S. Mendes, and P. Mosca-to. A memetic algorithm for the totaltardiness single machine scheduling prob-lem. European Journal of Operational Re-search, 132(1):224–242, 2001.

[46] M. Gen, K. Ida, and L. Yinzhen. Bicrite-ria transportation problem by hybrid ge-netic algorithm. Computers & IndustrialEngineering, 35(1-2):363–366, 1998.

[47] D.E. Goldberg. Genetic Algorithmsin Search, Optimization and MachineLearning. Addison-Wesley, Reading, MA,1989.

[48] D.E. Goldberg and R. Lingle Jr. Alle-les, loci and the traveling salesman prob-lem. In J.J. Grefenstette, editor, Proceed-ings of an International Conference onGenetic Algorithms, Hillsdale NJ, 1985.Lawrence Erlbaum Associates.

[49] J.F. Goncalves. A memetic algorithm forthe examination timetabling problem. InOptimization 2001, Aveiro, Portugal, Ju-ly 23-25, 2001, 2001.

[50] M. Gorges-Schleuter. Genetic Algorithmsand Population Structures - A MassivelyParallel Algorithm. PhD thesis, Universi-ty of Dortmund, Germany, 1991.

[51] J. Gottlieb. Permutation-based evolu-tionary algorithms for multidimension-al knapsack problems. In J. Carroll,E. Damiani, H. Haddad, and D. Op-penheim, editors, ACM Symposium onApplied Computing 2000, pages 408–414.ACM Press, 2000.

[52] O.C.L. Haas, K.J. Burnham, and J.A.Mills. Optimization of beam orienta-tion in radiotherapy using planar geom-etry. Physics in Medicine and Biology,43(8):2179–2193, 1998.

[53] A.B. Hadj-Alouane, J.C. Bean, and K.G.Murty. A hybrid genetic/optimizationalgorithm for a task allocation problem.Journal of Scheduling, 2(4), 1999.

[54] M. Hifi. A genetic algorithm-basedheuristic for solving the weighted maxi-mum independent set and some equiva-

lent problems. Journal of the OperationalResearch Society, 48(6):612–622, 1997.

[55] R.J.W. Hodgson. Memetic algorithm ap-proach to thin-film optical coating de-sign. In W.E. Hart, N. Krasnogor,and J. Smith, editors, Second Workshopon Memetic Algorithms (2nd WOMA),pages 152–157, San Francisco, California,USA, 7 July 2001.

[56] D. Holstein and P. Moscato. Memet-ic algorithms using guided local search:A case study. In D. Corne, M. Dori-go, and F. Glover, editors, New Ideas inOptimization, pages 235–244. McGraw-Hill, Maidenhead, Berkshire, England,UK, 1999.

[57] E. Hopper and B. Turton. A genetic al-gorithm for a 2d industrial packing prob-lem. Computers & Industrial Engineer-ing, 37(1-2):375–378, 1999.

[58] T. Ichimura and Y. Kuriyama. Learningof neural networks with parallel hybridGA using a Royal Road function. In 1998IEEE International Joint Conference onNeural Networks, volume 2, pages 1131–1136, New York, NY, 1998. IEEE.

[59] I.E. Kassotakis, M.E. Markaki, and A.V.Vasilakos. A hybrid genetic approach forchannel reuse in multiple access telecom-munication networks. IEEE Journalon Selected Areas in Communications,18(2):234–243, 2000.

[60] S. Kersting, G.R. Raidl, and I. Ljubic.A memetic algorithm for vertex-biconnectivity augmentation. InS. Cagnoni et al., editors, Applications ofEvolutionary Computing, Proceedings ofEvoWorkshops2002: EvoCOP, EvoIASP,EvoSTim, volume 2279 of LNCS, pages101–110, Kinsale, Ireland, 3-4 April 2002.Springer-Verlag.

[61] K. Knodler, J. Poland, A. Zell, andA. Mitterer. Memetic algorithms forcombinatorial optimization problems inthe calibration of modern combustion en-gines. In W. B. Langdon et al., editors,GECCO 2002: Proceedings of the Genet-ic and Evolutionary Computation Con-ference, page 687, New York, 9-13 July2002. Morgan Kaufmann Publishers.

[62] J. Knowles and D. Corne. M-PAES: Amemetic algorithm for multiobjective op-timization. In Proceedings of the 2000Congress on Evolutionary ComputationCEC00, pages 325–332, La Jolla MarriottHotel La Jolla, California, USA, 6-9 July2000. IEEE Press.

[63] N. Krasnogor. Coevolution of genes andmemes in memetic algorithms. In Una-May O’Reilly, editor, Graduate StudentWorkshop, page 371, Orlando, Florida,USA, 13 July 1999.

[64] N. Krasnogor. Studies on the Theo-ry and Design Space of Memetic Algo-rithms. Ph.D. Thesis, Faculty of Engi-neering, Computer Science and Mathe-matics. University of the West of Eng-land. Bristol, United Kingdom, 2002.

[65] N. Krasnogor, B. Blackburne, J.D. Hirst,and E.K. Burke. Multimeme algorithmsfor protein structure prediction. In7th International Conference on Paral-lel Problem Solving from Nature - PP-SN VII, September 7-11, 2002, Granada,Spain, 2002.

[66] N. Krasnogor and J. Smith. A memeticalgorithm with self-adaptive local search:TSP as a case study. In Darrell Whitleyet al., editors, Proceedings of the Geneticand Evolutionary Computation Confer-ence (GECCO-2000), pages 987–994, LasVegas, Nevada, USA, 10-12 July 2000.Morgan Kaufmann.

[67] N. Krasnogor and J. Smith. Emer-gence of profitable search strategies basedon a simple inheritance mechanism. InL. Spector et al., editors, Proceedings ofthe Genetic and Evolutionary Computa-tion Conference (GECCO-2001), pages432–439, San Francisco, California, USA,7-11 July 2001. Morgan Kaufmann.

[68] N. Krasnogor and J. Smith. Multi-meme algorithms for the structure pre-diction and structure comparison of pro-teins. In Alwyn M. Barry, editor, GEC-CO 2002: Proceedings of the Bird of aFeather Workshops, Genetic and Evolu-tionary Computation Conference, pages42–44, New York, 8 July 2002. AAAI.

[69] K. Krishna and M.Narasimha-Murty. Ge-netic k-means algorithm. IEEE Trans-actions on Systems, Man and Cybernet-ics, Part B (Cybernetics), 29(3):433–439,1999.

[70] K. Krishna, K.R. Ramakrishnan, andM.A.L. Thathachar. Vector quantizationusing genetic k-means algorithm for im-age compression. In 1997 Internation-al Conference on Information, Communi-cations and Signal Processing, volume 3,pages 1585–1587, New York, NY, 1997.IEEE.

[71] R.M. Krzanowski and J. Raper. Hybridgenetic algorithm for transmitter locationin wireless networks. Computers, Envi-ronment and Urban Systems, 23(5):359–382, 1999.

[72] D. Levine. A parallel genetic algo-rithm for the set partitioning problem.In I.H. Osman and J.P. Kelly, editors,Meta-Heuristics: Theory & Applications,pages 23–35. Kluwer Academic Publish-ers, Boston, MA, USA, 1996.

[73] F. Li, R. Morgan, and D. Williams.Economic environmental dispatch madeeasy with hybrid genetic algorithms. InProceedings of the International Confer-ence on Electrical Engineering, volume 2,pages 965–969, Beijing, China, 1996. Int.Acad. Publishers.

[74] C.F. Liaw. A hybrid genetic algorithm forthe open shop scheduling problem. Eu-ropean Journal of Oprational Research,124(1):28–42, 2000.

[75] S. E. Ling. Integrating genetic algo-rithms with a prolog assignment programas a hybrid solution for a polytechnictimetable problem. In Parallel ProblemSolving from Nature II, pages 321–329.Elsevier Science Publisher B. V., 1992.

[76] S.J. Louis, X. Yin, and Z.Y. Yuan. Multi-ple vehicle routing with time windows us-ing genetic algorithms. In Proceedings ofthe 1999 Congress on Evolutionary Com-putation, pages 1804–1808, WashingtonD.C., 1999. IEEE Neural Network Coun-cil - Evolutionary Programming Society -Institution of Electrical Engineers.

[77] K. Mathias and D. Whitley. Genet-ic operators, the Fitness Landscape andthe Traveling Salesman Problem. InR. Manner and B. Manderick, editors,Parallel Problem Solving from Nature -Proceedings of 2nd Workshop, PPSN II,pages 219–228. Elsevier Science Publish-ers, 1992.

[78] A.S. Mendes, F.M. Muller, P.M. Franca,and P. Moscato. Comparing meta-heuristic approaches for parallel ma-chine scheduling problems with sequence-dependent setup times. In Proceedingsof the 15th International Conference onCAD/CAM Robotics & Factories of theFuture, Aguas de Lindoia, Brasil, vol-ume 1, pages 1–6, Campinas, SP, Brazil,1999. Technological Center for Informat-ics Foundation.

[79] P. Merz. A comparison of memetic re-combination operators for the travelingsalesman problem. In W. B. Langdonet al., editors, GECCO 2002: Proceedingsof the Genetic and Evolutionary Compu-tation Conference, pages 472–479, NewYork, 9-13 July 2002. Morgan KaufmannPublishers.

[80] P. Merz and B. Freisleben. On the Effec-tiveness of Evolutionary Search in High–Dimensional NK-Landscapes. In D. Fo-gel, editor, Proceedings of the 1998 IEEEInternational Conference on Evolution-ary Computation, pages 741–745, Piscat-away, NJ, USA, 1998. IEEE Press.

[81] P. Merz and B. Freisleben. A Comparisonof Memetic Algorithms, Tabu Search, andAnt Colonies for the Quadratic Assign-ment Problem. In Pete Angeline, editor,1999 Congress on Evolutionary Compu-tation (CEC’99), pages 2063–2070, Pis-cataway, NJ, USA, 1999. IEEE Press.

[82] P. Merz and B. Freisleben. Fitnesslandscapes and memetic algorithm de-sign. In D. Corne, M. Dorigo, andF. Glover, editors, New Ideas in Opti-mization, pages 245–260. McGraw-Hill,Maidenhead, Berkshire, England, UK,1999.

[83] P. Merz and B. Freisleben. Fitness Land-scapes, Memetic Algorithms and GreedyOperators for Graph Bi-Partitioning.

Evolutionary Computation, 8(1):61–91,2000.

[84] P. Merz and B. Freisleben. Memetic al-gorithms for the traveling salesman prob-lem. Complex Systems, 132(42):297–345,2001.

[85] P. Merz and A. Zell. Clustering geneexpression profiles with memetic algo-rithms. In 7th International Conferenceon Parallel Problem Solving from Na-ture - PPSN VII, September 7-11, 2002,Granada, Spain, 2002.

[86] M. Mignotte, C. Collet, P. Perez, andP. Bouthemy. Hybrid genetic optimiza-tion and statistical model based approachfor the classification of shadow shapesin sonar imagery. IEEE Transactionson Pattern Analysis and Machine Intel-ligence, 22(2):129–141, 2000.

[87] D.M. Miller, H.C. Chen, J. Matson, andQ. Liu. A hybrid genetic algorithm for thesingle machine scheduling problem. Jour-nal of Heuristics, 5(4):437–454, 1999.

[88] L. Min and W. Cheng. Identical parallelmachine scheduling problem for minimiz-ing the makespan using genetic algorithmcombined with simulated annealing. Chi-nese Journal of Electronics, 7(4):317–321,1998.

[89] X.G. Ming and K.L. Mak. A hybrid hop-field network-genetic algorithm approachto optimal process plan selection. Inter-national Journal of Production Research,38(8):1823–1839, 2000.

[90] P. Moscato. An Introduction to Popula-tion Approaches for Optimization and Hi-erarchical Objective Functions: The Roleof Tabu Search. Annals of Operations Re-search, 41(1-4):85–121, 1993.

[91] P. Moscato. Memetic algorithms: A shortintroduction. In D. Corne, M. Dorigo,and F. Glover, editors, New Ideas in Op-timization, pages 219–234. McGraw-Hill,Maidenhead, Berkshire, England, UK,1999.

[92] P. Moscato and M. G. Norman. A Memet-ic Approach for the Traveling Salesman

Problem Implementation of a Compu-tational Ecology for Combinatorial Op-timization on Message-Passing Systems.In M. Valero, E. Onate, M. Jane, J. L.Larriba, and B. Suarez, editors, Paral-lel Computing and Transputer Applica-tions, pages 177–186, Amsterdam, 1992.IOS Press.

[93] P. Moscato and F. Tinetti. Blendingheuristics with a population-based ap-proach: A memetic algorithm for the trav-eling salesman problem. Report 92-12,Universidad Nacional de La Plata, C.C.75, 1900 La Plata, Argentina, 1992.

[94] T. Murata and H. Ishibuchi. Performanceevaluation of genetic algorithms for flow-shop scheduling problems. In Proceedingsof the First IEEE Conference on Evo-lutionary Computation, volume 2, pages812–817, New York, NY, 1994. IEEE.

[95] T. Murata, H. Ishibuchi, and H. Tanaka.Genetic algorithms for flowshop schedul-ing problems. Computers & IndustrialEngineering, 30(4):1061–1071, 1996.

[96] M. Musil, M.J. Wilmut, and N.R. Chap-man. A hybrid simplex genetic algorithmfor estimating geoacoustic parameters us-ing matched-field inversion. IEEE Jour-nal of Oceanic Engineering, 24(3):358–369, 1999.

[97] Y.Nagata and Sh. Kobayashi. Edge as-sembly crossover: A high-power genet-ic algorithm for the traveling salesmanproblem. In Th. Back, editor, Proceed-ings of the Seventh International Confer-ence on Genetic Algorithms, East Lans-ing, EE.UU., pages 450–457, San Mateo,CA, 1997. Morgan Kaufmann.

[98] A.L. Nordstrom and S. Tufekci. A geneticalgorithm for the talent scheduling prob-lem. Computers & Operations-Research,21(8):927–940, 1994.

[99] M.G. Norman and P. Moscato. A compet-itive and cooperative approach to com-plex combinatorial search. Technical Re-port Caltech Concurrent ComputationProgram, Report. 790, California Insti-tute of Technology, Pasadena, California,USA, 1989. expanded version published

at the Proceedings of the 20th Infor-matics and Operations Research Meeting,Buenos Aires (20th JAIIO), Aug. 1991,pp. 3.15–3.29.

[100] A.G.N. Novaes, J.E.S. De-Cursi, andO.D. Graciolli. A continuous approachto the design of physical distribution sys-tems. Computers & Operations Research,27(9):877–893, 2000.

[101] I.M. Oliver, D.J. Smith, and J.R.C. Hol-land. A study of permutation crossoveroperators on the traveling salespersonproblem. In J.J. Grefenstette, editor, Pro-ceedings of the 2nd International Confer-ence on Genetic Algorithms and their Ap-plications, pages 224–230, Hillsdale NJ,1987. Lawrence Erlbaum Associates.

[102] P. Osmera. Hybrid and distributed ge-netic algorithms for motion control. InV. Chundy and E. Kurekova, editors,Proceedings of the Fourth InternationalSymposium on Measurement and Controlin Robotics, pages 297–300, 1995.

[103] R. Ostermark. A neuro-genetic algorithmfor heteroskedastic time-series processes:empirical tests on global asset returns.Soft Computing, 3(4):206–220, 1999.

[104] R. Ostermark. Solving irregular econo-metric and mathematical optimizationproblems with a genetic hybrid al-gorithm. Computational Economics,13(2):103–115, 1999.

[105] E. Ozcan and C.K. Mohan. Steadystate memetic algorithm for partial shapematching. In V.W. Porto, N. Saravanan,and D. Waagen, editors, EvolutionaryProgramming VII, volume 1447 of LectureNotes in Computer Science, pages 527–536. Springer, Berlin, 1998.

[106] L. Ozdamar. A genetic algorithm ap-proach to a general category projectscheduling problem. IEEE Transactionson Systems, Man and Cybernetics, PartC (Applications and Reviews), 29(1):44–59, 1999.

[107] M.N. Pacey, E.A. Patterson, and M.N.James. A photoelastic technique for char-acterising fatigue crack closure and the

effective stress intensity factor. Zeszy-ty Naukowe Politechniki Opolskiej, Se-ria: Mechanika, z.67(Nr kol. 269/2001),2001. VII Summer School of FractureMechanic, Current Research in Fatigueand Fracture, Pokrzywna (Poland), 18-22Jun. 2001.

[108] B. Paechter, A. Cumming, M.G. Norman,and H. Luchian. Extensions to a Memet-ic timetabling system. In E.K. Burke andP. Ross, editors, The Practice and Theoryof Automated Timetabling, volume 1153of Lecture Notes in Computer Science,pages 251–265. Springer Verlag, 1996.

[109] D.K. Pratihar, K. Deb, and A. Ghosh.Fuzzy-genetic algorithms and mobilerobot navigation among static obstacles.In Proceedings of the 1999 Congress onEvolutionary Computation, pages 327–334, Washington D.C., 1999. IEEE.

[110] D. Quagliarella and A. Vicini. Hybridgenetic algorithms as tools for complexoptimisation problems. In P. Blonda,M. Castellano, and A. Petrosino, editors,New Trends in Fuzzy Logic II. Proceed-ings of the Second Italian Workshop onFuzzy Logic, pages 300–307, Singapore,1998. World Scientific.

[111] A. Quintero and S. Pierre. A multi-population memetic algorithm to opti-mize the assignment of cells to switchesin cellular mobile networks, 2001. sub-mitted for publication.

[112] N.J. Radcliffe. The algebra of genetic al-gorithms. Annals of Mathematics and Ar-tificial Intelligence, 10:339–384, 1994.

[113] N.J. Radcliffe and P.D. Surry. FitnessVariance of Formae and Performance Pre-diction. In L.D. Whitley and M.D. Vose,editors, Proceedings of the 3rd Workshopon Foundations of Genetic Algorithms,pages 51–72, San Francisco, 1994. Mor-gan Kaufmann.

[114] N.J. Radcliffe and P.D. Surry. For-mal Memetic Algorithms. In T. Fogar-ty, editor, Evolutionary Computing: AISBWorkshop, volume 865 of Lecture Notes inComputer Science, pages 1–16. Springer-Verlag, Berlin, 1994.

[115] G.R. Raidl and B.A. Julstron. A weight-ed coding in a genetic algorithm forthe degree-constrained minimum span-ning tree problem. In J. Carroll, E. Dami-ani, H. Haddad, and D. Oppenheim, ed-itors, ACM Symposium on Applied Com-puting 2000, pages 440–445. ACM Press,2000.

[116] E. Ramat, G. Venturini, C. Lente, andM. Slimane. Solving the multiple resourceconstrained project scheduling problemwith a hybrid genetic algorithm. In Th.Back, editor, Proceedings of the SeventhInternational Conference on Genetic Al-gorithms, pages 489–496, San FranciscoCA, 1997. Morgan Kaufmann.

[117] C. Reeves. Hybrid genetic algorithms forbin-packing and related problems. Annalsof Operations Research, 63:371–396, 1996.

[118] C. Reich. Simulation of imprecise or-dinary differential equations using evo-lutionary algorithms. In J. Carroll,E. Damiani, H. Haddad, and D. Op-penheim, editors, ACM Symposium onApplied Computing 2000, pages 428–432.ACM Press, 2000.

[119] M.A. Ridao, J. Riquelme, E.F. Camacho,and M. Toro. An evolutionary and localsearch algorithm for planning two manip-ulators motion. In A.P. Del Pobil, J. Mi-ra, and M. Ali, editors, Tasks and Meth-ods in Applied Artificial Intelligence, vol-ume 1416 of Lecture Notes in ComputerScience, pages 105–114. Springer-Verlag,Berlin Heidelberg, 1998.

[120] A.M. Rodrigues and J. Soeiro Ferreira.Solving the rural postman problem bymemetic algorithms. In Jorge Pinhode Sousa, editor, Proceedings of the 4thMetaheuristic International Conference(MIC’2001), Porto, Portugal, July 16-20,2001, pages 679–684, 2001.

[121] S. Runggeratigul. A memetic algorithmto communication network design takinginto consideration an existing network. InJorge Pinho de Sousa, editor, Proceed-ings of the 4th Metaheuristic Internation-al Conference (MIC’2001), Porto, Portu-gal, July 16-20, 2001, pages 91–96, 2001.

[122] A. Sakamoto, X.Z. Liu, and T. Shimamo-to. A genetic approach for maximum in-dependent set problems. IEICE Trans-actions on Fundamentals of ElectronicsCommunications and Computer Sciences,E80A(3):551–556, 1997.

[123] V. Schnecke and O. Vornberger. Hybridgenetic algorithms for constrained place-ment problems. IEEE Transactions onEvolutionary Computation, 1(4):266–277,1997.

[124] Jim Smith. Co-evolving memetic algo-rithms: Initial investigations. In 7th In-ternational Conference on Parallel Prob-lem Solving from Nature - PPSN VII,September 7-11, 2002, Granada, Spain,2002.

[125] D. Srinivasan, R.L. Cheu, Y.P. Poh, andA.K.C. Ng. Development of an intelligenttechnique for traffic network incident de-tection. Engineering Applications of Ar-tificial Intelligence, 13(3):311–322, 2000.

[126] P.D. Surry and N.J. Radcliffe. Inocula-tion to initialise evolutionary search. InT.C. Fogarty, editor, Evolutionary Com-puting: AISB Workshop, number 1143in Lecture Notes in Computer Science,pages 269–285. Springer-Verlag, 1996.

[127] T. Taguchi, T. Yokota, and M. Gen. Re-liability optimal design problem with in-terval coefficients using hybrid genetic al-gorithms. Computers & Industrial Engi-neering, 35(1–2):373–376, 1998.

[128] A.P. Topchy, O.A. Lebedko, and V.V.Miagkikh. Fast learning in multilayerednetworks by means of hybrid evolution-ary and gradient algorithms. In Proceed-ings of International Conference on Evo-lutionary Computation and its Applica-tions, pages 390–398, June 1996.

[129] R. Torres-Velazquez and V. Estivill-Castro. A memetic algorithm instan-tiated with selection sort consistent-ly finds global optima for the error-correcting graph isomorphism. In XinYao, editor, Proceedings of the IEEE2002 Congress on Evolutionary Computa-tion, CEC’02, May 12-17, 2002, Honolu-lu, Hawaii, USA, pages 1958–1963, 2002.

[130] A.J. Urdaneta, J.F. Gomez, E. Sorrenti-no, L. Flores, and R. Dıaz. A hybrid ge-netic algorithm for optimal reactive pow-er planning based upon successive lin-ear programming. IEEE Transactions onPower Systems, 14(4):1292–1298, 1999.

[131] L. Wang and J. Yen. Extracting fuzzyrules for system modeling using a hybridof genetic algorithms and kalman filter.Fuzzy Sets and Systems, 101(3):353–362,1999.

[132] J.P. Watson, S. Rana, L.D. Whitley, andA.E. Howe. The impact of approxi-mate evaluation on the performance ofsearch algorithms for warehouse schedul-ing. Journal of Scheduling, 2(2):79–98,1999.

[133] R. Wehrens, C. Lucasius, L. Buydens,and G. Kateman. HIPS, A hybridself-adapting expert system for nuclearmagnetic resonance spectrum interpreta-tion using genetic algorithms. Analyti-ca Chimica ACTA, 277(2):313–324, May1993.

[134] P. Wei and L.X. Cheng. A hybrid ge-netic algorithm for function optimization.Journal of Software, 10(8):819–823, 1999.

[135] X. Wei and F. Kangling. A hybrid geneticalgorithm for global solution of nondiffer-entiable nonlinear function. Control The-ory & Applications, 17(2):180–183, 2000.

[136] D.H. Wolpert and W.G. Macready.No free lunch theorems for optimiza-tion. IEEE Transactions on EvolutionaryComputation, 1(1):67–82, 1997.

[137] I.C. Yeh. Hybrid genetic algorithms foroptimization of truss structures. Com-puter Aided Civil and Infrastructure En-gineering, 14(3):199–206, 1999.

[138] W.-C. Yeh. A memetic algorithm for themin k-cut problem. Control and Intelli-gent Systems, 28(2):47–55, 2000.

[139] M. Yoneyama, H. Komori, and S.Naka-mura. Estimation of impulse responseof vocal tract using hybrid geneticalgorithm-a case of only glottal source.Journal of the Acoustical Society ofJapan, 55(12):821–830, 1999.

[140] I. Zelinka, V. Vasek, K. Kolomaznik,P. Dostal, and J. Lampinen. Memetic al-gorithm and global optimization of chem-ical reactor. In PC Control 2001, 13th In-ternational Conference on Process Con-trol, High Tatras, Slovakia, 2001.