INGENIERÍA TÉCNICA DE TELECOMUNICACIÓN SISTEMAS ELECTRÓNICOS PROYECTO FIN DE CARRERA...

125

Transcript of INGENIERÍA TÉCNICA DE TELECOMUNICACIÓN SISTEMAS ELECTRÓNICOS PROYECTO FIN DE CARRERA...

INGENIERÍA TÉCNICA DE TELECOMUNICACIÓN

SISTEMAS ELECTRÓNICOS

PROYECTO FIN DE CARRERA

Implementación y análisis de comités de ELM (Extreme Learning Machine)

AUTOR:

D. JORGE BALAGUER MARTINEZ DE CASTRO

DIRECTOR:

D. EMILIO SORIA OLIVAS

Tribunal:

Presidente:

Vocal 1º:

Vocal 2º:

Vocal 3º:

CALIFICACIÓN:.................................

FECHA:

II

INDICE GENERAL

Objetivos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . V Capítulo 1: Introducción. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1

1.1 Redes neuronales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 1.1.1 Revisión histórica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 1.1.2 Definición de redes neuronales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 1.1.3 Ventajas de las redes neuronales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 1.1.4 Arquitecturas neuronales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

1.1.4.1 Según el número de capas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 1.1.4.2 Según el número de conexiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 1.1.4.3 Según el grado de conexión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

1.1.5 Métodos de aprendizaje . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 1.1.6 Aplicaciones de las redes neuronales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

1.2 ELM y aplicaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 Capítulo 2: Perceptrón multicapa (MLP), Extreme Learning Machine (ELM) y comité ELM. . . 15

2.1 Teoría MLP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 2.1.1 Entrenamiento del MLP. Algoritmo de Backpropagation . . . . . . . . . . . . . . . . 17

2.2 Algoritmo ELM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 2.3 Algoritmo Comité ELM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25

Capítulo 3: Análisis y resultados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29

3.1 Bases de datos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 3.1.1Abalone . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 3.1.2 Auto Price . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31 3.1.3 Bank domain . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31 3.1.4 California housing . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31 3.1.5 Census (house8l) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31 3.1.6 Computer activity . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32 3.1.7 Delta ailerons . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32 3.1.8 Delta elevators . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32 3.1.9 Machine CPU . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32 3.1.10 Servo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32 3.1.11 Stocks domains . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32 3.1.12 Triazines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32 3.1.13 Wisconsin breast cáncer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32

III

3.2 Condiciones iniciales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 3.3 Análisis algoritmo backpropagation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34

3.3.1 Estandarización de datos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35 3.3.2 Preprocesado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35 3.3.3 Entrena redes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35 3.3.4. Analiza redes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35

3.4 Análisis algoritmo ELM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36 3.5 Análisis algoritmo comité ELM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38 3.6 Resultados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41

3.6.1 Abalone . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42 3.6.2 Auto Price . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47 3.6.3 Bank domains . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52 3.6.4 California housing . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57 3.6.5 Census (house8l) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62 3.6.6 Computer activity . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67 3.6.7 Delta ailerons . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72 3.6.8 Delta elevators . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77 3.6.9 Machine CPU 82 3.6.10 Servo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87 3.6.11 Stocks domains . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92 3.6.12 Triazines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97 3.6.13 Wisconsin breast cancer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102

Capítulo 4: Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109

4.1 Conclusiones generales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109 4.2 Proyección futura . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110 4.3 Valoración personal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111

Bibliografia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113

V

OBJETIVOS

El objetivo de este proyecto es comparar el funcionamiento de comités de ELM (un nuevo tipo de aprendizaje neuronal) combinados mediante mínimos cuadrados frente a otras aproximaciones clásicas (perceptrones multicapa, MLP). Para ello se usarán datos estándar que se tienen en diferentes bases de datos.

1

CAPITULO 1 INTRODUCCION

El hombre se ha caracterizado siempre por su búsqueda constante de nuevas vías para mejorar sus condiciones de vida. Estos esfuerzos le han servido para reducir el trabajo en aquellas operaciones en las que la fuerza juega un papel primordial. Los progresos obtenidos han permitido dirigir estos esfuerzos a otros campos, como por ejemplo, a la construcción de máquinas calculadoras que ayuden a resolver de forma automática y rápida determinadas operaciones que resultan tediosas cuando se realizan a mano. Estas máquinas permiten implementar fácilmente algoritmos para resolver multitud de problemas que antes resultaban engorrosos de resolver.

Los desarrollos actuales de los científicos se dirigen al estudio de las capacidades humanas como una fuente de ideas para el diseño de las nuevas máquinas. Así, la inteligencia artificial es un intento por descubrir y describir aspectos de la inteligencia humana que pueden ser simulados mediante máquinas. Esta disciplina se ha desarrollado fuertemente en los últimos años teniendo aplicación en algunos campos como visión artificial, demostración de teoremas, procesamiento de información expresada mediante lenguajes humanos, etc...

Las redes neuronales son otra forma de emular ciertas características propias de los humanos, como la capacidad de memorizar y de asociar hechos. Si se examinan con atención aquellos problemas que no pueden expresarse a través de un algoritmo, se observará que todos ellos tienen una característica en común: la experiencia. El hombre es capaz de resolver estas situaciones acudiendo a la experiencia acumulada. Así, parece claro que una forma de aproximarse al problema consiste en la construcción de sistemas que sean capaces de reproducir esta característica humana.

En definitiva, las redes neuronales no son más que un modelo artificial y simplificado del cerebro humano, que es el ejemplo más perfecto del que disponemos para un sistema que es capaz de adquirir conocimiento a través de la experiencia. Una red neuronal es "un nuevo sistema para el tratamiento de la información, cuya unidad básica de procesamiento está inspirada en la célula fundamental del sistema nervioso humano: la neurona".

2

La neurona es la célula fundamental y básica del sistema nervioso. Es una célula alargada, especializada en conducir impulsos nerviosos. En las neuronas se pueden distinguir tres partes fundamentales, que son:

Soma o cuerpo celular: corresponde a la parte más voluminosa de la neurona. Aquí se puede observar una estructura esférica llamada núcleo. Éste contiene la información que dirige la actividad de la neurona. Además, en el soma se encuentra el citoplasma. En él se ubican otras estructuras que son importantes para el funcionamiento de la neurona.

Dendritas: son prolongaciones cortas que se originan del soma neural. Su función es

recibir impulsos de otras neuronas y enviarlas hasta el soma de la neurona.

Axón: es una prolongación única y larga. En algunas ocasiones, puede medir hasta un metro de longitud. Su función es sacar el impulso desde el soma neuronal y conducirlo hasta otro lugar del sistema.

Imagen 1.1: Neurona.

Para poder entender la constitución de una neurona biológica debemos representarla mediante un diagrama de bloques y poder así analizarla. Una representación de la neurona podría ser ésta:

3

Imagen 1.2: Modelo de una neurona.

En este esquema nos encontramos con los siguientes elementos:

Pesos sinápticos: son los valores Wnk, estos coeficientes son los parámetros del sistema que controlan con nuestro sistema.

Sumador: determina la suma promediada de las entradas.

Función no lineal: se aplica a la salida del sumador. También se le conoce como función de activación. Entre todas las posibles variantes, podemos mencionar las más destacadas: función signo, sigmoide y función gaussiana.

1.1 REDES NEURONALES

1.1.1 Revisión histórica

Antes de definir las redes neuronales hagamos un repaso a su historia:

1936 - Alan Turing. Fue el primero en estudiar el cerebro como una forma de ver el mundo de la computación. Sin embargo, los primeros teóricos que concibieron los fundamentos de la computación neuronal fueron Warren McCulloch, un neurofisiólogo, y Walter Pitts, un matemático, quienes, en 1943, lanzaron una teoría acerca de la forma de trabajar de las neuronas (A logical calculus of ideas immanente in nervous activity, Boletín de Matemática y Biofísica 5: 115-133). Ellos modelaron una red neuronal simple mediante circuitos eléctricos.

1949 - Donald Hebb. Escribió un importante libro: The organization of behavior, en el que se establece una conexión entre psicología y fisiología. Fue el primero en explicar los procesos del aprendizaje (que es el elemento básico de la inteligencia humana) desde un punto de vista psicológico, desarrollando una regla de como el aprendizaje ocurría. Aun hoy, este es el fundamento de la mayoría de las funciones de aprendizaje que pueden hallarse en una red

4

neuronal. Su idea fue que el aprendizaje ocurría cuando ciertos cambios en una neurona eran activados. También intentó encontrar semejanzas entre el aprendizaje y la actividad nerviosa. Los trabajos de Hebb formaron las bases de la Teoría de las Redes Neuronales.

1950 - Karl Lashley. En sus series de ensayos, encontró que la información no era almacenada en forma centralizada en el cerebro sino que era distribuida encima de él.

1956 - Congreso de Dartmouth. Este Congreso frecuentemente se menciona para indicar el nacimiento de la inteligencia artificial.

1957 - Frank Rosenblatt. Comenzó el desarrollo del Perceptrón. Esta es la red neuronal más antigua; utilizándose hoy en día para aplicación como identificador de patrones. Este modelo era capaz de generalizar, es decir, después de haber aprendido una serie de patrones podía reconocer otros similares, aunque no se le hubiesen presentado en el entrenamiento. Sin embargo, tenía una serie de limitaciones, por ejemplo, su incapacidad para resolver el problema de la función OR-exclusiva y, en general, era incapaz de clasificar clases no separables linealmente.

1959 - Frank Rosenblatt: Principios de Neurodinámica. En este libro confirmó que, bajo ciertas condiciones, el aprendizaje del Perceptrón convergía hacia un estado finito (Teorema de Convergencia del Perceptrón).

1960 - Bernard Widrow/Marcian Hoff. Desarrollaron el modelo Adaline (Adaptative Linear Neuron). Esta fue la primera red neuronal aplicada a un problema real (filtros adaptativos para eliminar ecos en las líneas telefónicas) que se ha utilizado comercialmente durante varias décadas. 1967 - Stephen Grossberg. A partir de sus conocimientos fisiológicos, ha escrito numerosos libros y desarrollado modelo de redes neuronales. Realizó una red: Avalancha, que consistía en elementos discretos con actividad que varía en el tiempo que satisface ecuaciones diferenciales continuas, para resolver actividades como reconocimiento continuo de habla y aprendizaje de los brazos de un robot.

1969 - Marvin  Minsky/Seymour  Papert.  En  este  año  casi  se  produjo  la  “muerte  abrupta”  de  las Redes Neuronales; ya que Minsky y Papert probaron (matemáticamente) que el Perceptron no era capaz de resolver problemas relativamente fáciles, tales como el aprendizaje de una función no-linealmente separable. Esto demostró que el Perceptron era muy débil, dado que las este tipo de problemas son extensamente empleadas en computación y en los problemas del mundo real.

1974 - Paul Werbos. Desarrolló la idea básica del algoritmo de aprendizaje de propagación

hacia atrás (backpropagation); cuyo significado quedó definitivamente aclarado en 1985.

1977 - Stephen Grossberg. Teoría de Resonancia Adaptada (TRA). La Teoría de Resonancia Adaptada es una arquitectura de red que se diferencia de todas las demás previamente inventadas. La misma simula otras habilidades del cerebro: memoria a largo y corto plazo.

5

1985 - John Hopfield. Provocó el renacimiento de las redes neuronales con su libro: “Computación  neuronal  de  decisiones  en  problemas  de  optimización.”  

1986 - David Rumelhart/G. Hinton. Redescubrieron el algoritmo de aprendizaje de propagación hacia atrás (backpropagation).

1988 – Broomhead/ Lowe. Diseño de redes neuronales en capas usando RBF ( Radial Basis

Functions). Las redes basadas en RBF construyen sus modelos con funciones de activación que son diferente tanto en la capa oculta como la de salida. Una red RBF está diseñada con neuronas en la capa oculta activadas mediante funciones radiales de carácter no lineal con sus centros gravitacionales propios y en la capa de salida mediante funciones lineales.

1991 – Robinson/ Fallside. Modelos predictivos basados en redes neuronales recurrentes de tiempo discreto.

1993 – Eric Wan. Generalizo las redes neuronales orientadas a series temporales. Wan considero los pesos como filtros de tipo IIR (Infinite Impulse Response).

1996 - La NASA y la Fuerza Aérea de los EE.UU. presentaron un avión propulsado a chorro equipado con las tecnologías más avanzadas para el control del vuelo que mostraron un sistema computarizado (automatizado) de control del vuelo que "aprende" mientras que vuela.

1996 – Los Support Vector Machines (SVM’s) fueron inventados por Vladimir Vapnik, es un método para la creación de funciones de un conjunto de datos entrenados. La función puede ser una función de clasificación (la salida es binaria) o la función puede ser una función de regresión general.

2004 – P. Naïm, P. Wuilleim, P. Leray, O. Pourret, A. Becker, Réseaux bayésiens. Una red bayesiana es un método probalístico multivariado que realciona un conunto de variables aleatorias mediante un grafo dirigido que indica explícitamente influencia causal.

2005 – Huang. Desarrollo la teoría ELM (Extreme Learning Machine).

En la actualidad son numerosos los trabajos que se realizan y se publican cada año, las aplicaciones surgen y las empresas que lanzan al mercado productos nuevos, tanto hardware como software (sobre todo para simulación).

1.1.2 Definición de redes neuronales

Las redes neuronales son una técnica de aprendizaje máquina capaz de aprender de su entorno, adaptando su funcionamiento a las variaciones de éste. A principios de siglo XX se hicieron descubrimientos acerca de la fisiología y funcionamiento del cerebro. Se desarrolló la idea de neurona como unidad funcional y estructural del cerebro.

6

Estas neuronas se organizan en complejas estructuras, con un elevado número de interconexiones a nivel de la corteza cerebral. Este elevado número de conexiones, junto con la capacidad de operar de forma paralela, permite al cerebro realizar tareas que necesitan un elevado número de cálculos en tiempo mucho menor que lo haría una computadora.

Las redes neuronales artificiales son procesadores de información inspirados en el funcionamiento de los sistemas neuronales biológicos. Una de las características de las redes neuronales artificiales es que son procesadores distribuidos con una predisposición a adquirir conocimiento en forma de experiencia. Estos procesadores tienen una analogía importante respecto al cerebro en dos aspectos:

La experiencia es adquirida a través de un aprendizaje controlado por un algoritmo.

El conocimiento adquirido (experiencia) se almacena en las conexiones existentes entre las neuronas, llamadas pesos sinápticos.

Las redes de neuronas artificiales son capaces de aprender y generalizar el conocimiento adquirido, por lo que tienen la capacidad de funcionar correctamente para una entrada que no formaba parte de los datos a partir los cuales produjo el entrenamiento. Esta propiedad les da la capacidad de solucionar un amplio tipo de problemas, entre los cuales cabe destacar problemas de clasificación, predicción, reconocimiento de patrones, etc...

1.1.3 Ventajas de las redes neuronales

Para poder resolver este tipo de problemas debemos saber las ventajas que las redes neuronales poseen [Haykin-96], [Haykin-98]:

No linealidad: al ser la neurona un elmento no lineal, su interconexión también lo será; de forma que las rede neuronales artificiales pueden modelizar sistemas no lineales.

Son sistemas tolerantes a fallos: comparados con los sistemas computacionales tradicionales, los cuales pierden su funcionalidad en cuanto sufren un pequeño error de memoria, en las redes neuronales, si se produce un fallo en un pequeño número de neuronas, aunque el comportamiento del sistema se ve influenciado, el error es mínimo.

Capacidad de establecer relaciones entrada-salida sin conocimiento a priori de esta

relación: la red en su proceso de aprendizaje establece las relaciones entrada-salida. En este proceso de aprendizaje se muestra a la red un cúmulo de entradas y la salida deseada para estos valores; este tipo de aprendizaje se conoce como aprendizaje supervisado.

7

Implementación en VLSI: el aumento continuo de la densidad de integración hace que

la tecnología VLSI se adapte muy bien a la implementación de sistemas de tiempo real, simulando sistemas biológicos mediante elementos de silicio [Mead-88].

1.1.4 Arquitecturas neuronales

Se denomina arquitectura a la topología o estructura en la que las distintas neuronas constituyentes de la red neuronal se asocian. En una red neuronal, los nodos se conectan por medio de sinapsis; esta estructura de conexiones sinápticas determina el comportamiento de la red. Las conexiones sinápticas son direccionales, es decir, la información sólo puede fluir en un sentido. En general, las neuronas se suelen agrupar en unidades estructurales denominadas capas. Dentro de una capa las neuronas pueden agruparse formando grupos neuronales. En una misma capa o agrupación, las neuronas suelen ser del mismo tipo. El conjunto de una o más capas constituye una red neuronal.

Figura 1.3: Capas de una red.

Podemos distinguir tres tipos de capas:

Capa de entrada: compuesta por neuronas que reciben datos o señales procedentes del entorno.

Capa oculta: aquella que no tiene una conexión directa con el entorno.

Capa de salida: aquella cuyas neuronas proporcionan la respuesta de la red neuronal.

Las conexiones entre las neuronas pueden ser excitadoras o inhibidoras, según el signo del peso sináptico asociado a la conexión. Si dicho peso sináptico es negativo, entonces tendremos una conexión inhibidora si, por el contrario, éste es positivo estaremos frente a una conexión excitadora. Esta distinción no suele usarse demasiado, ya que el peso y su magnitud vendrán determinados en cada instante por el algoritmo de entrenamiento.

8

Las conexiones pueden clasificarse también en conexiones intracapa y conexiones intercapa. Las primeras se corresponden con las conexiones entre las neuronas de una misma capa y, la segunda, se corresponde a las conexiones entre neuronas de distintas capas.

1.1.4.1 Según el número de capas

Una vez vistos los elementos básicos de toda red neuronal, se pasará a enumerar las diferentes estructuras en las que dichos elementos se pueden asociar.

Red neuronal monocapa: están formadas por una sóla capa, y todas las neuronas se encuentran conectadas en ella. Su tarea principal es la autoasociación [Rosenblatt-59].

Figura 1.4: Red neuronal monocapa.

Redes neuronales multicapa: al contraria que la anterior, esta red está formada por varias capas. Para distinguir cada capa, habrá que mirar el origen de la señal que entra en una neurona y hacia donde va la señal de salida. Lo más normal es que la señal recibida de origen sea emitida desde una capa anterior y la señal que emite de salida vaya hacia una capa posterior. Estas conexiones se denominan conexiones hacia adelante [ Minsky -69].

Figura 1.5: Esquema de una red neuronal multicapa.

9

1.1.4.2 Según el tipo de conexiones

Una red neuronal se determina por la neurona y los pesos. El comportamiento de la red depende en gran medida del comportamiento de la matriz de pesos. Existen tres tipos de capas de neuronas: entrada, salida y oculta. Entre dos capas de neuronas existe una red de pesos de conexión, que puede ser de los siguientes tipos:

Conexión hacia delante: es la de red de conexión en la cual, los datos de las neuronas de una capa inferior son propagados hacia las neuronas de la capa superior.

Conexión hacia atrás: esta conexión realiza la operación inversa a la conexión hacia delante, es decir, los datos de las neuronas de una capa superior son llevados a otra de capa inferior.

Conexión lateral: un ejemplo típico de este tipo de conexión   es   “el   ganador   toma  todo”,  que  cumple un papel importante en la elección del ganador.

Conexión lateral: un ejemplo típico de este tipo de conexión   es   “el   ganador   toma  todo”,  que  cumple  un  papel  importante  en  la  elección  del  ganador.

Conexión de retardo: es la conexión en la cual se le incorporan unos elementos de retardo para implementar modelos dinámicos y temporales, es decir, modelos que precisa memoria.

Puede darse el caso que las redes sean de una capa, y su modelo de pesos sea hacia atrás o bien multicapa hacia delante. Como también es posible, conectar varias redes de una sola capa para dar lugar a redes más grandes.

Las conexiones entre los nodos de una red neuronal está relacionada con la forma en que las salidas de las neuronas están canalizadas para convertirse en entradas de otras neuronas.

1.1.4.3 Según el grado de conexión

Redes neuronales totalmente conectadas: en este caso las neuronas de una capa se encuentran conectadas con las de la capa siguiente (redes no recurrentes) o con las de la anterior (redes recurrentes).

Redes parcialmente conectadas: en este caso no se da la conexión total entre neuronas de diferentes capas.

10

1.1.5 Métodos de aprendizaje

En una red neuronal es necesario definir un procedimiento por el cual las conexiones del dispositivo varíen para proporcionar la salida deseada (algoritmo de aprendizaje). Los métodos de aprendizaje se pueden dividir en las siguientes categorías [Rojas-95]:

Figura 1.7: Métodos de aprendizaje.

El aprendizaje puede ser supervisado o no supervisado. En los algoritmos de aprendizaje no supervisado no se conoce la señal que debe dar la red neuronal (señal seseada). Este tipo de red organiza por ella misma las diferentes entradas según sus características. Este tipo de aprendizaje se usa para agrupar patrones.

En el aprendizaje supervisado se presenta a la red un conjunto de patrones, junto con la salida deseado, u objetivo, e iterativamente ésta ajusta sus pesos hasta que la salida tiende a ser la deseada, utilizando para ello información detallada del error que se comete en cada paso. De este modo, la red es capaz de estimar relaciones entrada/salida sin necesidad de proponer una cierta forma funcional de partida. Este aprendizaje admite dos tipos de variantes:

Aprendizaje por refuerzo: si la salida es igual que la salida deseada es la que corresponde,es decir, nuestra información es de tipo booleana (verdadero o falso).

Aprendizaje por corrección: conocemos la magnitud del error y ésta determina la magnitud en el cambio de los pesos.

11

1.1.6 Aplicaciones de las redes neuronales

Las redes neuronales pueden utilizarse en un gran número y variedad de aplicaciones. Se pueden desarrollar redes neuronales en un periodo de tiempo razonable, con la capacidad de realizar tareas concretas mejor que otras tecnologías. Cuando se implementan mediante hardware (redes neuronales en chips VLSI), presentan una alta tolerancia a fallos del sistema y proporcionan un alto grado de paralelismo en el procesamiento de datos. Esto posibilita la inserción de redes neuronales de bajo coste en sistemas existentes y recientemente desarrollados.

Hay muchos tipos diferentes de redes neuronales; cada uno de los cuales tiene una aplicación particular más apropiada; algunas aplicaciones comerciales son [Matich-01]:

Biología:

Aprender más acerca del cerebro y otros sistemas. Obtención de modelos de la retina.

Empresa:

Evaluación de probabilidad de formaciones geológicas y petrolíferas. Identificación de candidatos para posiciones específicas. Explotación de bases de datos. Optimización de plazas y horarios en líneas de vuelo. Optimización del flujo del tránsito controlando convenientemente la

temporización de los semáforos. Reconocimiento de caracteres escritos. Modelado de sistemas para automatización y control.

Medio ambiente:

Analizar tendencias y patrones. Previsión del tiempo.

Finanzas:

Previsión de la evolución de los precios. Valoración del riesgo de los créditos. Identificación de falsificaciones. Interpretación de firmas.

Manufacturación:

Robots automatizados y sistemas de control (visión artificial y sensores de presión, temperatura, gas, etc.).

Control de producción en líneas de procesos. Inspección de la calidad.

12

Medicina:

Analizadores del habla para ayudar en la audición a sordos profundos. Diagnóstico y tratamiento a partir de síntomas y/o de datos analíticos

(electrocardiograma, encefalogramas, análisis sanguíneo, etc.). Monitorización en cirugías. Predicción de reacciones adversas en los medicamentos. Entendimiento de la causa de los ataques cardíacos.

Militares:

Clasificación de las señales de radar. Optimización del uso de recursos escasos. Reconocimiento y seguimiento en el tiro al blanco.

La mayoría de estas aplicaciones consisten en realizar los siguientes pasos: un reconocimiento de patrones, buscar un patrón en una serie de ejemplos, clasificar patrones, completar una señal a partir de valores parciales o reconstruir el patrón correcto partiendo de uno distorsionado.

Desde el punto de vista de los casos de aplicación, la ventaja de las redes neuronales reside en el procesado paralelo, adaptativo y no lineal.

El dominio de aplicación de las redes neuronales también se puede clasificar de la siguiente forma: asociación y clasificación, regeneración de patrones, regresión y generalización y optimización.

1.2 ELM Y APLICACIONES

Las redes neuronales han sido empleadas con éxito en múltiples aplicaciones durante las últimas décadas. No obstante, surgen inconvenientes durante el proceso de optimización dado al elevado tiempo de cálculo, este ha sido uno de los principales cuello de botella en su aplicación. Muchos trabajos han sido desarrollados para obtener rápidos y precisos algoritmos de entrenamiento supervisado para arquitecturas neuronales del tipo Feed-forward (con una sola capa oculta), siendo uno de los más  eficientes y actuales el método conocido como ELM (Extreme

Learning Machine) [Huang-05].

El algoritmo ELM está fundamentado en que un perceptrón multicapa (MLP) de una sola capa oculta compuesto por H neuronas, cuyos pesos de entrada están inicializados aleatoriamente, pueden aprender N distintos casos de entrenamiento produciendo un error cero, siendo  N  ≥  H,  pudiendo aproximar cualquier tipo de función continua. Tras inicializar de manera aleatoria los pesos de entrada, un MLP puede ser considerado como un sistema lineal y los pesos

13

de salida pueden obtenerse de manera analítica mediante el cálculo de la pseudo-inversa de la matriz de las salidas de las H neuronas ocultas para un determinado conjunto de entrenamiento [Huang-05].

Las aplicaciones en las que se suelen usar ELM son problemas de clasificación y regresión. Algunos ejemplos de aplicaciones encontrados en diversos artículos son:

Calculo de las pérdidas de electricidad en los países en desarrollo. Consiste en extraer patrones de comportamiento de los clientes de datos históricos de consumo de kW/h [Nizar-08].

Detección de cáncer de cuello uterino en Malasia; se usa como herramienta de clasificación [Wang-05].

Clasificación de las secuencias de proteínas con diez clases de superfamilias [Wang-05].

La mamografía digital es el método preferido para la detección precoz del cáncer de

mama. Sin embargo, en la mayoría de los casos, es muy difícil distinguir masas benignas y malignas sin una biopsia, por lo tanto, un diagnóstico equivocado siempre es posible. El algoritmo ELM se utiliza para clasificar las masas sospechosas en mamografías digitalizadas disponibles en base de datos [Vani-10].

Clasificación de las especies de plantas a través de bases de datos. Tiene en cuenta las texturas de las hojas para clasificar el tipo de planta [Zhai-08].

A medida que aumenta la producción de música digital, se debe organizar en varias

clases para facilitar su búsqueda y operaciones de recuperación. Varios clasificadores pueden ser utilizados para llevar a cabo la clasificación [Emmanuel-06].

La correcta estimación del coeficiente de fricción en aplicaciones de automoción es de

suma importancia en el diseño de sistemas eficaces de seguridad de los vehículos [Kong-08].

Con el rápido crecimiento de la industria del crédito, los clasificadores de puntuación de crédito están siendo ampliamente utilizados para la evaluación de crédito de admisión. Los clasificadores efectivos han sido considerados como un tema crítico, con los departamentos relacionados tratando de recoger grandes cantidades de datos para evitar tomar la decisión equivocada. Encontrar un clasificador eficaz es importante porque ayudará a las personas tomar decisiones objetivas en lugar de que ellos tengan que depender únicamente de la experiencia intuitiva [Li-09].

15

CAPITULO 2 PERCEPTRON MULTICAPA (MLP), EXTREME LEARNING MACHINE (ELM) Y COMITE ELM

El Perceptrón fué propuesto por Rosenblatt en 1959 en su obra Principles of

Neurodynamics. Los Perceptrones son redes de propagación hacia adelante basados en unidades binarias. En una forma sencilla, el Perceptrón consta de una capa de entrada de n elementos, dichas entradas, se propagarán a una capa de m unidades actuadoras y de estas a una sola unidad de salida. El objetivo de esta operación es aprender a dar una transformación dada usando muestras de aprendizaje, con entrada x y su correspondiente salida y. En la definición original la actividad de las unidades actuadoras puede ser cualquier función f de la capa de entrada, pero el procedimiento de aprendizaje sólo ajusta las conexiones de la unidad de salida. La razón para esto es que no hay una fórmula para encontrar el ajuste de conexiones entre la capa de entrada y la función f. La unidad de salida de un Perceptrón es un elemento lineal o elemento de umbral. La euforia inicial se convirtió en desilusión cuando se publico Perceptrons: An Introduction to

Computational Geometry [Minsky-69], en el cual se demostraban las deficiencias de los modelos del Perceptrón con funciones no lineales. Entonces surgió la idea de juntar varios perceptrones para poder tratar funciones no lineales.

La idea de combinar varios perceptrones simples para poder conseguir relaciones no lineales no es actual, y data de 1969 [Minsky -69], pero hasta que se consiguió delimitar un proceso de aprendizaje en 1986 [Rumelhart -86] que fuera capaz de modificar los pesos de la red de un modo eficiciente, el MLP quedó en mera teoría. A esta regla de aprendizaje se le llamó Algoritmo de Retropropagación y es, hoy en día, uno de los algoritmos de aprendizaje más utilizado y estudiado para todo tipo de redes.

EL perceptrón simple sólo puede realizar discriminaciones entre clases separables linealmente o aproximar funciones lineales. En el caso de utilizar la red como clasificador, un MLP sí que puede realizar discriminaciones no lineales; mientras que si se utiliza para un problema de regresión el MLP puede aproximar funciones no lineales de las variables de entrada.

16

2.1 TEORIA MLP

Un perceptrón multicapa consiste en un conjunto de neuronas de entrada conocidas como capa sensorial o de entrada, una o más capas ocultas de computación y una capa de salida. La señal de entrada se propaga a través de la red hacia adelante capa a capa. Veamos su estructura:

Imagen 2.1: MLP con 4 neuronas de entrada, 3 ocultas y 1 de salida.

Un MLP tiene las siguientes características [Haykin-94]:

El modelo matemático de cada neurona de la red neuronal incluye una función de activación no lineal. Normalmente se utiliza como función de activación la función sigmoide.

La red tiene una, o más, capas de neuronas ocultas, las cuales no forman parte ni de la entrada ni de la salida de la red. Estas capas ocultas facilitan a la red el aprendizaje de problemas complejos, extrayendo progresivamente características significativas de los patrones de entrada.

La red tiene un alto nivel de conectividad determinado por las sinapsis de la red.

La capacidad de aprender de la experiencia mediante el entrenamiento del MLP y, por tanto, su gran poder computacional, deriva de la combinación de estas tres características. Estas mismas cualidades provocan limitaciones en el conocimiento del comportamiento de la red; la combinación de las distintas no linealidades junto con la altísima conectividad presente en el MLP hace que el análisis teórico sea difícil; además el uso de las capas ocultas hace que el proceso de aprendizaje sea más complicado de visualizar.

17

En la figura 2.1 podemos ver que cada neurona de cada capa está conectada a todas las neuronas de la capa anterior. La señal avanza por las capas del MLP hacia la capa de salida; en este tipo de red se distinguen dos tipos de señales [Haykin-94]:

Señales función: se trata de las señales que empiezan a avanzar a través de la red desde la entrada, neurona a neurona, hasta llegar a la capa de salida. Se les llama señales de funcion debido a que la salida de la red es una función de la entrada y de los pesos asociados a cada neurona.

Señales de error: se originan en una neurona de la capa de salida de la red; y se propaga hacia atrás, capa a capa, a través de la red. Son dependientes del error que comete el perceptrón respecto al funcionamiento esperado.

El número de neuronas de la capa de entrada y salida viene fijado por el problema. Sin embargo no existe ninguna regla teórica que indique el número de capas ocultas o el número de neuronas a utilizar en cada capa. Puede parecer que la mejor solución es utilizar una red neuronal con un elevado número de capas ocultas y de neuronas por capa por ser así más potente; pero en las redes con arquitecturas complejas se hace más complicado entender las relaciones entre las distintas clases, además generaliza peor. Por ello, normalmente, lo conveniente es buscar la red más simple que mejor solucione nuestro problema.

Entrenar un MLP es similar a entrenar una neurona, la diferencia radica en que ahora la salida de la red es una función no lineal de la entrada, gracias a las no linealidades introducidas en las capas ocultas. El algoritmo que permite el entrenamiento de un MLP se llama algoritmo Back-

Propagation, éste permite ajustar los pesos de una red con capas de neuronas ocultas.

2.1.1 Entrenamiento del MLP. Algoritmo de Backpropagation

La figura 2.2 define la notación utilizada para formular el algoritmo de retropropagación: los índices 𝑖, 𝑗, 𝑘 se refieren a diferentes neuronas de la red, de forma que la neurona 𝑗 ha de estar en una capa oculta; los pesos que conectan la salida de la neurona i con una entrada de la neurona 𝑗 se denominan 𝑤 ; además la suma pesada que realiza la neurona 𝑗 antes de aplicar la función no lineal se denomina 𝑣 (𝑛), el índice 𝑛 índica las distintas iteraciones del algoritmo.

18

Figura 2.2: Notación utilizada para el algoritmo Back-propagation.

Aquí 𝑑 (𝑛) es la salida esperada para la neurona 𝑘 en la iteración 𝑛, así como 𝑦 (𝑛) la salida de dicha neurona en la misma iteración y, suponiendo que la neurona 𝑘 está en la capa de salida; la señal de error a la salida de la neurona 𝑘 se define como:

𝑒 (𝑛) = 𝑑 (𝑛) −  𝑦 (𝑛) Ec. 2.1

En el algorítmo Back-propagation se define una función de coste que hay que minimizar; es el error cuadrático definido como (donde 𝐶 incluye todas las neuronas de la capa de salida):

ℇ(𝑛) = ∑ 𝑒  ∈   (𝑛) Ec. 2.2

ℇ =   ∑ ℇ(𝑛) Ec. 2.3

El error cuadrático es función de los pesos sinápticos y los umbrales (wo) de la red. Para un conjunto de datos de entrenamiento, ℇ representa la función de coste que evalúa el aprendizaje de la red. El objetivo del aprendizaje es minimizar esa función, para ello hay que ajustar los pesos de las conexiones de la red de acuerdo a los errores cometidos para los patrones del conjunto de entrenamiento. Existen dos formas de entrenamiento: modificando los valores de los pesos patrón a patrón (tipo online); y modificando los valores de los pesos para minimizar la funcion coste para todo el conjunto de entrenamiento (tipo batch) [Haykin-94]. En principio supondremos que el aprendizaje se realiza patrón a patrón.

19

La figura 2.3 muestra el flujo de señales de una neurona de salida alimentada por las salidas de las m neuronas de la capa anterior, la suma pesada 𝑣 (𝑛) y la salida de la función de activación asociada a la neurona k son:

𝑣 (𝑛) =  ∑ 𝑤 𝑦 (𝑛) Ec. 2.4

𝑦 (𝑛) = θ(𝑣 (𝑛)) Ec. 2.5

El algoritmo aplica una corrección al peso ∆𝑤 (𝑛) proporcional a la derivada parcial del error cuadrático medio (ℇ) respecto de dicho pesos. Aplicando la regla de la cadena en derivadas parciales llegamos a [Haykin-94]:

ℇ( )( ) =   ℇ( )

( )( )( )

( )( )

( )( ) Ec. 2.6

Figura 2.3:  Diagrama  de  flujo  para  una  neurona  “k”  de  la  capa  de  salida  de  un  MLP.

Estas derivadas parciales pueden obtenerse derivando las ecuaciones 2.2, 2.1, 2.5, 2.4, llegando a:

ℇ( )( ) =   𝑒 (𝑛) Ec. 2.7

20

( )( ) = −1 Ec. 2.8

( )( ) =  𝜃 𝑣 (𝑛) Ec 2.9

( )( ) =  𝑦 (𝑛) Ec. 2.10

Por lo que de la expresión 2.6 resulta:

ℇ( )( ) =  −𝑒 (𝑛) ∙  𝜃 𝑣 (𝑛) ∙  𝑦 (𝑛) Ec. 2.11

Siguiendo la regla delta, donde 𝜂 es el parámetro de aprendizaje del algoritmo Back-

Propagation [Haykin-94], y definiendo el gradiente local de la neurona 𝑘 en la iteración 𝑛 como:

𝛿 (𝑛) =  −𝑒 (𝑛) ∙  𝜃 𝑣 (𝑛) Ec 2.12

Se llega a:

∆𝑤 (𝑛) =  −𝜂   ⋅  𝛿 (𝑛) ⋅ 𝑦 (𝑛) Ec.2.13

Las ecuaciones anteriores denotan la importancia de la señal de error a la salida de la neurona 𝑘 para el cálculo del ajuste del peso 𝑤 . En este contexto podemos identificar dos casos distintos dependiendo de dónde esté dicha neurona. En el primer caso la neurona está en la capa de salida, de forma que conocemos la salida deseada y la salida de la neurona haciendo directo el cálculo de la actualización del peso; en el segundo caso, la neurona 𝑘 está en un nudo oculto. La salida que debe presentar una neurona en la capa oculta no está especificada directamente, de forma que hay que plantear un procedimiento para determinarla.

En el caso de que la neurona para la cual queremos actualizar un peso se encuentre en la capa de salida, conocemos la salida deseada y la salida de dicha neurona de forma que conocemos directamente la señal de error. Esto se corresponde con la figura 2.3 y, en consecuencia, podemos calcular el gradiente local 𝛿 (𝑛), según la ecuación 2.12.

21

Figura 2.4: Diagrama de flujo para una neurona oculta conectada a una salida.

Para el caso en que la neurona esté en una capa oculta, la salida deseada no está especificada externamente, complicándose el cálculo. Ahora, la señal de error de una neurona oculta, se determina recursivamente en función de las señales de error de las neuronas de la capa anterior a la que dicha   neurona   está   conectada.   La   figura   2.4  muestra   una   neurona   oculta   “j”  conectada  a  una  salida  “k”.  En  este  caso  el  peso  que  debemos  actualizar  es  el  𝑤 de la neurona “j”.  De  acuerdo  a  esta  figura  podemos  definir  el  gradiente  local  como:

𝛿 =  − ℇ ( )( )  

( )( ) Ec. 2.14

( )( ) =  𝜃 (𝑣 (𝑛)) Ec.2.15

ℇ ( )( ) =  ∑ 𝑒 (𝑛) ( )

( )( )( ) Ec. 2.16

Sustituyendo las ecuaciones 2.15, y 2.16 en 2.14, llegamos a:

𝛿 (𝑛) = ∑ 𝑒 (𝑛) ( )( )

( )( ) Ec. 2.17

Donde  el  sumatorio  recorre  las  neuronas  conectadas  a  la  salida  de  la  neurona  “j”,  se  llega  a:

22

𝛿 (𝑛) = 𝜃 𝑣 (𝑛) ∙  ∑ 𝛿 (𝑛)   ∙   𝑤 (𝑛) Ec. 2.18

Ahora podemos reformular la expresión que daba la corrección de los pesos como:

∆𝑤 (𝑛) =  𝜂   ⋅  𝛿 (𝑛) ⋅ 𝑦 (𝑛) Ec. 2.19

𝛿 (𝑛) cumple:

Si   la  neurona    ”j”  es  de  salida,  este  término  es   igual  al  producto  de   la  derivada  de   la  función de activación y el error cometido por esa neurona.

Si  la  neurona  “j”  es  oculta,  el  término  es  igual  al  producto  de  la  derivada  de  la  función  de activación y la suma pesada de los diferentes 𝛿 calculados para las neuronas de la capa inmediatamente superior a la que se encuentra la neurona.

Como consecuencia de todo lo expuesto en esta sección, el algoritmo de Back-Propagation

tiene dos fases [Haykin-94]:

Propagación hacia adelante: se determinan las salidas de la red y se calculan los errores cometidos al comparar dichas salidas con las señales deseadas.

Propagación hacia atrás: una vez determinados los errores de la capa de salida se calculan los gradientes locales para estas neuronas para, posteriormente, ir determinando los de las capas inferiores mediante la retropropagación del error debidamente calculado.

Existen varias técnicas que permiten al algoritmo Back-Propagation funcionar mejor. Una de ellas es la estandarización de las entradas, según la cual se resta a cada variable de entrada el valor medio de dicha entrada promediado en todo el conjunto de entrenamiento, para después ser dividida por la desviación estándar de cada variable. Una vez realizados estos cálculos, las entradas estarán preparadas para funcionar con el algoritmo de aprendizaje y, por lo tanto, para entrenar la red. Además la normalización de las entradas se ha de comprobar que variables de entrada no están correlacionadas entre sí.

23

La esencia del algoritmo Back-Propagation, es codificar un mapeo de conjuntos de entrada y salida en los pesos sinápticos y los umbrales asociados a un perceptrón multicapa. El objetivo es que la red esté bien entrenada de forma que haya aprendido lo suficiente del pasado para generalizar el futuro [Haykin-94]. Desde esta perspectiva, el proceso de aprendizaje intenta elegir la parametrización de la red que mejor describa el conjunto de datos de entrenamiento. Esto significa que durante el aprendizaje el algoritmo busca los valores de las conexiones sinápticas y umbrales de la red con los que se consiga definir las características de los datos utilizados para el entrenamiento.

2.2 ALGORITMO ELM

El algoritmo ELM (Extreme Learning Machine) está fundamentado en que un MLP de una capa oculta compuesto por H neuronas, cuyos pesos de entrada están inicializados aleatoriamente, pueden   “aprender”  𝑁 distintos casos de entrenamiento produciendo un error cero, siendo 𝑁 ≥  𝐻 pudiendo aproximar cualquier tipo de función continua [Huang-06].

Figura 2.5: Representación del esquema a utilizar.

En primer lugar los pesos entre la capa de entrada y la capa oculta son seleccionados al azar, de forma que se puede considerar como un sistema lineal. A continuación se calculan los pesos de salida de manera analítica mediante el cálculo de la pseudo-inversa de la matriz de las salidas. Cuando tenemos 𝑁   muestras de datos de entradas, se define la ecuación [Huang-06] :

∑ 𝛽 𝑓(𝑤 ∙ 𝑥 + 𝑏 ) = 𝑡 ,              𝑖 = 1, . . . . , 𝑁 Ec. 2.20

24

Donde 𝑤 es el vector de peso de la neurona entre la capa de entrada y la capa oculta, 𝑏 representa el sesgo de entrada asociado a dicha neurona, 𝑥 son los datos de entrada, 𝑓 son las funciones de activación de las neuronas ocultas, 𝛽 son los pesos de salida asociados a la neurona oculta j-ésima y 𝑡 es el target (objetivo). La ecuación 2.20 puede ser reformulada en forma como [Huang-06]:

𝐻 ∙ 𝛽 = 𝑇 Ec. 2.21

donde:

𝐻(𝑤 ,… ,𝑤Ñ, 𝑏 ,… , 𝑏Ñ, 𝑥 ,… , 𝑥Ñ) =𝑞(𝑤 ∙ 𝑥 + 𝑏 ) ⋯ 𝑞(𝑤Ñ ∙ 𝑥 + 𝑏Ñ)

⋮ ⋱ ⋮𝑔(𝑤 ∙ 𝑥 + 𝑏 ) ⋯ 𝑞(𝑤Ñ ∙ 𝑥 + 𝑏Ñ)

               Ec. 2.22

y:

𝛽 =𝛽⋮𝛽Ñ

y 𝑇 =𝑇⋮𝑇Ñ

Ec. 2.23

En la ecuación 2.22, 𝐻 ∈  ℜ     es la matriz de salidas de la capa oculta de neuronas del MLP mientras en la ecuación 2.23 𝛽 ∈  ℜ     es la matriz de pesos de salida, y 𝑇 ∈  ℜ     es la matriz de targets de los 𝑁 casos de entrenamiento. Por lo tanto, el procedimiento de aprendizaje de   la  red  neuronal  se  convierte  en   la  obtención  del  peso  óptimo  de   la  matriz  β  entre   la  capa  de  salida y la capa oculta. Este proceso puede llevarse a cabo utilizando la pseudo-inversa de Moore-Penrose [Huang-06]:

𝛽 = 𝐻 𝑇 Ec. 2.24

donde:

𝐻 = (𝐻 ∙ 𝐻) ∙ 𝐻 Ec. 2.25

Una vez calculado 𝛽 podemos obtener la salida del sistema 𝑦 usando:

𝑦 =  𝐻   ∙  𝛽   Ec. 2.26

25

El algoritmo ELM conlleva, entonces, los siguientes pasos:

Seleccionar aleatoriamente los valores de los pesos 𝑤 y el sesgo 𝑏 , 𝑖 = 1, . . . . , 𝑁

Calcular la matriz 𝐻 de la capa oculta.

Calcular los pesos de salida 𝛽.

2.3 ALGORITMO COMITE ELM

Una vez introducido el algoritmo ELM introducimos el algoritmo planteado en este proyecto: comités de ELM. El esquema de la estructura planteada sería:

Figura 3.1: Representación comité ELM.

Donde �⃗� son los datos de entrada, 𝑁 es el número de ELM que constituyen el comité, 𝑦 son las salidas de cada ELM, 𝛼 son los pesos que combinan la salida de los ELM y por último 𝑦 es la salida del sistema.

El comité ELM tiene la misma estructura que una ELM donde cada ELM tiene el mismo papel que las neuronas en el ELM. Por lo tanto el algoritmo del comité quedara como:

En primer lugar se obtiene cada ELM de forma que podamos calcular el vector de salidas de los distintos ELM para todos los patrones de entrada, el vector quedaría:

𝑘 = [𝑦 , 𝑦 , 𝑦 , . . . , 𝑦 ] Ec. 2.27

ELM1

ELM2

ELMN

+

y2

y1

yK

𝛼

𝛼

𝛼

yt �⃗�

26

En segundo lugar, el procedimiento de aprendizaje de la red neuronal se convierte en la obtención del peso óptimo de la matriz 𝛼 entre la capa de salida y la capa oculta. Este proceso puede llevarse a cabo utilizando la pseudo-inversa de Moore-Penrose [Huang-06]:

𝛼 = 𝑘 ∙ 𝑠𝑎𝑙𝑖𝑑𝑎  𝑑𝑒𝑠𝑒𝑎𝑑𝑎 Ec. 2.28

donde:

𝑘 = (𝑘 ∙ 𝑘) ∙ 𝑘 Ec. 2.29

Una vez calculado 𝛼 podemos obtener la salida del sistema 𝑦 haciendo el producto del

vector de salidas 𝑘 por los pesos 𝛼. Quedando la ecuación:

𝑦 =  𝑘   ∙    𝛼 Ec. 2.30

29

CAPITULO 3 ANALISIS Y RESULTADOS

Una vez expuesto los algoritmos del backpropagation, ELM y comité ELM debemos de llevar la teoría a la práctica. Para ello utilizaremos la herramienta matemática Matlab. Matlab es un   lenguaje   de   programación   de   alto   nivel   que,   junto   con   un   interfaz   gráfico,   permite   realizar  complejos problemas de cálculo habituales en ingeniería, con mayor facilidad que otros lenguajes como C++ o Fortran. Se comercializa junto a Simulink, una herramienta especializada en la construcción y simulación de modelos de sistemas físicos. Estas herramientas las distribuye la empresa MathWorks. Los usos típicos de este software van, desde simples cálculos matemáticos, hasta el desarrollo de complicados algoritmos, pasando por la adquisición de datos, modelado de sistemas, análisis y procesado de datos, y un largo sinfín de aplicaciones.

Las medidas de error considerados para comparar los modelos son:

MAE: error absoluto medio, que viene determinado por la ecuación.

𝑀𝐴𝐸 = ∑ |  𝑑 − 𝜊  | Ec. 4.1

RMSE: raíz del error cuadrático medio, que viene determinado por la ecuación.

𝑅𝑀𝑆𝐸 = ∑ (  𝑑 − 𝜊  ) Ec. 4.2

ME: error medio, que viene determinado por la ecuación.

𝑀𝐸 = ∑ (  𝑑 − 𝜊  ) Ec. 4.3

Siendo 𝑑 la señal deseada y 𝜊 salida del sistema.

Antes de analizar los algoritmos: MLP, ELM y comité ELM hablaremos de las bases de datos utilizadas en el proyecto.

30

3.1 BASES DE DATOS

Los datos usados en este proyecto son problemas de regresión. Hemos utilizado los mismos datos que en el artículo Extreme learning machine: Theory and applications [Huang-06]. Podemos encontrar estos datos en la página web de Luis Torgo http://www.liaad.up.pt/~ltorgo/Regression/DataSets.html y otras páginas web que contienen bases de datos, como:

http://archive.ics.uci.edu/ml/

http://www.cs.toronto.edu/~delde/

http://lib.stat.cmu.edu/

Los datos usados han sido:

Tabla 4.1: Bases de datos

Datos Número de patrones Número de entradas Abalone 4177 8

Auto price 159 15 Bank domains 4499 8

California housing 20640 8 Census (house8l) 22784 8 Computer activity 8192 12

Delta ailerons 7129 6 Delta elevators 9517 6 Machine CPU 209 6

Servo 167 4 Stocks domains 950 10

Triazines 186 60 Wisconsin breast cancer 194 32

Ahora haremos una breve descripción de los datos.

3.1.1 Abalone

La edad de la oreja de mar se determina mediante la reducción de la cubierta a través del cono, la coloración, y contando el número de anillos a través de un microscopio; una tarea aburrida y lenta. Otras medidas, que son más fáciles de obtener, se utilizan para predecir la edad, tales como los patrones del clima y la ubicación (que definen, por lo tanto la disponibilidad de alimentos) puede ser necesaria para resolver el problema.

31

3.1.2 Auto Price

Este conjunto de datos consta de tres tipos de regresión:

La especificación de un automóvil en términos de características diferentes, es decir, según  marca,  motor,  número  de  puertas,  etc…

Su calificación de riesgo asignada al automóvil, los coches son inicialmente asignados con un factor de riesgo asociado con su precio.

Sus pérdidas en el uso en comparación con otros vehículos, representa la pérdida media por vehículo y por año.

Los datos originales Auto Price están incompletos, por lo tanto se han eliminado los casos que estaban incompletos.

3.1.3 Bank domains

Una familia de conjuntos de datos generados a partir de una simulación de cómo el cliente elige su banco. Los datos se basan en la predicción de la fracción de clientes del banco que lo dejan, debido a las colas de espera. Los clientes provienen de varias áreas residenciales, elegir su banco preferido en función de la distancia a la que se encuentre tiene diversa complejidad igual que los diferentes niveles de paciencia de los clientes. Cada banco tiene varias colas, que abren y cierran de acuerdo a la demanda. Los clientes pueden cambiar de cola, si se termina su paciencia. El objetivo es predecir la tasa de rechazos, es decir, la fracción de los clientes que se fue del banco, porque todos los cajeros estaban completos.

3.1.4 California housing

Se trata de un conjunto de datos obtenidos desde el repositorio StatLib, en el cuál se determina el valor medio de personas por vivienda en california.

3.1.5 Census (house8l)

Esta base de datos fue diseñada sobre la base de datos proporcionadas por la Oficina del Censo de EE.UU. Los datos fueron recolectados como parte del censo de EE.UU. de 1990. Estos datos determinan el precio medio de la casa dependiendo de su lugar demográfico y el estado de mercado de la vivienda en la región.

32

3.1.6 Computer activity

Las bases de datos miden la actividad del ordenador mientras se usan distintos programas, como: internet, creación de archivos y programas que requieran un uso mayor de la CPU.

3.1.7 Delta ailerons

Este conjunto de datos se obtiene de la tarea de controlar los alerones de un avión F-16.

3.1.8 Delta elevators

Este conjunto de datos se obtiene de la tarea de controlar los elevadores de un avión F-16.

3.1.9 Machine CPU

La base de datos se refiere a los datos relativos al rendimiento de la CPU.

3.1.10 Servo

Estos datos se refiere a un problema de control del robot.

3.1.11 Stocks domains

Son los precios diarios de las acciones a partir de enero de 1988 hasta octubre de 1991 de diez empresas del sector aeroespacial.

3.1.12 Triazines

El problema es aprender una ecuación de regresión para predecir la actividad de la triazina, que es una familia de tres compuestos orgánicos. Los datos originales estaban erróneos y elimine dos atributos ya que tenían como resultado 0 y daban error.

3.1.13 Wisconsin breast cancer

Cada caso representa los datos de seguimiento de un caso de cáncer de mama. Se trata de pacientes vistos por el Dr. Wolberg desde 1984, e incluyen sólo los casos que presentan cáncer de mama invasivo y sin evidencia de metástasis en el momento del diagnóstico. Los atributos se calculan a partir de una imagen digitalizada. Se describen las características de los núcleos de las células presentes en la imagen.

33

3.2 CONDICIONES INICIALES

En este apartado vamos a comentar las distintas condiciones que se deben poner para cada conjunto de datos.

Primero se establecerá el número de repeticiones de cada experimento, este número lo hemos fijado en 100 pero, si el conjunto de datos es muy grande, se reducirá a la mitad. En problemas de estadística se considera un mínimo de 30 repeticiones para que un resultado sea significativo, se ha fijado en 100 pero también se podría haber fijado en 80, o en cualquier otro número mientras fuera superior a 30 [Mitchell-97].

El número de neuronas es distinto para cada conjunto de datos, se establecerá en relación al artículo Extreme learning machine: Theory and applications [Huang-05]. Por ejemplo, si en el artículo se ha utilizado un número de neuronas de 25, en el proyecto se utilizara 5:5:50. El procedimiento que hemos establecido es, recorrer un vector en el cuál el número de neuronas del artículo para esa base de datos estará en la mitad. En la siguiente tabla se puede observar el resultado final para cada conjunto de datos.

Tabla 4.2: Número de neuronas para los datos considerados. Datos Número de neuronas

Artículo Proyecto Abalone 25 5:5:50

Auto price 15 3:3:30 Bank domains 125 90:20:290

California housing 80 55:5:105 Census (house8l) 160 110:10:210 Computer activity 125 75:10:175

Delta ailerons 45 20:5:70 Delta elevators 125 75:10:175 Machine CPU 10 2:2:20

Servo 30 5:5:55 Stocks domains 110 60:10:160

Triazines 10 2:2:20 Wisconsin breast cancer 10 2:2:20

Por último se establecerá el número de ELMs para crear el comité ELM, cada comité ELM

estará formado por 5, 10 y 20 ELMs para cada base de datos.

34

3.3 ANALISIS ALGORITMO BACKPROPAGATION

Una vez ya conocemos los datos que vamos a utilizar debemos de analizar las distintas algoritmos a utilizar, empezaremos con la teoría del perceptrón multicapa.

En primer lugar debemos estandarizar los datos ya que el algoritmo Back-Propagation

funciona mejor, seguidamente pasaremos al preprocesado donde se separarán los casos de entrenamiento y los casos de validación. A continuación pasaremos a la parte de entrenar la red, este apartado es importante ya que si la red no está bien entrenada los datos que obtengamos al hacer la validación serán erróneos. Por último se analizará la red y calcularemos los errores (MAE,

RMSE y ME).

Figura 4.1: Diagrama de bloques de las tareas a realizar.

Los conjuntos de datos de entrenamiento y validación que obtengamos en el apartado de preprocesado serán los datos que utilizaremos para los tres algoritmos: backpropagation, ELM y comité ELM.

35

3.3.1 Estandarización de datos

En primer lugar vamos a estandarizar los datos de entrada y de salida mediante la ecuación de la recta 𝑦 =  𝑚 ∙ 𝑥 + 𝑏. Las entradas las estandarizaremos entre [0,1] y las salidas las estandarizaremos entre [-1,1].

3.3.2 Preprocesado

Ahora que ya disponemos de los datos estandarizados vamos a preprocesar los datos. En el apartado de preprocesado lo que hacemos es dividir el conjunto de datos en dos partes: una de

entrenamiento y otra parte de validación. La división del conjunto será de: para entrenamiento y

validación. De forma que:

Figura 4.2: Separación de conjuntos.

3.3.3 Entrena redes

Una vez ya tenemos los datos estandarizados y separados en entrenamiento y validación podemos empezar a entrenar la red. Para ello debemos de establecer el número de repeticiones y el número de neuronas ocultas. El número de repeticiones se establecerá según el número de casos en los datos, como se comentó anteriormente. El número de neuronas ocultas se establecerá según el número de nodos usados en el artículo Extreme Learning machine: Theory

and applications [Huang-05] también esta explicado en el apartado de condiciones iniciales.

36

Figura 4.3: Diagrama de bloques entrena redes con dos bucles for anidados.

Donde NH determina el número de neuronas para cada base de datos y R determina el número de repeticiones, dependerá para cada base de datos en algunos será de 100 y en otros será de 50, como se comentó anteriormente.

3.3.4 Analiza redes

Es el último bloque en el análisis del algoritmo backpropagation pero no por ello menos importante. En este bloque se analizan las redes entrenadas según el número de repeticiones, es decir, cada 𝑁 repeticiones se calcularan las medidas de error: MAE, RMSE y ME.

En este caso los dos bucles for anidados iran al contrario que en apartado de entrena redes, es decir, primero ira el bucle de neuronas ocultas y después ira el bucle de repeticiones. El diagrama de bloques quedara asi:

37

Figura 4.4: Diagrama de bloques analiza redes.

Donde NH determina el número de neuronas para cada base de datos y R determina el número de repeticiones, dependerá para cada base de datos en algunos será de 100 y en otros será de 50, como se comentó anteriormente.

Cada vez que terminamos el bucle de repeticiones guardaremos el valor mínimo para cada medida de error (MAE, RMSE y ME), de forma que para cada número de neuronas obtendremos un valor de cada medida de error. Para cada número de neurona se tienen 100 repeticiones y obtendremos 100 medidas de error distintas (MAE, RMSE y ME) de las cuales nos quedaremos con el valor mínimo, ya que, el mejor resultado es el que menor valor de error.

38

3.4 ANALISIS ALGORITMO ELM

Ahora analizaremos el algoritmo ELM, en primer lugar cargaremos el mismo conjunto de datos que utilizamos para el algoritmo backpropagation, es decir, utilizaremos el archivo con los datos ya estandarizados y separados en entrenamiento y validación. Después de cargar los datos tenemos el tres bucles anidados: el primero será el de neuronas ocultas, el segundo será el de repeticiones y el tercero el de número de ELMs.

Veamos un diagrama de bloques.

Figura 4.5: Diagrama de bloques algoritmo ELM.

39

Donde NH determina el número de neuronas para cada base de datos, R determina el número de repeticiones, dependerá para cada base de datos en algunos será de 100 y en otros será de 50, como se comentó anteriormente y ELM son el número de ELMs usados que pueden ser 5, 10 y 20.

Los valores de los errores se han guardado en una hipermatriz, Matlab permite trabajar con matrices de tres dimensiones, de forma que se guardan los valores de los tres bucles. Igual que en el algoritmo backpropagation se guardan los valores mínimos ya que son los que interesan.

Una vez ya tenemos la hipermatriz debemos simplificar ya que para el algoritmo backpropagation teníamos un valor de error para cada neurona. Lo que hacemos es la media ponderada de los valores obtenidos en los bucles de ELM y de repeticiones, de forma que nos quedará un valor para cada neurona igual que tenemos en el caso del backpropagation.

3.5 ANALISIS ALGORITMO COMITE ELM

En el capítulo 2 ya comentamos que el comité ELM se basa en el algoritmo ELM, esto hace que el diagrama de bloques usado anteriormente sea el mismo aqui. Necesitamos el bucle ELM, ya que las salidas de los ELMs son las entradas para el comité ELM. Una vez tenemos las salidas de los ELMs podemos hacer los cálculos para el comité ELM, estos cálculos los realizará en el bucle de repeticiones.

Si calculásemos por separado el comité ELM , cargando el conjunto de datos y el vector con los valores de las salidas de los ELMs. El diagrama de bloques quedaría:

40

Figura 4.6: Diagrama de bloques comité ELM.

Donde NH determina el número de neuronas para cada base de datos, R determina el número de repeticiones, dependerá para cada base de datos en algunos será de 100 y en otros será de 50, como se comentó anteriormente y ELM son el número de ELMs usados que pueden ser 5, 10 y 20.

Igual que en el algoritmo backpropagation y en el ELM los valores de los errores que se guardan son los valores mínimos ya que son los que interesan. En este caso los errores no se guardan en una hipermatriz ya que sólo recorremos dos bucles y lo podemos guardar en una matriz de dos dimensiones. De forma que hacemos la media con los valores obtenidos en el bucle de repeticiones quedando un valor para cada neurona como en backpropagation y ELM.

41

3.6 RESULTADOS

Una vez ya hemos explicado los algoritmos debemos interpretar los resultados. Para cada conjunto de datos tendremos unas tablas con sus diferentes medidas de error (MAE, RMSE, ME). En total tendremos 7 tablas de resultados, que son: backpropagation, ELM (5 ELM), comité ELM para 5 ELM, ELM (10 ELM), comité ELM para 10 ELM, ELM (20 ELM) y comité ELM para 20 ELM. En cada columna de cada tabla se destacará un número que será el valor mínimo en cada algoritmo.

Para poder observar mejor los resultados, se van a representar gráficamente. Las medidas de error MAE y RMSE se representaran el  eje  ‘y’  logarítmico  para  poder  ver  mejor  los  resultados.  Sin embargo para la medida del error ME no se usara eje logarítmico ya que tiene resultados negativos y no se pueden representar con el eje logarítmico. Se van a separar algunos resultados en distintos gráficos para poder mejorar la visualización de los resultados.

Tabla 4.3: Bases de datos y variables. Nº de neuronas

Datos Nº Casos Artículo Proyecto Nº de repeticiones Nº ELMs Abalone 4177 25 5:5:50 100 5-10-20

Auto price 159 15 3:3:30 100 5-10-20 Bank domains 4499 125 90:20:290 50 5-10-20

California housing 20640 80 55:5:105 50 5-10-20 Census (house8l) 22784 160 110:10:210 50 5-10-20 Computer activity 8192 125 75:10:175 50 5-10-20

Delta ailerons 7129 45 20:5:70 100 5-10-20 Delta elevators 9517 125 75:10:175 50 5-10-20 Machine CPU 209 10 2:2:20 100 5-10-20

Servo 167 30 5:5:55 100 5-10-20 Stocks domains 950 110 60:10:160 100 5-10-20

Triazines 186 10 2:2:20 100 5-10-20 Wisconsin breast cancer 194 10 2:2:20 100 5-10-20

42

3.6.1 Resultados abalone

Tabla 4.4: Resultados Abalone del backpropagation.

RESULTADO ABALONE BACKPROPAGATION Número de ENTRENAMIENTO VALIDACION neuronas

MAE entrenamiento RMSE entrenamiento ME entrenamiento

MAE validación RMSE validación ME validación 5 0,103547824 0,142640316 -0,001447529 0,111889978 0,157111771 0,001942113

10 0,103574955 0,142653979 -0,001580906 0,111887451 0,157074418 0,001760907 15 0,103657939 0,142743601 -0,001734537 0,11192633 0,157225388 0,001655844 20 0,103736512 0,142832956 -0,001792289 0,111879048 0,157065979 0,001626257 25 0,103723823 0,142842704 -0,001766247 0,111796804 0,15692344 0,001645234 30 0,103736461 0,142850192 -0,001848271 0,111820328 0,156930437 0,001570462 35 0,10371509 0,142822368 -0,001858682 0,111809812 0,156895143 0,00154412 40 0,10369426 0,142802325 -0,001828281 0,111803368 0,15688691 0,001568829 45 0,10363338 0,142718322 -0,001877247 0,111833383 0,156938927 0,001529962 50 0,103636421 0,142729022 -0,001867138 0,111810494 0,156904518 0,001535473

Tabla 4.5: Resultados Abalone del ELM (5 ELM). RESULTADO ABALONE ELM (5 ELM)

Número de ENTRENAMIENTO VALIDACION neuronas

MAE entrenamiento RMSE entrenamiento ME entrenamiento

MAE validación RMSE validación ME validación 5 0,123897862 0,170926686 0,0004257

0,129334141 0,178640827 -0,006090623

10 0,124546215 0,171716096 0,000391299

0,130071093 0,179658779 -0,006074261 15 0,124007243 0,171045321 0,000393236

0,129454088 0,178784073 -0,005995695

20 0,123982393 0,170986905 0,000387464

0,129454319 0,178770925 -0,00598394 25 0,124876566 0,172155508 0,000612132

0,130193351 0,179831505 -0,005940502

30 0,124251034 0,171389905 0,000387735

0,129645864 0,179189071 -0,006047087 35 0,124265278 0,171201434 0,000464648

0,129799813 0,179061508 -0,005813513

40 0,12454556 0,171725828 0,000447432

0,129943379 0,179481064 -0,006009259 45 0,123768497 0,170781246 0,000449557

0,12934999 0,17848838 -0,005976013

50 0,124232502 0,171285533 0,000288657

0,12968936 0,179239746 -0,006030094

Tabla 4.6: Resultados Abalone del comité ELM (5 ELM). RESULTADO ABALONE COMITE ELM (5 ELM)

Número de ENTRENAMIENTO VALIDACION neuronas

MAE entrenamiento RMSE entrenamiento ME entrenamiento

MAE validación RMSE validación ME validación 5 0,106001744 0,146231227 -9,34188E-05

0,106951031 0,150038519 -0,000129619

10 0,10256023 0,141546708 -1,63958E-07

0,103567181 0,143746924 1,41237E-06 15 0,102777061 0,141505563 5,23821E-07

0,103100254 0,142443891 3,47085E-06

20 0,10292257 0,141614936 -4,2292E-06

0,10385549 0,143395786 -2,9388E-06 25 0,102949726 0,141826433 4,12674E-06

0,103307544 0,142825667 -9,99208E-07

30 0,102741264 0,141355103 -2,93845E-06

0,103230061 0,142693881 -2,5558E-05 35 0,102692709 0,141340155 2,26605E-06

0,103761683 0,143197144 -6,35541E-06

40 0,102811516 0,141621611 6,9828E-06

0,103281578 0,143322289 -5,21249E-06 45 0,102369718 0,140787878 -1,6196E-06

0,10388679 0,143561923 -1,22583E-05

50 0,102978592 0,141703291 1,11093E-05

0,103188024 0,143101404 5,67381E-06

43

Tabla 4.7: Resultados Abalone del ELM (10 ELM). RESULTADO ABALONE ELM (10 ELM)

Número de ENTRENAMIENTO VALIDACION neuronas

MAE entrenamiento RMSE entrenamiento ME entrenamiento

MAE validación RMSE validación ME validación 5 0,124534923 0,171762054 0,000477584

0,129944183 0,179515715 -0,006048438

10 0,124764414 0,171997824 0,000526748

0,130197387 0,179888167 -0,005965623 15 0,124099463 0,171077627 0,000527527

0,129591029 0,178914664 -0,005962082

20 0,124134606 0,171205354 0,000483199

0,129700087 0,179061736 -0,006047543 25 0,124036627 0,171139391 0,000412645

0,129591974 0,179052632 -0,006070036

30 0,124495659 0,171582756 0,000564797

0,12996365 0,179430472 -0,005925297 35 0,124272711 0,171385208 0,000474882

0,129820249 0,179219418 -0,005953691

40 0,124144054 0,171211741 0,000472627

0,129667893 0,179091307 -0,006016129 45 0,124189623 0,171164498 0,000427787

0,129701377 0,178982261 -0,005991813

50 0,124373862 0,171443036 0,000477826

0,129779271 0,179184641 -0,005992791

Tabla 4.8: Resultados Abalone del comité ELM (10 ELM). RESULTADO ABALONE COMITE ELM (10 ELM)

Número de ENTRENAMIENTO VALIDACION neuronas

MAE entrenamiento RMSE entrenamiento ME entrenamiento

MAE validación RMSE validación ME validación 5 0,105976854 0,146270856 -0,000345003

0,107808555 0,150148531 -0,000282734

10 0,102632666 0,141335014 1,56107E-05

0,10330786 0,142825247 -8,42534E-06 15 0,103011313 0,141859675 1,39585E-06

0,103716062 0,142657979 -3,2758E-06

20 0,102797582 0,141509307 6,46076E-06

0,103466851 0,142827066 -1,52686E-05 25 0,102776786 0,141554421 2,37092E-06

0,103393421 0,142863207 -6,0008E-06

30 0,102818976 0,141494991 -1,00099E-05

0,103128942 0,142772361 -5,9036E-06 35 0,102785407 0,141568166 -9,46484E-06

0,103778525 0,142759618 -1,76393E-06

40 0,103084478 0,141614217 -8,40634E-06

0,10381523 0,143472658 -1,19763E-05 45 0,10261169 0,141274368 1,19009E-06

0,103710889 0,143442368 2,17919E-06

50 0,102781192 0,141179951 -1,17659E-05

0,103812346 0,143225546 -7,72818E-06

Tabla 4.9: Resultados Abalone del ELM (20 ELM). RESULTADO ABALONE ELM (20 ELM)

Número de ENTRENAMIENTO VALIDACION neuronas

MAE entrenamiento RMSE entrenamiento ME entrenamiento

MAE validación RMSE validación ME validación 5 0,124350829 0,171484758 0,00042059

0,12981603 0,17929808 -0,006014031

10 0,124115474 0,17122182 0,000431325

0,129544536 0,178979601 -0,00602354 15 0,124083007 0,171224548 0,00048423

0,129545562 0,178987466 -0,00595966

20 0,124419885 0,171548054 0,000537554

0,129958351 0,17938431 -0,005940023 25 0,124213682 0,171274898 0,000490546

0,129597313 0,178994906 -0,005962915

30 0,124073532 0,171143949 0,000446867

0,129551458 0,178880995 -0,006029384 35 0,124242502 0,171384435 0,000449048

0,129705055 0,179215951 -0,005992185

40 0,124151846 0,171174899 0,000454344

0,129561418 0,178890503 -0,005923245 45 0,124213482 0,171270006 0,000503194

0,129606425 0,179000023 -0,005976255

50 0,12397429 0,170979378 0,000464175

0,129428656 0,178748327 -0,005973678

Tabla 4.10: Resultados Abalone del comité ELM (20 ELM). RESULTADO ABALONE COMITE ELM (20 ELM)

Número de ENTRENAMIENTO VALIDACION neuronas

MAE entrenamiento RMSE entrenamiento ME entrenamiento

MAE validación RMSE validación ME validación 5 0,106194428 0,146450326 0,00020272

0,108408999 0,150590636 -0,000190807

10 0,102636757 0,141189873 9,0126E-07

0,103523257 0,143241593 3,84921E-06 15 0,102680612 0,141217574 4,32893E-06

0,103207887 0,143308243 1,1779E-05

20 0,102827806 0,141424223 -4,28218E-06

0,10319271 0,142723311 -3,91902E-06 25 0,102784178 0,141388218 7,71801E-06

0,103482569 0,142651288 1,61801E-05

30 0,102883556 0,141824139 8,84116E-06

0,103304388 0,142502109 6,85431E-06 35 0,102849085 0,141350572 8,26222E-06

0,103892627 0,143094161 -1,44814E-06

40 0,102700387 0,141433749 -1,06426E-06

0,10381267 0,143380172 -1,18288E-05 45 0,103209354 0,142094553 -8,09009E-06

0,104283831 0,14359975 4,32615E-06

50 0,102814478 0,14140429 -1,93364E-06

0,103730085 0,142988559 4,18615E-06

44

45

46

El backpropagation se comporta de manera más constante, en relación al número de neuronas ocultas, que el ELM y comité ELM. En las tablas de resultados se puede observar el error mínimo (en negrita), el comité ELM es el que tiene mejor resultados ya que es el más bajo. Si observamos las gráficas el comité ELM es el que menores errores tiene y los ELMs son los que tienen mayores errores.

El tiempo para cada algoritmo varia, observemos la tabla:

Tabla 4.11: Tiempo para los distintos algoritmos (medido en segundos). ALGORITMOS

Backpropagation ELM y Comité ELM 2887 709

El comité ELM que hemos usado para este cálculo es el de 20 ELMs ya que es el que más tarda. EL número de neuronas ocultas y de repeticiones eran los mismos para los dos, 5:5:50 y 100 respectivamente.

El tiempo que tarda el backprogation es superior que el resto, ya que tiene que entrenar la red. El algoritmo ELM es el que menos tarda, pero los resultados obtenidos no son buenos.

La mejor opción es el comité ELM.

47

3.6.2 Resultados auto price

Tabla 4.12: Resultados Auto price del backpropagation. RESULTADO AUTO PRICE BACKPROPAGATION

Número de ENTRENAMIENTO VALIDACION neuronas

MAE entrenamiento RMSE entrenamiento ME entrenamiento

MAE validación RMSE validación ME validación 3 0,099232962 0,13133342 -0,019031293

0,19009148 0,287806511 0,015903314

6 0,106413711 0,140768316 -0,013120349

0,192284208 0,288350016 0,016664136 9 0,10827824 0,144580479 -0,018146046

0,189939716 0,285216078 0,013126459

12 0,106062803 0,142595005 -0,017492486

0,188297517 0,28229123 0,013692227 15 0,107659463 0,144179051 -0,018718252

0,190469007 0,285094965 0,012542399

18 0,106791859 0,143135081 -0,01796138

0,19025941 0,284608512 0,012076218 21 0,106929957 0,14399846 -0,018628742

0,189739272 0,284239578 0,011667833

24 0,106980501 0,144440605 -0,017849837

0,189604079 0,284005209 0,012820582 27 0,10628713 0,143353313 -0,017509692

0,188292201 0,28218253 0,013813557

30 0,107980974 0,145379581 -0,019562501

0,188898873 0,282909158 0,012621182

Tabla 4.13: Resultados Auto price del ELM (5 ELM). RESULTADO AUTO PRICE ELM (5 ELM)

Número de ENTRENAMIENTO VALIDACION neuronas

MAE entrenamiento RMSE entrenamiento ME entrenamiento

MAE validación RMSE validación ME validación 3 0,239668232 0,329004452 0,016701649

0,253065173 0,339117832 -0,037995335

6 0,238873798 0,328692843 0,019128146

0,25169271 0,339145809 -0,036416838 9 0,241999254 0,330771715 0,020849248

0,254115737 0,340553962 -0,033403056

12 0,238182019 0,328111333 0,017294973

0,251707796 0,338960267 -0,039609474 15 0,23583805 0,325081244 0,016704575

0,24942967 0,336603561 -0,038169945

18 0,240485637 0,330195144 0,020008748

0,254399417 0,341694852 -0,034337701 21 0,237450374 0,327234773 0,018461618

0,250958165 0,338055927 -0,036198277

24 0,23536061 0,324716325 0,01329975

0,24880047 0,335421534 -0,042015497 27 0,239276272 0,327871053 0,02097167

0,251723151 0,33840126 -0,031182054

30 0,240162503 0,32869748 0,018756861

0,25294049 0,338857348 -0,034828547

Tabla 4.14: Resultados Auto price del comité ELM (5 ELM). RESULTADO AUTO PRICE COMITE ELM (5 ELM)

Número de ENTRENAMIENTO VALIDACION neuronas

MAE entrenamiento RMSE entrenamiento ME entrenamiento

MAE validación RMSE validación ME validación 3 0,065731531 0,090433867 -0,000857379

0,043495975 0,054836217 -0,001192284

6 0,005070278 0,013944244 -1,83502E-08

1,49224E-14 1,6543E-14 1,32583E-16 9 0,004973851 0,013876429 8,41228E-08

1,47207E-14 1,63947E-14 6,11818E-16

12 0,005134039 0,014107149 -6,65598E-08

1,6584E-14 1,82317E-14 2,47736E-15 15 0,004940753 0,013884454 4,11076E-08

1,45289E-14 1,61717E-14 2,13306E-15

18 0,005141884 0,014034551 2,22188E-08

1,42947E-14 1,59685E-14 3,58929E-15 21 0,004913056 0,013711549 1,02627E-07

1,3988E-14 1,5514E-14 1,75433E-15

24 0,00500385 0,013848106 5,04692E-08

1,28278E-14 1,42797E-14 2,90066E-16 27 0,005007273 0,014028378 -3,48642E-08

1,26715E-14 1,41056E-14 6,9042E-18

30 0,00495282 0,013844251 6,4995E-08

1,38404E-14 1,5351E-14 1,48827E-15

48

Tabla 4.15: Resultados Auto price del ELM (10 ELM). RESULTADO AUTO PRICE ELM (10 ELM)

Número de ENTRENAMIENTO VALIDACION neuronas

MAE entrenamiento RMSE entrenamiento ME entrenamiento

MAE validación RMSE validación ME validación 3 0,252501029 0,331356949 0,017662979

0,254526637 0,343234362 0,030051084

6 0,24909966 0,327877954 0,015706764

0,248735487 0,336270623 0,025189252 9 0,251554388 0,331271906 0,017714902

0,25262438 0,341790831 0,027784671

12 0,250300597 0,329549069 0,016424563

0,252209729 0,341240227 0,026398795 15 0,248961987 0,328358205 0,015056511

0,250194383 0,342989666 0,022411551

18 0,249520038 0,329212108 0,013956315

0,250964979 0,340291825 0,02540451 21 0,254003689 0,333643941 0,015524279

0,255418733 0,34534802 0,028012399

24 0,251879651 0,331783912 0,015238431

0,253503842 0,343696839 0,027793957 27 0,248114488 0,327188301 0,01768572

0,249642494 0,339886803 0,025396826

30 0,248264651 0,327679762 0,014710973

0,248654187 0,338607747 0,023873868

Tabla 4.16: Resultados Auto price del comité ELM (10 ELM). RESULTADO AUTO PRICE COMITE ELM (10 ELM)

Número de ENTRENAMIENTO VALIDACION neuronas

MAE entrenamiento RMSE entrenamiento ME entrenamiento

MAE validación RMSE validación ME validación 3 0,064753485 0,087298708 -0,001242979

0,037309188 0,0540171 -0,001112287

6 0,004016019 0,012545073 -3,71E-09

1,97E-14 2,15E-14 1,19E-15 9 0,004122973 0,012607771 5,06E-08

1,97E-14 2,14E-14 4,68E-16

12 0,004067362 0,012590556 3,13E-09

2,34E-14 2,57E-14 1,48E-15 15 0,004145815 0,012654095 -5,28E-08

2,41E-14 2,65E-14 4,23E-16

18 0,004013052 0,012538436 1,66E-08

2,54E-14 2,81E-14 1,16E-15 21 0,003985725 0,01251552 -1,18E-08

2,54E-14 2,78E-14 3,80E-15

24 0,004040121 0,012527635 6,95E-09

2,10E-14 2,33E-14 -4,37E-15 27 0,00416091 0,012625302 -7,25E-09

2,48E-14 2,71E-14 -7,86E-15

30 0,00396729 0,012520359 1,17E-08

2,34E-14 2,55E-14 -3,97E-15

Tabla 4.17: Resultados Auto price del ELM (20 ELM). RESULTADO AUTO PRICE ELM (20 ELM)

Número de ENTRENAMIENTO VALIDACION neuronas

MAE entrenamiento RMSE entrenamiento ME entrenamiento

MAE validación RMSE validación ME validación 3 0,251100495 0,330437952 0,016351069

0,250883841 0,340309556 0,025261361

6 0,249399084 0,328862063 0,015475419

0,251042879 0,341238006 0,026680816 9 0,251674103 0,331213426 0,016655015

0,252990279 0,341891529 0,028302824

12 0,250700066 0,329780204 0,016505014

0,253164163 0,343447715 0,02707328 15 0,254205746 0,333851496 0,019565549

0,2555693 0,344553575 0,032854666

18 0,25102865 0,330563813 0,015707486

0,253683926 0,34455035 0,027238756 21 0,250640602 0,32985058 0,016157204

0,253459945 0,344024587 0,027507868

24 0,250887083 0,330317186 0,016159792

0,253315057 0,343050225 0,027422165 27 0,252048988 0,331981967 0,015683636

0,252952831 0,341091151 0,027911928

30 0,249506436 0,328752845 0,015937885

0,249534249 0,339043399 0,025444067

Tabla 4.18: Resultados Auto price del comité ELM (20 ELM). RESULTADO AUTO PRICE COMITE ELM (20 ELM)

Número de ENTRENAMIENTO VALIDACION neuronas

MAE entrenamiento RMSE entrenamiento ME entrenamiento

MAE validación RMSE validación ME validación 3 0,066490834 0,090229824 -0,000285078

0,037937068 0,054652512 -6,72128E-05

6 0,004086101 0,012614177 -1,78816E-09

2,51573E-14 2,7637E-14 -1,90047E-15 9 0,0040941 0,012595391 -3,10786E-08

2,44244E-14 2,6511E-14 1,65314E-15

12 0,004296164 0,012797149 -1,35916E-08

1,94886E-14 2,18636E-14 -1,30172E-15 15 0,003967117 0,012505981 -1,45319E-08

1,90178E-14 2,12339E-14 1,58947E-15

18 0,003932358 0,012499599 -3,38527E-09

2,62447E-14 2,87727E-14 2,1988E-15 21 0,004053778 0,0126017 -1,53288E-08

2,77812E-14 3,03338E-14 3,26902E-15

24 0,004221474 0,012713352 1,73673E-08

2,88586E-14 3,16848E-14 8,86293E-17 27 0,004002007 0,012517984 -1,84806E-09

2,26196E-14 2,49901E-14 -3,00884E-15

30 0,003965307 0,012510934 -7,9685E-09

2,32802E-14 2,56826E-14 -5,892E-15

49

50

51

En esta base de datos (Auto price) el algoritmo ELM se comporta diferente, ya que las medidas de error MAE y RMSE aumentan mucho más que los algoritmos backpropagation y comité ELM. Las medidas de error en el backpropagation son más bajas las de entrenamiento que las de validación, sin embargo, para el comité ELM sucede lo contrario son más bajos las medidas de error de validación. El que menor error tiene es el comité ELM.

El tiempo para cada algoritmo varia, observemos la tabla:

Tabla 4.19: Tiempo para los distintos algoritmos (medido en segundos). ALGORITMOS

Backpropagation ELM y Comité ELM 334 156

El comité ELM que hemos usado para este cálculo es el de 20 ELMs ya que es el que más tarda. EL número de neuronas ocultas y de repeticiones eran los mismos para los dos, 3:3:30 y 100 respectivamente.

Si observamos los tiempos que tarda cada algoritmo y los resultados obtenidos, la mejor opción es el comité ELM.

52

3.6.3 Resultados bank domains

Tabla 4.20: Resultados Bank domains del backpropagation. RESULTADO BANK DOMAINS BACKPROPAGATION

Número de ENTRENAMIENTO VALIDACION neuronas

MAE entrenamiento RMSE entrenamiento ME entrenamiento

MAE validación RMSE validación ME validación 90 0,045551633 0,058179386 -0,002989996

0,069022017 0,093884395 -0,002117326

110 0,046060693 0,058767332 -0,002281314

0,069139609 0,093537814 -0,001361362 130 0,046308713 0,05903642 -0,002617052

0,070037757 0,094795394 -0,001664775

150 0,046407018 0,059137527 -0,002743619

0,070342696 0,095157678 -0,001964083 170 0,046022589 0,05864117 -0,003032436

0,070123802 0,094969806 -0,002318

190 0,0458606 0,058438533 -0,003157697

0,069908281 0,094621311 -0,002362699 210 0,045609223 0,058112396 -0,003224186

0,07009529 0,094941639 -0,002446728

230 0,045590033 0,058080707 -0,003381778

0,070156199 0,09497021 -0,002634759 250 0,045658327 0,058163431 -0,003316095

0,070095746 0,09484998 -0,002554579

270 0,045667825 0,058176243 -0,003486792

0,069994588 0,094794943 -0,002739447 290 0,045610751 0,05810261 -0,003429138

0,070131324 0,094895017 -0,002691898

Tabla 4.21: Resultados Bank domains del ELM (5 ELM). RESULTADO BANK DOMAINS ELM (5 ELM)

Número de ENTRENAMIENTO VALIDACION neuronas

MAE entrenamiento RMSE entrenamiento ME entrenamiento

MAE validación RMSE validación ME validación 90 0,071176476 0,091740992 8,70122E-07

0,075032926 0,099505398 -0,001203774

110 0,070568469 0,090928788 1,37974E-06

0,074512122 0,098535732 -0,001087584 130 0,070643947 0,09102943 9,89437E-07

0,074373095 0,098397546 -0,001252136

150 0,070992306 0,091483955 8,31852E-08

0,074758614 0,098906321 -0,000995673 170 0,070853081 0,091261353 4,60659E-07

0,074531569 0,098473474 -0,001140686

190 0,071241932 0,09175038 1,18446E-06

0,075086318 0,099297762 -0,001133761 210 0,070838245 0,091248399 8,05539E-07

0,074614445 0,098552965 -0,001335448

230 0,070884476 0,091306471 1,42269E-06

0,074715064 0,098749205 -0,001031241 250 0,070847138 0,091329816 4,22558E-07

0,074623449 0,09876516 -0,001111646

270 0,070849839 0,091238444 8,57006E-07

0,074554655 0,098621437 -0,001083557 290 0,070959733 0,091490992 3,31023E-07

0,074821395 0,099172617 -0,001142198

Tabla 4.22: Resultados Bank domains del comité ELM (5 ELM). RESULTADO BANK DOMAINS COMITE ELM (5 ELM)

Número de ENTRENAMIENTO VALIDACION neuronas

MAE entrenamiento RMSE entrenamiento ME entrenamiento

MAE validación RMSE validación ME validación 90 0,063849195 0,081384769 -0,000900329

0,066574011 0,085308277 -0,001671364

110 0,062916517 0,08017094 -0,000799464

0,06499231 0,082692756 -0,00246453 130 0,062774237 0,079983925 -0,000710871

0,064743196 0,082687028 -0,002566989

150 0,062586798 0,079620865 -0,000684867

0,064521522 0,082114175 -0,001651681 170 0,062851277 0,079659442 -0,000788578

0,064972201 0,082689142 -0,002096865

190 0,063065695 0,080016252 -0,000734946

0,064448541 0,082249843 -0,002597316 210 0,062568683 0,079780146 -0,000752987

0,065023251 0,082779361 -0,002533295

230 0,062660568 0,079839687 -0,000966171

0,064754697 0,082117104 -0,002227816 250 0,063213877 0,080299638 -0,000935058

0,065199091 0,082522225 -0,001643782

270 0,062351803 0,079510087 -0,000633071

0,064621555 0,082206982 -0,002044372 290 0,061918425 0,078939744 -0,000346347

0,064484794 0,08232607 -0,001938626

53

Tabla 4.23: Resultados Bank domains del ELM (10 ELM). RESULTADO BANK DOMAINS ELM (10 ELM)

Número de ENTRENAMIENTO VALIDACION neuronas

MAE entrenamiento RMSE entrenamiento ME entrenamiento

MAE validación RMSE validación ME validación 90 0,070906115 0,091367489 1,14932E-06

0,07474024 0,098853833 -0,001220555

110 0,070627174 0,091029905 3,03061E-07

0,074515724 0,09849808 -0,001204337 130 0,070809595 0,091199364 4,86763E-07

0,074690611 0,098900766 -0,001097536

150 0,070835683 0,09129234 4,57727E-07

0,07466345 0,098889482 -0,001314799 170 0,070946974 0,091369011 6,09215E-07

0,074754178 0,098895801 -0,001350935

190 0,070770028 0,091175059 2,79111E-07

0,074620387 0,098635458 -0,001210991 210 0,070738408 0,091112193 6,67481E-07

0,074515301 0,098556286 -0,001137519

230 0,071127942 0,091690754 8,34601E-07

0,074921047 0,099012591 -0,001122066 250 0,070749962 0,091141551 1,05445E-06

0,074583924 0,098631616 -0,001245599

270 0,070804194 0,091270134 3,36025E-07

0,07457096 0,098736419 -0,001309479 290 0,070889056 0,091350876 6,38375E-07

0,074700123 0,098828365 -0,001229365

Tabla 4.24: Resultados Bank domains del comité ELM (10 ELM). RESULTADO BANK DOMAINS COMITE ELM (10 ELM)

Número de ENTRENAMIENTO VALIDACION neuronas

MAE entrenamiento RMSE entrenamiento ME entrenamiento

MAE validación RMSE validación ME validación 90 0,063656396 0,081470219 -0,00107063

0,066667361 0,086029719 -0,002183977

110 0,06262083 0,079739049 -0,000845285

0,063850128 0,081792933 -0,00248937 130 0,06251617 0,07973742 -0,001062357

0,063645866 0,081204613 -0,002108827

150 0,062838893 0,080328559 -0,001053352

0,065115719 0,082599533 -0,002588283 170 0,062531312 0,079704056 -0,000506796

0,064890246 0,082103494 -0,002592671

190 0,062149965 0,079146606 -0,000704035

0,064390772 0,081518504 -0,002052384 210 0,061906239 0,078671854 -0,000453153

0,064727699 0,08173868 -0,002098526

230 0,062943618 0,080157316 -0,000841743

0,065630113 0,083901626 -0,000834755 250 0,063144228 0,08040195 -0,000917334

0,065286406 0,0832735 -0,001468027

270 0,062634834 0,079678177 -0,000623618

0,064554854 0,082129149 -0,001643615 290 0,062458352 0,079638325 -0,001050392

0,064715541 0,08216809 -0,00294826

Tabla 4.25: Resultados Bank domains del ELM (20 ELM). RESULTADO BANK DOMAINS ELM (20 ELM)

Número de ENTRENAMIENTO VALIDACION neuronas

MAE entrenamiento RMSE entrenamiento ME entrenamiento

MAE validación RMSE validación ME validación 90 0,070889772 0,091350855 1,27785E-06

0,074686478 0,098775976 -0,001180464

110 0,070788355 0,091248444 1,01832E-06

0,074577607 0,098812648 -0,001146469 130 0,070714678 0,09113642 8,4551E-07

0,074532025 0,098634667 -0,001170577

150 0,070790321 0,091181067 6,23405E-07

0,074560374 0,098558442 -0,001167006 170 0,070871349 0,09130804 8,21627E-07

0,074654071 0,098618736 -0,001231919

190 0,070947986 0,091441943 5,48119E-07

0,074710097 0,098861228 -0,001182657 210 0,070831747 0,091249725 8,71308E-07

0,074658871 0,098690343 -0,001131769

230 0,070854181 0,09129627 6,94467E-07

0,074640704 0,098650127 -0,001117777 250 0,070679496 0,091057579 6,3771E-07

0,074527515 0,098555757 -0,001167181

270 0,070829548 0,091244791 6,98422E-07

0,074670676 0,098660533 -0,001153639 290 0,070981677 0,091499534 5,37996E-07

0,074859247 0,099199994 -0,001166898

Tabla 4.26: Resultados Bank domains del comité ELM (20 ELM).

RESULTADO BANK DOMAINS COMITE ELM (20 ELM) Número de ENTRENAMIENTO VALIDACION neuronas

MAE entrenamiento RMSE entrenamiento ME entrenamiento

MAE validación RMSE validación ME validación 90 0,064066917 0,081964908 -0,001019655

0,067604626 0,086796143 -0,001222195

110 0,062625214 0,079786619 -0,000713807

0,064465092 0,08162331 -0,002549539 130 0,062052323 0,078858259 -0,00020447

0,06316281 0,08055849 -0,002097001

150 0,063211878 0,08044993 -0,000902119

0,065091774 0,083150078 -0,002056672 170 0,062801229 0,079727444 -0,000702607

0,064519755 0,081859908 -0,001752913

190 0,062208955 0,079313106 -0,00040425

0,063619118 0,080760006 -0,001079295 210 0,062744585 0,080077357 -0,000758806

0,064080335 0,081989792 -0,001296298

230 0,062797706 0,08003091 -0,000738226

0,064772211 0,082494022 -0,002243187 250 0,06263104 0,079856281 -0,000846406

0,064656696 0,08248177 -0,001616607

270 0,062533766 0,079316921 -0,000683973

0,06449279 0,081754058 -0,00180323 290 0,06253011 0,079708553 -0,001001624

0,064640339 0,082208089 -0,0032537

54

55

56

Si observamso las gráficas para las medidas de error MAE y RMSE de entrenamiento del algoritmo backpropagation obtiene en menor error, sin embargo para el resto el comité ELM es el que mejores resultados obtiene.

El tiempo para cada algoritmo varia, observemos la tabla:

Tabla 4.27: Tiempo para los distintos algoritmos (medido en segundos). ALGORITMOS

Backpropagation ELM y Comité ELM 11853 1251

El comité ELM que hemos usado para este cálculo es el de 20 ELMs ya que es el que más tarda. EL número de neuronas ocultas y de repeticiones eran los mismos para los dos, 90:20:290 y 50 respectivamente.

En conclusión, el algoritmo backpropagation aunque se obtienen buenos resultados para los errores MAE y RMSE de entrenamiento el comité ELM sigue siendo más óptimo en el resto de errores. Los valores más importantes son los de validación y el comité ELM es el que mejores resultados obtiene. El tiempo que tarda en ejecutarse el comité ELM es un 90% más rápido que el backpropagation. En definitiva, es mejor hacer una inicialización aleatoria y ajustar dos veces que usar el método de descenso por gradiente.

57

3.6.4 Resultados california housing

Tabla 4.28: Resultados California housing del backpropagation. RESULTADO CALIFORNIA HOUSING BACKPROPAGATION

Número de ENTRENAMIENTO VALIDACION neuronas

MAE entrenamiento RMSE entrenamiento ME entrenamiento

MAE validación RMSE validación ME validación 55 0,148419555 0,215539686 -0,001660727

0,154773109 0,22834411 0,002139775

60 0,14841704 0,215589614 -0,001183035

0,154662943 0,228381454 0,002515281 65 0,148311978 0,215477019 -0,001110507

0,1546142 0,228385762 0,002579493

70 0,148254806 0,21539964 -0,000840186

0,15459255 0,228325073 0,00282453 75 0,148284533 0,215455425 -0,00077641

0,154586593 0,228288387 0,00288995

80 0,148357671 0,215551895 -0,000686075

0,154608631 0,228289637 0,002987811 85 0,148266816 0,215433295 -0,000678278

0,154583308 0,228256429 0,002994674

90 0,148256677 0,215415633 -0,000693413

0,154595833 0,228261128 0,002990636 95 0,14838203 0,215587859 -0,000697165

0,154664276 0,228346409 0,00299719

100 0,148356442 0,215545186 -0,000738458

0,154659454 0,228321276 0,002946895 105 0,148269852 0,215422646 -0,00073757

0,154613719 0,228269464 0,002955233

Tabla 4.29: Resultados California housing del ELM (5 ELM). RESULTADO CALIFORNIA HOUSING ELM (5 ELM)

Número de ENTRENAMIENTO VALIDACION neuronas

MAE entrenamiento RMSE entrenamiento ME entrenamiento

MAE validación RMSE validación ME validación 55 0,185246857 0,259361583 -1,37728E-08

0,184630364 0,261027279 -0,003080295

60 0,185297517 0,259421141 -3,76991E-07

0,184686512 0,261088269 -0,002975733 65 0,185195415 0,259325079 -3,59045E-07

0,184574626 0,260948093 -0,002951453

70 0,18517495 0,259426534 -3,03263E-07

0,184606034 0,261067297 -0,002939703 75 0,185245043 0,259324505 8,135E-08

0,184630113 0,260921401 -0,002969779

80 0,185173626 0,259361612 -8,3644E-07

0,184506418 0,260959927 -0,003023806 85 0,185300228 0,259440972 -5,92807E-07

0,184711577 0,26108108 -0,002996395

90 0,185427436 0,259585881 -1,06279E-07

0,184860441 0,261342446 -0,002957547 95 0,185070669 0,259274423 2,55016E-07

0,184435489 0,260835926 -0,002981376

100 0,185357035 0,259544581 -8,09381E-07

0,184797693 0,261235267 -0,003007776 105 0,185456496 0,259621999 -2,47004E-07

0,18488736 0,261429778 -0,003082561

Tabla 4.30: Resultados California housing del comité ELM (5 ELM). RESULTADO CALIFORNIA HOUSING COMITE ELM (5 ELM)

Número de ENTRENAMIENTO VALIDACION neuronas

MAE entrenamiento RMSE entrenamiento ME entrenamiento

MAE validación RMSE validación ME validación 55 0,176862038 0,250097256 -0,001379748

0,175767956 0,249892448 -0,003634477

60 0,174227309 0,246554633 -0,000210429

0,17274561 0,24492355 -0,003142235 65 0,174275807 0,246949159 -0,000292365

0,172080608 0,244758187 -0,003578738

70 0,174441199 0,247330223 -0,000589354

0,172083729 0,245168774 -0,003818544 75 0,173758158 0,246045023 -0,000563237

0,171909834 0,24503233 -0,003849384

80 0,174161309 0,246791101 -0,000253829

0,17225047 0,244172333 -0,002722467 85 0,174041792 0,247712545 -0,00050389

0,173082025 0,246555634 -0,002420651

90 0,174506195 0,247794334 -0,000514238

0,173156418 0,246212159 -0,003261611 95 0,173534699 0,246661394 -0,000561643

0,17214901 0,245374921 -0,00392782

100 0,174059553 0,247017999 -0,000641094

0,172870589 0,245712334 -0,003387054 105 0,174083305 0,247137967 -0,000252344

0,171896266 0,245186996 -0,002902445

58

Tabla 4.31: Resultados California housing del ELM (10 ELM). RESULTADO CALIFORNIA HOUSING ELM (10 ELM)

Número de ENTRENAMIENTO VALIDACION neuronas

MAE entrenamiento RMSE entrenamiento ME entrenamiento

MAE validación RMSE validación ME validación 55 0,185396992 0,259535556 -5,06378E-07

0,18474841 0,261139669 -0,003027179

60 0,185403968 0,259535355 -5,97477E-07

0,184821668 0,261246797 -0,003052393 65 0,185262811 0,259436614 -2,20646E-07

0,184711811 0,261085702 -0,003010286

70 0,185331028 0,259440243 -9,51992E-08

0,184721475 0,261085925 -0,002996561 75 0,185178802 0,259317454 -8,33075E-08

0,184574977 0,260984037 -0,002944995

80 0,185300127 0,259421707 -2,20901E-07

0,184680573 0,261016251 -0,002959464 85 0,185275858 0,259406729 -7,41099E-08

0,184645586 0,261066608 -0,003030436

90 0,18522014 0,259319879 -4,80282E-07

0,184618933 0,261001672 -0,002954523 95 0,185149246 0,259335225 -3,07302E-07

0,184542574 0,260962805 -0,002927184

100 0,185208801 0,25930759 -4,85099E-07

0,184605184 0,260993872 -0,002998709 105 0,18524089 0,259400979 -1,68067E-07

0,184616863 0,261097841 -0,002954019

Tabla 4.32: Resultados California housing del comité ELM (10 ELM). RESULTADO CALIFORNIA HOUSING COMITE ELM (10 ELM)

Número de ENTRENAMIENTO VALIDACION neuronas

MAE entrenamiento RMSE entrenamiento ME entrenamiento

MAE validación RMSE validación ME validación 55 0,178041391 0,25162845 -0,00119992

0,176124936 0,250504992 -0,00435238

60 0,174142342 0,247571461 -0,000468873

0,172720478 0,246193008 -0,00292771 65 0,174348616 0,247374107 -0,000403075

0,172990926 0,246109004 -0,003533578

70 0,173936585 0,2465982 -0,000268851

0,17215354 0,244566823 -0,003238194 75 0,173242974 0,246222231 -0,000109211

0,171765077 0,245042787 -0,002966377

80 0,174399454 0,246841129 -2,29E-05

0,172154784 0,245163323 -0,004014116 85 0,174873664 0,247494013 -0,00024872

0,173026319 0,245275647 -0,002419276

90 0,173883303 0,24598465 -0,000241614

0,172115445 0,244384188 -0,003058246 95 0,174765121 0,246395349 -0,000514157

0,172660366 0,244426247 -0,003294238

100 0,174314139 0,246881893 -0,000537366

0,172439185 0,2453081 -0,003555483 105 0,174282518 0,247142168 -0,000137476

0,173303762 0,246085575 -0,002228728

Tabla 4.33: Resultados California housing del ELM (20 ELM). RESULTADO CALIFORNIA HOUSING ELM (20 ELM)

Número de ENTRENAMIENTO VALIDACION neuronas

MAE entrenamiento RMSE entrenamiento ME entrenamiento

MAE validación RMSE validación ME validación 55 0,185208694 0,259350305 -3,35326E-07

0,184611209 0,261022414 -0,003008116

60 0,18516834 0,259331821 -5,03732E-07

0,184564786 0,260966964 -0,002952328 65 0,185213548 0,259345732 -3,02429E-07

0,184584327 0,26099571 -0,002942033

70 0,185343507 0,259490832 -3,61597E-07

0,184723714 0,261109066 -0,002987659 75 0,185305457 0,259464871 -4,44065E-07

0,184709901 0,261072926 -0,002958664

80 0,18530225 0,259438845 -3,7884E-07

0,18470765 0,261109555 -0,00305701 85 0,185247582 0,259392022 -3,22939E-07

0,184630829 0,261025415 -0,002955765

90 0,185310506 0,259466367 -3,48336E-07

0,184725018 0,26115831 -0,002938126 95 0,185169295 0,259307104 -6,74309E-07

0,184547764 0,260868626 -0,002972992

100 0,185335242 0,259494238 -5,61521E-08

0,1847133 0,26107031 -0,002998029 105 0,185167583 0,259307223 -2,6155E-07

0,184528552 0,260896314 -0,002997779

Tabla 4.34: Resultados California housing del comité ELM (20 ELM).

RESULTADO CALIFORNIA HOUSING COMITE ELM (20 ELM) Número de ENTRENAMIENTO VALIDACION neuronas

MAE entrenamiento RMSE entrenamiento ME entrenamiento

MAE validación RMSE validación ME validación 55 0,175410329 0,249198503 -0,001198402

0,173643861 0,247813198 -0,003309465

60 0,174854922 0,247543624 -0,001053784

0,172780419 0,246286681 -0,004625686 65 0,175076725 0,247890433 -0,000949189

0,173217678 0,246083325 -0,002656869

70 0,174128903 0,24712807 -4,86E-05

0,17223392 0,245072196 -0,002167012 75 0,174711611 0,247624408 -4,64E-05

0,173265564 0,245102166 -0,002691545

80 0,175289189 0,247969689 -5,14E-04

0,172919256 0,245390489 -0,002645182 85 0,174676179 0,247009895 -0,000314852

0,172573268 0,245236739 -0,002224711

90 0,174631523 0,247501504 -0,000510533

0,173235756 0,24638502 -0,003184293 95 0,173982515 0,246482759 4,66E-05

0,17224693 0,244651541 -0,002929179

100 0,174438849 0,247755049 -0,000753578

0,172448966 0,245247893 -0,003771914 105 0,174760833 0,248156626 -0,00077933

0,17297166 0,246058845 -0,003519849

59

60

61

En este caso el algoritmo backpropagation es el que mejor se comporta ya que consigue un error mínimo en casi todas las medidas de error, menos en la medida de error ME de entrenamiento que se comporta mejor en el algoritmo ELM (5 ELM). El comité ELM se comporta mejor que el ELM pero no llega a tener unos resultados tan bajos como el backpropagation.

El tiempo para cada algoritmo varia, observemos la tabla:

Tabla 4.35: Tiempo para los distintos algoritmos (medido en segundos). ALGORITMOS

Backpropagation ELM y Comité ELM 33842 2848

El comité ELM que hemos usado para este cálculo es el de 20 ELMs ya que es el que más tarda. EL número de neuronas ocultas y de repeticiones eran los mismos para los dos, 55:5:105 y 50 respectivamente.

En este caso el backpropagation es el que mejor resultados obtiene, pero tarda mucho más. El comité ELM que es el siguiente que mejores resultados obtiene tarda un 91,58% menos que el algoritmo backpropagation.

62

3.6.5 Resultados census (house8l)

Tabla 4.36: Resultados Census (house8l) del backpropagation RESULTADO CENSUS (HOUSE8L) BACKPROPAGATION

Número de ENTRENAMIENTO VALIDACION neuronas

MAE entrenamiento RMSE entrenamiento ME entrenamiento

MAE validación RMSE validación ME validación 110 0,064110571 0,109389685 -0,000401239

0,070717869 0,130270536 0,000411702

120 0,063990855 0,109215452 -0,000446169

0,070762006 0,130838351 0,000437086 130 0,06391752 0,10912239 -0,000454375

0,070714785 0,130742421 0,0003773

140 0,06397536 0,10908906 -0,000648995

0,070830039 0,130955721 0,000199692 150 0,06397218 0,10911134 -0,000611378

0,070793414 0,130905916 0,000250145

160 0,063903501 0,109028232 -0,000516546

0,070765689 0,13088713 0,000358604 170 0,063861934 0,109005719 -0,000374622

0,0707283 0,130849758 0,000478411

180 0,063871312 0,109050616 -0,000286181

0,070728323 0,130891014 0,000568402 190 0,06389139 0,109079198 -0,000302348

0,070722157 0,130890122 0,000549441

200 0,063905911 0,109121457 -0,00031373

0,07070789 0,130845795 0,000545581 210 0,063893407 0,109121561 -0,000286805

0,07069501 0,130871914 0,000578389

Tabla 4.37: Resultados Census (house8l) del ELM (5 ELM). RESULTADO CENSUS (HOUSE8L) ELM (5 ELM)

Número de ENTRENAMIENTO VALIDACION neuronas

MAE entrenamiento RMSE entrenamiento ME entrenamiento

MAE validación RMSE validación ME validación 110 0,072665858 0,1262171 9,66758E-08

0,075018918 0,137381493 -0,000693921

120 0,072696055 0,126267045 1,68744E-07

0,075046743 0,137601303 -0,000730487 130 0,072668117 0,126279481 1,69392E-07

0,075034573 0,137513563 -0,000679818

140 0,072748323 0,126434756 1,36289E-07

0,075060442 0,137617214 -0,000691961 150 0,072709494 0,126292983 1,53156E-07

0,075057746 0,137614181 -0,000726401

160 0,072733585 0,12632485 1,86966E-07

0,075073702 0,137636806 -0,000714406 170 0,072638758 0,126171946 1,65896E-07

0,074982443 0,137478501 -0,000695786

180 0,072648804 0,126244462 1,1921E-07

0,07499629 0,137422038 -0,000680662 190 0,0727636 0,126314904 1,06873E-07

0,075101366 0,137497506 -0,000695021

200 0,072750153 0,126356217 1,74679E-07

0,075069799 0,137617219 -0,0007154 210 0,072717997 0,12636096 1,53559E-07

0,074988195 0,137439814 -0,000731071

Tabla 4.38: Resultados Census (house8l) del comité ELM (5 ELM). RESULTADO CENSUS (HOUSE8L) COMITE ELM (5 ELM)

Número de ENTRENAMIENTO VALIDACION neuronas

MAE entrenamiento RMSE entrenamiento ME entrenamiento

MAE validación RMSE validación ME validación 110 0,069397484 0,121655765 -0,000511957

0,071633072 0,131713357 -4,31133E-05

120 0,068911066 0,120592949 -0,000342894

0,07162029 0,129817012 0,000138095 130 0,069300727 0,121176586 -0,000362013

0,071847376 0,130394882 -0,000106885

140 0,069153225 0,121170732 -0,000551717

0,071846441 0,130565523 -4,37107E-05 150 0,068816433 0,121155012 -0,000507925

0,071443301 0,130087824 -7,29709E-05

160 0,068763827 0,120594948 -0,000368463

0,07103842 0,129426439 1,49631E-05 170 0,068667855 0,120742684 -0,000452182

0,071296817 0,130317697 -0,000228624

180 0,068759674 0,120416717 -0,000288948

0,071282535 0,129775831 3,3669E-05 190 0,068750635 0,120677801 -0,000489231

0,071024922 0,130046475 -6,79766E-05

200 0,069087519 0,120423867 -0,000180992

0,071356459 0,130124928 0,000188075 210 0,069019058 0,120317335 -0,000320295

0,071362937 0,129924658 -0,00017065

63

Tabla 4.39: Resultados Census (house8l) del ELM (10 ELM). RESULTADO CENSUS (HOUSE8L) ELM (10 ELM)

Número de ENTRENAMIENTO VALIDACION neuronas

MAE entrenamiento RMSE entrenamiento ME entrenamiento

MAE validación RMSE validación ME validación 110 0,072659588 0,126241605 1,59971E-07

0,074980407 0,137355515 -0,000720029

120 0,07270106 0,126285222 1,34808E-07

0,075037667 0,137552586 -0,00072771 130 0,072666289 0,126231552 1,64906E-07

0,074994819 0,137431944 -0,000700396

140 0,072664475 0,126295598 1,50217E-07

0,075006651 0,137470674 -0,000687111 150 0,072656915 0,126250783 1,33693E-07

0,074990006 0,137530976 -0,00074448

160 0,072644257 0,126212082 1,56212E-07

0,075009784 0,137477024 -0,000696964 170 0,07270073 0,126280382 1,47887E-07

0,075071561 0,137616184 -0,000753173

180 0,072669765 0,126264104 1,71252E-07

0,075031454 0,137497345 -0,000695156 190 0,072656988 0,126222078 1,25683E-07

0,075002474 0,137438579 -0,000703179

200 0,072703182 0,126279673 1,47389E-07

0,075050497 0,137516461 -0,000694469 210 0,072696618 0,126362599 1,23756E-07

0,075040235 0,137602795 -0,000667194

Tabla 4.40: Resultados Census (house8l) del comité ELM (10 ELM). RESULTADO CENSUS (HOUSE8L) COMITE ELM (10 ELM)

Número de ENTRENAMIENTO VALIDACION neuronas

MAE entrenamiento RMSE entrenamiento ME entrenamiento

MAE validación RMSE validación ME validación 110 0,069116027 0,121553823 -0,000501161

0,071778731 0,131603975 -0,000108635

120 0,068622332 0,120152042 -0,000360303

0,071183915 0,129777539 -0,000145983 130 0,068791259 0,120234537 -0,000379833

0,071565784 0,12918951 8,56E-06

140 0,068865624 0,120609961 -0,000401587

0,071454818 0,130556327 -8,40E-05 150 0,069124971 0,12099994 -0,000496268

0,071349462 0,130541346 -0,000265033

160 0,068881464 0,120469565 -0,000490904

0,07154097 0,12988939 -0,000164059 170 0,068529657 0,120402199 -0,000389557

0,071358895 0,129968995 -0,000274618

180 0,069133017 0,120704043 -0,00024796

0,071166988 0,130138399 -8,76E-05 190 0,068794918 0,120437127 -0,000221355

0,071319445 0,129710192 -2,41E-05

200 0,069015217 0,120357568 -0,000353806

0,071170815 0,129924938 -0,000123918 210 0,069085915 0,12081748 -0,000430091

0,071211186 0,130302863 -1,80E-05

Tabla 4.41: Resultados Census (house8l) del ELM (20 ELM). RESULTADO CENSUS (HOUSE8L) ELM (20 ELM)

Número de ENTRENAMIENTO VALIDACION neuronas

MAE entrenamiento RMSE entrenamiento ME entrenamiento

MAE validación RMSE validación ME validación 110 0,072701157 0,126286016 1,52432E-07

0,075045276 0,137512382 -0,000706418

120 0,072701058 0,126305321 1,57635E-07

0,075018302 0,137438793 -0,00070697 130 0,072691365 0,126283769 1,76461E-07

0,075045971 0,137543449 -0,000714468

140 0,072712504 0,126311039 1,35059E-07

0,075069616 0,137533503 -0,000707531 150 0,072671398 0,126325304 1,34955E-07

0,075002787 0,137475799 -0,000714719

160 0,07267403 0,126249468 1,52761E-07

0,075036086 0,137535383 -0,000698596 170 0,07274198 0,126354882 1,44082E-07

0,075076445 0,137574753 -0,000710838

180 0,072708947 0,126328285 1,46047E-07

0,075051586 0,137541555 -0,00072229 190 0,072727832 0,12632858 1,29694E-07

0,075075358 0,137580794 -0,000711164

200 0,072674271 0,126243539 1,46455E-07

0,075030529 0,137497872 -0,000726568 210 0,072665569 0,126237784 1,33042E-07

0,075013927 0,137474078 -0,000692669

Tabla 4.42: Resultados Census (house8l) del comité ELM (20 ELM).

RESULTADO CENSUS (HOUSE8L) COMITE ELM (20 ELM) Número de ENTRENAMIENTO VALIDACION neuronas

MAE entrenamiento RMSE entrenamiento ME entrenamiento

MAE validación RMSE validación ME validación 110 0,069227828 0,12185595 -0,000623903

0,071665737 0,132007215 -0,000189329

120 0,068993735 0,120772859 -0,0003861

0,071126116 0,129943574 -0,000294062 130 0,069062771 0,120720928 -0,000524504

0,071428605 0,130276878 -2,45E-04

140 0,068992698 0,120767662 -0,000397195

0,071086986 0,130006697 -1,11E-04 150 0,068896796 0,120759707 -0,000415922

0,071298356 0,12975204 -4,03E-05

160 0,069131981 0,12067197 -0,000323384

0,071436095 0,129550159 -0,000156626 170 0,069124297 0,121403232 -0,000460727

0,071591412 0,130546568 -0,000254182

180 0,068842883 0,120777986 -0,00031528

0,071794545 0,130030004 1,66E-04 190 0,068770698 0,120319678 -0,000288534

0,071216605 0,129547478 2,90E-04

200 0,069109484 0,120931961 -0,000394688

0,071493427 0,129666628 -6,32E-05 210 0,068809073 0,120510253 -0,000396237

0,071478663 0,129625374 -8,85E-05

64

65

66

El algoritmo backpropagation se comporta mejor con las medidas de error MAE y RMSE de entrenamiento y para el valor MAE de validación. Sin embargo, ELM obtiene el error mínimo del ME en entrenamiento y el comité ELM los errores RMSE y ME de validación.

El tiempo para cada algoritmo varia, observemos la tabla:

Tabla 4.43: Tiempo para los distintos algoritmos (medido en segundos). ALGORITMOS

Backpropagation ELM y Comité ELM 29345 6954

El comité ELM que hemos usado para este cálculo es el de 20 ELMs ya que es el que más tarda. EL número de neuronas ocultas y de repeticiones eran los mismos para los dos, 110:10:210 y 50 respectivamente.

El tiempo que tarda en ejecutarse el algoritmo backpropagation es elevado, el comité ELM que es el que más se aproxima en las medidas de error al back propagation tarda un 76,3% menos.

67

3.6.6 Resultados computer activity

Tabla 4.44: Resultados Computer activity del backpropagation RESULTADO COMPUTER ACTIVITY BACKPROPAGATION

Número de ENTRENAMIENTO VALIDACION neuronas

MAE entrenamiento RMSE entrenamiento ME entrenamiento

MAE validación RMSE validación ME validación 75 0,038539021 0,052230279 -0,002762823

0,043740385 0,066916788 -0,000106037

85 0,038565371 0,052211221 -0,003107938

0,044181222 0,067942188 -0,000546174 95 0,03832463 0,051878201 -0,002439013

0,044079243 0,06782535 6,12103E-05

105 0,038282729 0,051771902 -0,001888822

0,044030345 0,067844668 0,000627338 115 0,038230715 0,051692496 -0,001741186

0,044062645 0,068278045 0,000777773

125 0,038185229 0,051624858 -0,001564251

0,044069297 0,068444727 0,00093075 135 0,038134942 0,051560715 -0,001440951

0,044015593 0,068299474 0,001044728

145 0,038124182 0,051548608 -0,001504602

0,044025006 0,068309566 0,000978117 155 0,038076024 0,05150197 -0,001618481

0,044033957 0,068510865 0,000855213

165 0,038084399 0,051501831 -0,00156099

0,044050021 0,068426697 0,000916762 175 0,038073652 0,051506729 -0,001609494

0,044009667 0,068303756 0,000866335

Tabla 4.45: Resultados Computer activity del ELM (5 ELM). RESULTADO COMPUTER ACTIVITY ELM (5 ELM)

Número de ENTRENAMIENTO VALIDACION neuronas

MAE entrenamiento RMSE entrenamiento ME entrenamiento

MAE validación RMSE validación ME validación 75 0,049332035 0,06623536 2,27738E-06

0,049851258 0,069262445 -0,003109389

85 0,049379417 0,06627496 2,76248E-06

0,049966842 0,069534921 -0,003117374 95 0,049528553 0,06653465 2,08606E-06

0,050051182 0,069505343 -0,003079606

105 0,049527647 0,066505566 2,4885E-06

0,050072312 0,069771959 -0,003055989 115 0,049313043 0,066175906 2,30438E-06

0,049850374 0,069546664 -0,003075382

125 0,049432808 0,066388468 2,7665E-06

0,05002829 0,070034576 -0,003065044 135 0,049388257 0,066298047 2,09165E-06

0,049947656 0,069384254 -0,003197701

145 0,049435582 0,06642092 2,6384E-06

0,049988071 0,069663371 -0,003090656 155 0,049597214 0,066591084 1,92609E-06

0,050170704 0,070063448 -0,002976208

165 0,049338328 0,06629086 2,53654E-06

0,049922579 0,070014672 -0,003094782 175 0,049404463 0,066340223 2,27978E-06

0,049970525 0,069531165 -0,003147689

Tabla 4.46: Resultados Computer activity del comité ELM (5 ELM). RESULTADO COMPUTER ACTIVITY COMITE ELM (5 ELM)

Número de ENTRENAMIENTO VALIDACION neuronas

MAE entrenamiento RMSE entrenamiento ME entrenamiento

MAE validación RMSE validación ME validación 75 0,044954998 0,060474661 0,000154858

0,044498186 0,060446761 -0,001134957

85 0,044147716 0,05933432 0,000119718

0,043092581 0,05848668 -0,001025889 95 0,044231673 0,059342327 -0,000160295

0,043182308 0,058574861 -0,001038743

105 0,04456155 0,059813144 0,000229533

0,043516594 0,059052059 -0,000643689 115 0,04420932 0,05946227 0,000302866

0,043477456 0,058806597 -0,00037295

125 0,044308101 0,059715674 0,000274708

0,043420547 0,058858952 -0,000540485 135 0,0444471 0,059804709 0,000175898

0,043713711 0,059034769 -0,000863016

145 0,044129268 0,059342985 -2,56734E-05

0,043472841 0,058793523 -0,000749286 155 0,044243455 0,059350336 -4,71017E-05

0,043030529 0,058332379 -0,001392624

165 0,044182245 0,059477508 0,00012232

0,043354259 0,058839716 -0,000924357 175 0,044272153 0,059520646 0,000296372

0,04371054 0,058826977 -0,000846808

68

Tabla 4.47: Resultados Computer activity del ELM (10 ELM). RESULTADO COMPUTER ACTIVITY ELM (10 ELM)

Número de ENTRENAMIENTO VALIDACION neuronas

MAE entrenamiento RMSE entrenamiento ME entrenamiento

MAE validación RMSE validación ME validación 75 0,049374159 0,066284921 2,3842E-06

0,049949197 0,069667587 -0,00307471

85 0,049487113 0,066475159 2,23098E-06

0,050068393 0,070266811 -0,003005616 95 0,049343176 0,066236401 2,18893E-06

0,049903611 0,069754602 -0,003110708

105 0,049424443 0,066353406 2,4263E-06

0,049954101 0,069607054 -0,003022438 115 0,049397766 0,066317475 2,34229E-06

0,050007311 0,069777357 -0,003065442

125 0,049363878 0,066285327 1,8084E-06

0,049922763 0,069532853 -0,003122711 135 0,049349666 0,066255461 2,07584E-06

0,049874105 0,069559529 -0,003098575

145 0,049471926 0,066438338 2,84426E-06

0,050050053 0,069758377 -0,003086852 155 0,049404214 0,066320024 2,29632E-06

0,049972189 0,069622531 -0,003113027

165 0,049374777 0,066301242 2,67589E-06

0,049965191 0,069718013 -0,003120783 175 0,049274901 0,066140976 2,52486E-06

0,049833188 0,06954028 -0,003077558

Tabla 4.48: Resultados Computer activity del comité ELM (10 ELM). RESULTADO COMPUTER ACTIVITY COMITE ELM (10 ELM)

Número de ENTRENAMIENTO VALIDACION neuronas

MAE entrenamiento RMSE entrenamiento ME entrenamiento

MAE validación RMSE validación ME validación 75 0,045421357 0,061046402 0,000363108

0,044704933 0,060573808 -0,000573748

85 0,044309796 0,05967736 0,000389751

0,043303041 0,058562653 -0,000390597 95 0,044010648 0,059401223 9,26963E-05

0,043626877 0,059066402 -0,000618273

105 0,044435685 0,059717527 0,000104207

0,04369069 0,059042351 -0,00060435 115 0,044094338 0,059361806 9,42959E-05

0,043244556 0,05846005 -0,00070293

125 0,044142404 0,059571703 0,000105136

0,0432015 0,058424406 -0,00061029 135 0,044315129 0,05969436 0,000160185

0,043409464 0,058536827 -0,000991992

145 0,044467268 0,059633727 0,000149976

0,043498839 0,058669345 -0,000823684 155 0,044348469 0,059702488 6,02379E-05

0,043503743 0,058655172 -0,001007195

165 0,044325264 0,059454987 5,69914E-05

0,04336802 0,05854342 -2,69537E-05 175 0,0441672 0,059403216 0,000150342

0,043526614 0,058922054 -0,000308541

Tabla 4.49: Resultados Computer activity del ELM (20 ELM). RESULTADO COMPUTER ACTIVITY ELM (20 ELM)

Número de ENTRENAMIENTO VALIDACION neuronas

MAE entrenamiento RMSE entrenamiento ME entrenamiento

MAE validación RMSE validación ME validación 75 0,049321438 0,066220482 2,43347E-06

0,049908575 0,069773954 -0,003092474

85 0,049332913 0,066237541 2,47339E-06

0,049897735 0,06954038 -0,003061454 95 0,049446401 0,06639346 2,31036E-06

0,050019392 0,069638896 -0,00313093

105 0,049420962 0,066352065 2,27321E-06

0,049986477 0,069726684 -0,003103735 115 0,049320913 0,06620723 2,30822E-06

0,049841171 0,069331898 -0,003111371

125 0,04938838 0,066307105 2,57143E-06

0,049942139 0,06971576 -0,003089234 135 0,0493977 0,066347913 2,4131E-06

0,049990728 0,069724165 -0,003065692

145 0,049448179 0,066406324 2,34948E-06

0,050011193 0,069750047 -0,003072254 155 0,049438265 0,066384111 2,39937E-06

0,050004371 0,069630638 -0,003120107

165 0,049415226 0,066364519 2,3141E-06

0,049989343 0,069736204 -0,003105363 175 0,049400671 0,066318647 2,35203E-06

0,050010387 0,069782671 -0,00309023

Tabla 4.50: Resultados Computer activity del comité ELM (20 ELM).

RESULTADO COMPUTER ACTIVITY COMITE ELM (20 ELM) Número de ENTRENAMIENTO VALIDACION neuronas

MAE entrenamiento RMSE entrenamiento ME entrenamiento

MAE validación RMSE validación ME validación 75 0,045162201 0,060874846 0,000277453

0,044392981 0,060067796 -0,000205584

85 0,043976543 0,059289865 -0,000102048

0,043082711 0,058416738 -0,000487928 95 0,044147616 0,059463909 1,55112E-05

0,043421792 0,058597082 -0,000608306

105 0,04420546 0,05950579 0,000136907

0,043442801 0,058746664 -0,000333728 115 0,044476537 0,059725413 0,00013736

0,043580827 0,058795819 -0,00127776

125 0,044028185 0,059250458 0,000104467

0,043185196 0,058798413 -0,000801903 135 0,043977159 0,059229073 3,49644E-05

0,0430104 0,058422613 -0,000657966

145 0,044223388 0,059709228 2,27737E-05

0,043367288 0,05856917 -0,000939151 155 0,044319235 0,059662395 0,000175126

0,043915813 0,058992068 -0,000499777

165 0,044418792 0,059649533 0,000232216

0,04356132 0,058760732 -0,000632533 175 0,044306883 0,059721098 0,000139372

0,043352523 0,05889793 -0,000974577

69

70

71

Si observamos las gráficas el algoritmo backpropagation es el que menor error tiene en los errores MAE y RMSE de entrenamiento. El ELM (5 ELM) sigue obteniendo el menor error en ME entrenamiento. Y el comité ELM obtiene el menor error en todas las medidas de error de validación.

El tiempo para cada algoritmo varia, observemos la tabla:

Tabla 4.51: Tiempo para los distintos algoritmos (medido en segundos). ALGORITMOS

Backpropagation ELM y Comité ELM 13611 1618

El comité ELM que hemos usado para este cálculo es el de 20 ELMs ya que es el que más tarda. EL número de neuronas ocultas y de repeticiones eran los mismos para los dos, 75:10:175 y 50 respectivamente.

Aunque el comité ELM no obtiene los mejores resultados en la parte de entrenamiento son más relevantes los resultados obtenidos en la parte de validación.

72

3.6.7 Resultados delta ailerons

Tabla 4.52: Resultados Delta ailerons del backpropagation. RESULTADO DELTA AILERONS BACKPROPAGATION

Número de ENTRENAMIENTO VALIDACION neuronas

MAE entrenamiento RMSE entrenamiento ME entrenamiento

MAE validación RMSE validación ME validación 20 0,051263128 0,071833994 -0,00106576

0,054287308 0,076232255 0,001071469

25 0,051207852 0,071767928 -0,000989874

0,054303262 0,076293329 0,001208896 30 0,051231787 0,071783974 -0,000929296

0,054357049 0,076397626 0,001279134

35 0,051234797 0,071760062 -0,00086022

0,054352104 0,076351036 0,001314254 40 0,051237593 0,071754559 -0,000786544

0,054373459 0,076378497 0,001396844

45 0,051240475 0,071761618 -0,000794819

0,054355094 0,07633747 0,001391492 50 0,051244139 0,07175727 -0,000746367

0,054370025 0,076351256 0,00142798

55 0,051253059 0,071757481 -0,00071328

0,054379952 0,076392169 0,001459796 60 0,051256038 0,071749302 -0,000633485

0,054382866 0,076383865 0,001534405

65 0,051241088 0,071722479 -0,000617316

0,054385913 0,076405836 0,001546511 70 0,05123024 0,07170245 -0,000581932

0,054391091 0,076417402 0,001582321

Tabla 4.53: Resultados Delta ailerons del ELM (5 ELM). RESULTADO DELTA AILERONS ELM (5 ELM)

Número de ENTRENAMIENTO VALIDACION neuronas

MAE entrenamiento RMSE entrenamiento ME entrenamiento

MAE validación RMSE validación ME validación 20 0,056458466 0,079274076 -4,39548E-07

0,056386043 0,077369717 -0,002742341

25 0,056464761 0,079277591 -4,34981E-07

0,056386316 0,077371929 -0,002730413 30 0,056509756 0,079343393 -2,12361E-07

0,056437586 0,077434042 -0,002746854

35 0,056451485 0,079245395 -1,42468E-07

0,056356534 0,077338735 -0,00275143 40 0,056429459 0,079220018 -3,75368E-07

0,056364238 0,077335174 -0,002762229

45 0,05645233 0,079250085 1,85572E-07

0,056361565 0,077330031 -0,002763085 50 0,056458708 0,07927356 -1,46758E-07

0,056398618 0,077378941 -0,002754495

55 0,056452724 0,079252755 -9,93632E-08

0,056346663 0,077319202 -0,002734961 60 0,056488437 0,079312892 -1,89813E-08

0,056409109 0,077430182 -0,002753788

65 0,056447419 0,079265789 -4,62132E-08

0,056364282 0,077357475 -0,002751377 70 0,056438552 0,079228505 -6,93491E-07

0,056349382 0,077332841 -0,002768117

Tabla 4.54: Resultados Delta ailerons del comité ELM (5 ELM). RESULTADO DELTA AILERONS COMITE ELM (5 ELM)

Número de ENTRENAMIENTO VALIDACION neuronas

MAE entrenamiento RMSE entrenamiento ME entrenamiento

MAE validación RMSE validación ME validación 20 0,054251844 0,075839096 -0,000265165

0,054063249 0,073742485 -0,003214144

25 0,053092746 0,074207906 0,000238145

0,052648628 0,071736227 -0,003733004 30 0,053084804 0,074140989 -0,000438995

0,052676243 0,071695955 -0,002004333

35 0,053124734 0,074238463 -0,000376725

0,052890501 0,071891508 -0,003862464 40 0,053111208 0,074202021 0,000215324

0,052868632 0,072012541 -0,004236648

45 0,053309454 0,074400577 0,000218161

0,052557737 0,071607311 -0,002771156 50 0,053233676 0,074394739 -0,000255868

0,052712483 0,071977056 -0,002943024

55 0,053179525 0,07437467 -3,55232E-05

0,052844522 0,072011538 -0,004416091 60 0,053106282 0,074202433 0,00040399

0,05269938 0,071804481 -0,003832147

65 0,053037247 0,074175057 0,000136673

0,052741878 0,071777246 -0,003684786 70 0,052980347 0,07413251 -0,000527633

0,052678535 0,071795596 -0,004007377

73

Tabla 4.55: Resultados Delta ailerons del ELM (10 ELM). RESULTADO DELTA AILERONS ELM (10 ELM)

Número de ENTRENAMIENTO VALIDACION neuronas

MAE entrenamiento RMSE entrenamiento ME entrenamiento

MAE validación RMSE validación ME validación 20 0,056475928 0,079273611 -3,38758E-07

0,056385938 0,077375597 -0,002750481

25 0,056447118 0,07924735 -3,17926E-07

0,056363635 0,077346484 -0,00274507 30 0,05646005 0,079256934 -3,32933E-07

0,056368175 0,077342263 -0,002747984

35 0,056458963 0,079252162 -2,99758E-07

0,056370641 0,077352365 -0,0027294 40 0,056460202 0,079260403 -8,53031E-08

0,056384558 0,077379051 -0,002745148

45 0,056460204 0,079255824 -3,58194E-07

0,056384018 0,077350253 -0,002736547 50 0,05646457 0,079262349 -2,21872E-07

0,056377834 0,07736126 -0,002732207

55 0,056476075 0,079284942 -2,52636E-07

0,056382258 0,077368399 -0,002745524 60 0,056471958 0,079284494 -2,92596E-07

0,056394555 0,077380352 -0,002745115

65 0,056459788 0,079274471 -2,23004E-07

0,056392932 0,077366482 -0,002753769 70 0,056467106 0,079280833 -3,22616E-07

0,056402288 0,077404531 -0,002743517

Tabla 4.56: Resultados Delta ailerons del comité ELM (10 ELM). RESULTADO DELTA AILERONS COMITE ELM (10 ELM)

Número de ENTRENAMIENTO VALIDACION neuronas

MAE entrenamiento RMSE entrenamiento ME entrenamiento

MAE validación RMSE validación ME validación 20 0,054350592 0,076022167 0,000257698

0,054070007 0,073668813 -0,002953352

25 0,053083827 0,074164985 0,000233891

0,052744206 0,071902992 -0,003537655 30 0,053071059 0,074129571 -0,00024085

0,052782845 0,071843052 -0,003176038

35 0,053066534 0,074280927 -0,00040933

0,052764744 0,071850951 -0,003406734 40 0,052991387 0,074200272 -9,46E-05

0,052519932 0,071535117 -0,002537774

45 0,053105857 0,07431279 6,99E-05

0,052693876 0,071699058 -0,003099817 50 0,053241794 0,074421957 0,000386835

0,052644723 0,071768561 -0,004011667

55 0,053240277 0,074177499 0,000363514

0,052718844 0,071817264 -0,003343417 60 0,052966188 0,074004834 -0,000619255

0,052845862 0,071815157 -0,003938364

65 0,053162637 0,074286246 -3,69E-05

0,052826769 0,07167581 -0,003757471 70 0,05292882 0,074100968 0,000534069

0,052809135 0,071867655 -0,003424727

Tabla 4.57: Resultados Delta ailerons del ELM (20 ELM). RESULTADO DELTA AILERONS ELM (20 ELM)

Número de ENTRENAMIENTO VALIDACION neuronas

MAE entrenamiento RMSE entrenamiento ME entrenamiento

MAE validación RMSE validación ME validación 20 0,056456204 0,079257732 -1,90502E-07

0,056379803 0,077361368 -0,002755717

25 0,056457533 0,079256011 -3,16386E-07

0,056387613 0,0773728 -0,002755251 30 0,056463167 0,079263963 -1,74739E-07

0,056383264 0,077366524 -0,002749433

35 0,056452008 0,079251263 -2,71731E-07

0,056369778 0,077359953 -0,002754264 40 0,056467732 0,079286066 -1,47035E-07

0,056381431 0,07736226 -0,002746773

45 0,056459393 0,079274087 -1,90308E-07

0,056381515 0,077365323 -0,002760103 50 0,056458683 0,079257271 -2,24961E-07

0,056378875 0,077360592 -0,002757798

55 0,05645328 0,079256041 -2,81123E-07

0,056366309 0,077335145 -0,002759588 60 0,056450228 0,079250203 -2,07616E-07

0,056372005 0,077355938 -0,002754138

65 0,056450896 0,079245013 -3,81034E-07

0,056378222 0,077355521 -0,002746127 70 0,056453354 0,079249475 -2,9202E-07

0,05638768 0,077374832 -0,002742092

Tabla 4.58: Resultados Delta ailerons del comité ELM (20 ELM).

RESULTADO DELTA AILERONS COMITE ELM (20 ELM) Número de ENTRENAMIENTO VALIDACION neuronas

MAE entrenamiento RMSE entrenamiento ME entrenamiento

MAE validación RMSE validación ME validación 20 0,054421031 0,076214829 0,000114231

0,053980239 0,073704645 -0,003128038

25 0,053041485 0,074278014 0,000462635

0,052643914 0,071908613 -0,002290708 30 0,053132365 0,074281844 0,000210048

0,052511708 0,071707891 -0,002607052

35 0,053085096 0,074175631 0,0005393

0,052553195 0,071516958 -0,001811441 40 0,052985587 0,074152544 0,000518535

0,052808363 0,071929215 -0,002651444

45 0,052939636 0,074122249 0,000856639

0,052720549 0,071861083 -0,003114396 50 0,053031654 0,074234358 0,001101156

0,052670131 0,071743404 -0,002302379

55 0,053151743 0,074305332 -0,000156584

0,052822944 0,071886921 -0,003102452 60 0,053120236 0,074231916 0,000486541

0,052643068 0,07167138 -0,002525642

65 0,053028958 0,074233121 -0,000250501

0,052652878 0,071510351 -0,003860874 70 0,052949017 0,074071556 -1,08E-05

0,052628699 0,071661598 -0,002446848

74

75

76

El algoritmo backpropagation sigue obteniendo los mejores resultados en las medidas de error MAE y RMSE de entrenamiento, pero esta vez también obtiene el valor más bajo del error ME validación. El ELM (5 ELM) obtiene el error más bajo en ME entrenamiento y el comité ELM

obtiene los valores más pequeños en los errores MAE y RMSE de validación.

El tiempo para cada algoritmo varia, observemos la tabla:

Tabla 4.59: Tiempo para los distintos algoritmos (medido en segundos). ALGORITMOS

Backpropagation ELM y Comité ELM 4359 490

El comité ELM que hemos usado para este cálculo es el de 20 ELMs ya que es el que más tarda. EL número de neuronas ocultas y de repeticiones eran los mismos para los dos, 20:5:70 y 100 respectivamente.

El comité ELM tarda menos tiempo que el algoritmo backpropagation y los resultados entre ambos son parecidos, aunque el comité ELM obtiene mejores resultados en la parte de validación.

77

3.6.8 Resultados delta elevators

Tabla 4.60: Resultados Delta elevators del backpropagation. RESULTADO DELTA ELEVATORS BACKPROPAGATION

Número de ENTRENAMIENTO VALIDACION neuronas

MAE entrenamiento RMSE entrenamiento ME entrenamiento

MAE validación RMSE validación ME validación 75 0,075574117 0,09943285 -0,00225719

0,081619674 0,108336258 -0,000116181

85 0,075295107 0,099113391 -0,001200251

0,081920537 0,1088718 0,001052324 95 0,075193536 0,098992335 -0,001526976

0,081965692 0,108983281 0,000713091

105 0,075149561 0,098953216 -0,00143262

0,082020856 0,109135317 0,000768431 115 0,075189213 0,09899636 -0,001507528

0,08203801 0,109140084 0,000714021

125 0,075127062 0,098917543 -0,001428468

0,082004511 0,109089288 0,00077582 135 0,075094531 0,098875341 -0,001298329

0,082020258 0,109087204 0,000909266

145 0,075139839 0,098926767 -0,001537161

0,082027042 0,109082624 0,000673402 155 0,075126211 0,098915666 -0,001393902

0,082047018 0,109106676 0,000816827

165 0,075114224 0,098907158 -0,001439316

0,082043526 0,109104984 0,000777638 175 0,075100727 0,098885098 -0,001396984

0,082076558 0,109155039 0,00081546

Tabla 4.61: Resultados Delta elevators del ELM (5 ELM). RESULTADO DELTA ELEVATORS ELM (5 ELM)

Número de ENTRENAMIENTO VALIDACION neuronas

MAE entrenamiento RMSE entrenamiento ME entrenamiento

MAE validación RMSE validación ME validación 75 0,079886511 0,105394899 1,59769E-08

0,080274692 0,105334893 -0,002017952

85 0,079896955 0,105386645 2,087E-08

0,080299987 0,105396066 -0,002040556 95 0,079868888 0,105365667 2,24182E-08

0,0802718 0,105345257 -0,002008932

105 0,079887415 0,105372079 2,11296E-08

0,08029355 0,105355851 -0,002030271 115 0,079882466 0,105376981 2,19287E-08

0,080294 0,105399475 -0,002017457

125 0,079895453 0,105388051 2,81881E-08

0,080276754 0,105349452 -0,002056504 135 0,07987836 0,105380855 1,34574E-08

0,080297843 0,105372642 -0,002014878

145 0,079861955 0,105362929 2,72412E-08

0,080285978 0,105356724 -0,002013952 155 0,079866914 0,105366312 2,87935E-08

0,080260594 0,105330424 -0,001971494

165 0,079861573 0,105367296 2,97523E-08

0,080287502 0,105369838 -0,002020424 175 0,07987993 0,105377288 3,32518E-08

0,08028627 0,105354337 -0,002021054

Tabla 4.62: Resultados Delta elevators del comité ELM (5 ELM). RESULTADO DELTA ELEVATORS COMITE ELM (5 ELM)

Número de ENTRENAMIENTO VALIDACION neuronas

MAE entrenamiento RMSE entrenamiento ME entrenamiento

MAE validación RMSE validación ME validación 75 0,07912805 0,104532802 8,00965E-05

0,079192277 0,104009692 -0,002134543

85 0,079010678 0,104254615 6,15505E-05

0,078288861 0,102977073 -0,00208325 95 0,079045611 0,104275534 4,91268E-05

0,078624855 0,103070932 -0,002414736

105 0,078921109 0,104197727 6,72404E-05

0,078533334 0,102871787 -0,001733658 115 0,078900647 0,104103817 6,04829E-05

0,078299157 0,102658733 -0,001594096

125 0,078934317 0,104151522 5,19181E-05

0,078824252 0,103433443 -0,002164076 135 0,079085164 0,104246926 6,28894E-05

0,078847349 0,103390258 -0,001628715

145 0,078978168 0,104231227 4,23113E-05

0,078459385 0,103075931 -0,002202922 155 0,078895752 0,104107641 1,99179E-05

0,078221625 0,102785831 -0,001807073

165 0,078746451 0,104113418 2,41248E-05

0,078942764 0,103313211 -0,001735914 175 0,078898802 0,104166762 2,9825E-05

0,078873164 0,103430322 -0,002181698

78

Tabla 4.63: Resultados Delta elevators del ELM (10 ELM). RESULTADO DELTA ELEVATORS ELM (10 ELM)

Número de ENTRENAMIENTO VALIDACION neuronas

MAE entrenamiento RMSE entrenamiento ME entrenamiento

MAE validación RMSE validación ME validación 75 0,079874934 0,105372075 1,83E-08

0,080260742 0,105346383 -0,002023755

85 0,079862981 0,105364016 2,30E-08

0,080265402 0,105353268 -0,001988288 95 0,079872896 0,105367879 1,72E-08

0,0802716 0,105337219 -0,002022611

105 0,079873971 0,105361908 2,14E-08

0,080289861 0,105364849 -0,002012469 115 0,079879027 0,10537639 1,85E-08

0,080287665 0,105367277 -0,00203147

125 0,079886813 0,105375623 1,03E-09

0,080301132 0,105388644 -0,002019292 135 0,079871344 0,105371776 8,21E-09

0,080282269 0,105362334 -0,002009944

145 0,079873193 0,10537354 2,20E-08

0,080274521 0,105348847 -0,002020939 155 0,079873723 0,105371041 2,10E-08

0,080275338 0,105351133 -0,002028388

165 0,079889828 0,105374074 2,57E-08

0,080287177 0,105359112 -0,002004487 175 0,079874446 0,10537169 2,06E-08

0,080293252 0,105369218 -0,00201017

Tabla 4.64: Resultados Delta elevators del comité ELM (10 ELM). RESULTADO DELTA ELEVATORS COMITE ELM (10 ELM)

Número de ENTRENAMIENTO VALIDACION neuronas

MAE entrenamiento RMSE entrenamiento ME entrenamiento

MAE validación RMSE validación ME validación 75 0,079281879 0,10448737 4,87E-05

0,079415974 0,104051065 -0,001795791

85 0,078963904 0,103986962 3,28E-05

0,078600402 0,103136863 -0,001889419 95 0,078928584 0,104093341 4,71E-05

0,078337991 0,102848355 -0,001746886

105 0,078904677 0,104155049 3,96E-05

0,078701351 0,103216768 -0,001994296 115 0,079112365 0,104276564 5,91E-05

0,078588691 0,103285932 -0,002556781

125 0,079028918 0,104213094 4,36E-05

0,078542955 0,103114196 -0,002002287 135 0,079043258 0,104191406 6,58E-05

0,078637876 0,103164325 -0,002341007

145 0,079032001 0,104148852 3,87E-05

0,078166973 0,102699088 -0,002076416 155 0,078995323 0,104266029 7,58E-05

0,078642768 0,103026425 -0,002287316

165 0,07897684 0,104214808 6,84E-05

0,07887716 0,10357109 -0,002002426 175 0,078949198 0,104097152 5,63E-05

0,078834658 0,103176345 -0,001922941

Tabla 4.65: Resultados Delta elevators del ELM (20 ELM). RESULTADO DELTA ELEVATORS ELM (20 ELM)

Número de ENTRENAMIENTO VALIDACION neuronas

MAE entrenamiento RMSE entrenamiento ME entrenamiento

MAE validación RMSE validación ME validación 75 0,079873525 0,105371192 1,63716E-08

0,080272888 0,105353642 -0,002008391

85 0,079883971 0,105385881 1,61236E-08

0,080273724 0,105346457 -0,002022656 95 0,07986067 0,105357298 2,30527E-08

0,080279222 0,105361973 -0,002025608

105 0,079873319 0,105368808 1,5382E-08

0,080282494 0,105354188 -0,002014257 115 0,079880076 0,105372985 2,04734E-08

0,080270362 0,105331496 -0,002020159

125 0,079875466 0,105371523 2,02931E-08

0,080286508 0,105355261 -0,002016628 135 0,079875462 0,105376829 2,22746E-08

0,080272397 0,10535716 -0,002025658

145 0,079865723 0,105365627 1,54431E-08

0,080267845 0,105349483 -0,002016019 155 0,079873729 0,105369025 2,07835E-08

0,08028174 0,105352795 -0,002016299

165 0,079874489 0,105374933 6,06263E-09

0,080275357 0,105357752 -0,002024273 175 0,07987311 0,105369092 2,29179E-08

0,080267538 0,105347003 -0,00202116

Tabla 4.66: Resultados Delta elevators del comité ELM (20 ELM).

RESULTADO DELTA ELEVATORS COMITE ELM (20 ELM) Número de ENTRENAMIENTO VALIDACION neuronas

MAE entrenamiento RMSE entrenamiento ME entrenamiento

MAE validación RMSE validación ME validación 75 0,079315403 0,104577737 6,91983E-05

0,079173365 0,103896439 -0,00211619

85 0,079076412 0,104305548 5,53326E-05

0,078441604 0,102942265 -0,002259639 95 0,07897779 0,104292284 3,7247E-05

0,078663009 0,103417592 -0,001631212

105 0,078970235 0,104141929 4,11586E-05

0,078478387 0,1028656 -0,002382375 115 0,078940374 0,104191088 3,58343E-05

0,078556827 0,102937796 -0,002424269

125 0,079041039 0,104223974 6,50381E-05

0,07853697 0,103130091 -0,001974436 135 0,079042523 0,104214342 5,31842E-05

0,078572509 0,102993462 -0,002122233

145 0,079020269 0,104256825 6,06437E-05

0,078745857 0,103158855 -0,002316611 155 0,079011896 0,104200603 3,62163E-05

0,078564597 0,102943981 -0,002315897

165 0,078858313 0,10417929 4,50981E-05

0,078080616 0,102517306 -0,001927394 175 0,078929367 0,104233422 4,89527E-05

0,078343742 0,102765114 -0,002313929

79

80

81

El comité ELM obtiene mejores resultados en los errores MAE y RMSE en la parte de validación. El algoritmo backpropagation obtiene los errores más bajos en MAE y RMSE de entrenaminto y en ME de validación. Y el ELM en ME entrenamiento obtiene el valor más bajo.

El tiempo para cada algoritmo varia, observemos la tabla:

Tabla 4.67: Tiempo para los distintos algoritmos (medido en segundos). ALGORITMOS

Backpropagation ELM y Comité ELM 6685 1845

El comité ELM que hemos usado para este cálculo es el de 20 ELMs ya que es el que más tarda. EL número de neuronas ocultas y de repeticiones eran los mismos para los dos, 75:10:175 y 50 respectivamente.

El comité ELM tarda menos que el algoritmo backpropagation pero el algoritmo backpropagation obtiene mejores resultados en algunos en MAE y RMSE de entrenaminto y en ME de validación aunque los valores del comité ELM no se quedan lejos.

82

3.6.9 Resultados machine CPU

Tabla 4.68: Resultados Machine CPU del backpropagation

RESULTADO MACHINE CPU BACKPROPAGATION Número de ENTRENAMIENTO VALIDACION neuronas

MAE entrenamiento RMSE entrenamiento ME entrenamiento

MAE validación RMSE validación ME validación 2 0,068219184 0,08871456 -0,018388821 0,118379765 0,245087451 0,010895681 4 0,066283499 0,086487944 -0,011615805 0,11683432 0,242487654 0,016160383 6 0,064960349 0,08539046 -0,013463921 0,115967345 0,241624896 0,014209701 8 0,063453052 0,083476739 -0,011747425 0,114409134 0,239419341 0,015745575

10 0,062240638 0,081855094 -0,010675075 0,113751763 0,240333814 0,01733165 12 0,061859703 0,081749607 -0,011390145 0,113630977 0,241303813 0,016351987 14 0,062394005 0,082343256 -0,010643068 0,114285422 0,242737976 0,017166042 16 0,063040883 0,083213715 -0,011080807 0,114938815 0,243179781 0,016791437 18 0,062667618 0,082857083 -0,010628113 0,114807785 0,244007161 0,017509448 20 0,06336375 0,083551174 -0,012102347 0,115228614 0,243413732 0,015496087

Tabla 4.69: Resultados Machine CPU del ELM (5 ELM). RESULTADO MACHINE CPU ELM (5 ELM)

Número de ENTRENAMIENTO VALIDACION neuronas

MAE entrenamiento RMSE entrenamiento ME entrenamiento

MAE validación RMSE validación ME validación 2 0,166060961 0,232629103 0,052508535

0,225404243 0,387046151 -0,00676836

4 0,170394227 0,237060053 0,057092919

0,230639204 0,389229403 -0,001259669 6 0,166502956 0,230094737 0,052942569

0,226029516 0,387062477 -0,008106158

8 0,174392948 0,241417125 0,061692215

0,233763632 0,392050335 0,000426405 10 0,16936133 0,236715229 0,057829209

0,226435828 0,387323496 -0,002449759

12 0,17037606 0,23593648 0,056756945

0,228742637 0,386945175 -0,004154366 14 0,165663638 0,231856511 0,053572781

0,223070347 0,382496761 -0,008930688

16 0,171858848 0,237150189 0,060148001

0,231980689 0,392271692 -2,09973E-05 18 0,165245028 0,231328816 0,055638093

0,219029389 0,375415551 -0,00235872

20 0,165595622 0,232382278 0,053644944

0,222938814 0,381195044 -0,004229516

Tabla 4.70: Resultados Machine CPU del comité ELM (5 ELM). RESULTADO MACHINE CPU COMITE ELM (5 ELM)

Número de ENTRENAMIENTO VALIDACION neuronas

MAE entrenamiento RMSE entrenamiento ME entrenamiento

MAE validación RMSE validación ME validación 2 0,026396237 0,039323501 -1,53E-05

0,01797796 0,028972338 -0,000468753

4 0,013272606 0,024028557 -3,97E-09

6,71E-11 7,03E-11 -7,57E-12 6 0,013913764 0,024532256 -9,32E-10

7,17E-11 7,47E-11 -1,54E-11

8 0,013092422 0,023806422 -5,97E-09

6,77E-11 7,16E-11 -9,53E-13 10 0,013694466 0,024494643 -9,54E-09

7,67E-11 8,02E-11 -2,67E-12

12 0,012807392 0,023567574 -6,64E-09

7,35E-11 7,70E-11 1,04E-11 14 0,013480735 0,024235228 5,44E-10

4,71E-11 4,95E-11 -4,48E-12

16 0,013347222 0,023929482 -4,11E-09

5,37E-11 5,61E-11 -2,15E-12 18 0,012728472 0,023458147 2,60E-09

7,49E-11 7,81E-11 1,98E-12

20 0,013796707 0,024364275 5,67E-09

8,25E-11 8,64E-11 -8,86E-13

83

Tabla 4.71: Resultados Machine CPU del ELM (10 ELM). RESULTADO MACHINE CPU ELM (10 ELM)

Número de ENTRENAMIENTO VALIDACION neuronas

MAE entrenamiento RMSE entrenamiento ME entrenamiento

MAE validación RMSE validación ME validación 2 0,177965984 0,24506138 0,066720554

0,234856757 0,392864412 0,007707317

4 0,174933645 0,241612075 0,060694001

0,235659256 0,396491406 0,000896602 6 0,168330429 0,235317238 0,056289771

0,22653739 0,385624672 -0,002618839

8 0,175523871 0,242831598 0,064215217

0,232921918 0,391229271 0,003607625 10 0,169156181 0,234503147 0,056765294

0,227253596 0,38697882 -0,001699103

12 0,173981301 0,241389866 0,060391438

0,233129755 0,392272941 0,001241021 14 0,171717202 0,238198912 0,059271314

0,228907525 0,387514968 0,000444657

16 0,170238264 0,235903686 0,057401149

0,228515468 0,387526241 -0,002656061 18 0,164786852 0,230616433 0,05466676

0,221243505 0,378744608 -0,003082114

20 0,168886605 0,23494608 0,056112555

0,227391255 0,386141505 -0,002703735

Tabla 4.72: Resultados Machine CPU del comité ELM (10 ELM). RESULTADO MACHINE CPU COMITE ELM (10 ELM)

Número de ENTRENAMIENTO VALIDACION neuronas

MAE entrenamiento RMSE entrenamiento ME entrenamiento

MAE validación RMSE validación ME validación 2 0,027942688 0,040576724 -5,58E-06

0,020505442 0,031593341 -0,000628719

4 0,013174064 0,023903896 2,12E-09

6,30E-11 6,61E-11 -6,40E-12 6 0,013197871 0,023969221 -4,06E-10

6,28E-11 6,53E-11 -1,74E-12

8 0,013573304 0,024260442 -6,43E-10

6,24E-11 6,57E-11 -5,14E-12 10 0,013013973 0,023726984 9,67E-09

5,82E-11 6,15E-11 -1,33E-12

12 0,013146102 0,023926277 -2,61E-09

5,25E-11 5,52E-11 -8,41E-12 14 0,013271548 0,024004972 -3,38E-10

6,30E-11 6,61E-11 2,51E-12

16 0,013469742 0,024161762 -3,45E-09

5,64E-11 5,93E-11 -6,21E-12 18 0,012872715 0,023783642 2,62E-10

4,76E-11 5,03E-11 6,34E-12

20 0,013281152 0,023947507 1,17E-09

6,48E-11 6,82E-11 5,78E-12

Tabla 4.73: Resultados Machine CPU del ELM (20 ELM). RESULTADO MACHINE CPU ELM (20 ELM)

Número de ENTRENAMIENTO VALIDACION neuronas

MAE entrenamiento RMSE entrenamiento ME entrenamiento

MAE validación RMSE validación ME validación 2 0,170871478 0,23743009 0,05751494

0,229967763 0,389298286 -0,002309713

4 0,173653935 0,240275236 0,061805881

0,231496799 0,389393347 0,003352861 6 0,166702323 0,232579259 0,054560668

0,224891696 0,385203914 -0,005921492

8 0,169766094 0,236207375 0,05703462

0,227500719 0,385440084 -0,002445946 10 0,170741063 0,236923224 0,058802431

0,22882122 0,387629263 -0,000392017

12 0,166663334 0,232131805 0,055457297

0,224742471 0,382895174 -0,002720878 14 0,174583932 0,241199739 0,063277039

0,233994866 0,394385459 0,003553394

16 0,173504324 0,240797104 0,060050238

0,231795787 0,391838042 -0,000379471 18 0,169954625 0,235734329 0,059472357

0,227167895 0,385476638 0,002027644

20 0,166364616 0,232482245 0,054091827

0,22475444 0,384444183 -0,005604169

Tabla 4.74: Resultados Machine CPU del comité ELM (20 ELM). RESULTADO MACHINE CPU COMITE ELM (20 ELM)

Número de ENTRENAMIENTO VALIDACION neuronas

MAE entrenamiento RMSE entrenamiento ME entrenamiento

MAE validación RMSE validación ME validación 2 0,029495814 0,04262075 0,000103129

0,021571267 0,03132416 -2,27E-05

4 0,013398671 0,023974768 -1,51E-10

5,93E-11 6,20E-11 -9,85E-12 6 0,013495903 0,024277066 4,64E-09

5,04E-11 5,27E-11 -7,08E-13

8 0,013988297 0,024580438 -2,25E-09

6,42E-11 6,76E-11 -2,82E-12 10 0,013328516 0,024009948 2,04E-09

5,11E-11 5,41E-11 -1,54E-12

12 0,012575703 0,023442883 1,08E-10

5,25E-11 5,50E-11 1,64E-12 14 0,013583504 0,024314823 5,84E-10

4,76E-11 5,08E-11 2,88E-12

16 0,013340058 0,024063428 5,74E-09

4,60E-11 4,84E-11 8,07E-12 18 0,01319295 0,023967111 -3,60E-09

6,05E-11 6,39E-11 4,41E-12

20 0,013346757 0,024294822 1,04E-08

6,07E-11 6,36E-11 -2,33E-13

84

85

`

86

En esta base de datos vuelve a pasar igual que pasaba con Auto price los valores de ELM

son superiores al algoritmo backpropagation y al comité ELM. En este caso los valores de error del comité ELM es mejor que el backpropagation y ELM.

El tiempo para cada algoritmo varia, observemos la tabla:

Tabla 4.75: Tiempo para los distintos algoritmos (medido en segundos). ALGORITMOS

Backpropagation ELM y Comité ELM 252 111

El comité ELM que hemos usado para este cálculo es el de 20 ELMs ya que es el que más tarda. EL número de neuronas ocultas y de repeticiones eran los mismos para los dos, 2:2:20 y 100 respectivamente.

En esta base de datos el comité ELM es el que mejor se comporta.

87

3.6.10 Resultados servo

Tabla 4.76: Resultados Servo del backpropagation RESULTADO SERVO BACKPROPAGATION

Número de ENTRENAMIENTO VALIDACION neuronas

MAE entrenamiento RMSE entrenamiento ME entrenamiento

MAE validación RMSE validación ME validación 5 0,060003777 0,082081633 -0,007606386

0,162366406 0,289760699 0,018368861

10 0,06123912 0,084132402 -0,008717195

0,164654169 0,291507109 0,016247539 15 0,059507847 0,081684903 -0,007907163

0,164804364 0,292097092 0,017578154

20 0,061125695 0,084121084 -0,008440533

0,164068906 0,290273221 0,01641167 25 0,0612634 0,083966717 -0,009331629

0,163753459 0,290373506 0,016288461

30 0,061533606 0,08428053 -0,009030292

0,163504275 0,290625261 0,016671996 35 0,062455816 0,085570077 -0,009293792

0,164068259 0,29081653 0,016276841

40 0,061965989 0,084866933 -0,00959696

0,16417895 0,291154988 0,016072228 45 0,061868032 0,084677211 -0,009419374

0,163891327 0,29095354 0,016042891

50 0,062422949 0,085309317 -0,010107339

0,164406804 0,291389555 0,015847828 55 0,062432356 0,085243925 -0,009914797

0,164796212 0,291570517 0,015997798

Tabla 4.77: Resultados Servo del ELM (5 ELM). RESULTADO SERVO ELM (5 ELM)

Número de ENTRENAMIENTO VALIDACION neuronas

MAE entrenamiento RMSE entrenamiento ME entrenamiento

MAE validación RMSE validación ME validación 5 0,231160897 0,301516455 -0,000198657

0,268045268 0,393962095 -0,044483964

10 0,232319112 0,300719511 -0,000506568

0,266745456 0,393607343 -0,045791199 15 0,232335081 0,30070346 0,000101222

0,26758537 0,393170204 -0,047025956

20 0,233381253 0,302250238 0,000623698

0,26731063 0,393395462 -0,046024781 25 0,235709266 0,305141919 -0,00028561

0,269862487 0,395875106 -0,046182877

30 0,233188421 0,302629771 0,000211013

0,268224441 0,392337757 -0,044218201 35 0,232147937 0,301538325 -0,00018654

0,269646942 0,394924743 -0,043125938

40 0,230514625 0,300028077 -7,95539E-05

0,267506706 0,395681145 -0,04350722 45 0,230357559 0,299342098 -0,00097123

0,266830955 0,395532105 -0,04687817

50 0,232101764 0,300836958 0,000251515

0,268337618 0,393295365 -0,044080424 55 0,232327984 0,300380647 0,000875535

0,267912412 0,393186812 -0,043637976

Tabla 4.78: Resultados Servo del comité ELM (5 ELM). RESULTADO SERVO COMITE ELM (5 ELM)

Número de ENTRENAMIENTO VALIDACION neuronas

MAE entrenamiento RMSE entrenamiento ME entrenamiento

MAE validación RMSE validación ME validación 5 0,076160422 0,101794125 -0,000338253

0,056651813 0,079222286 -0,00186852

10 0,019263248 0,02643138 5,72E-07

1,05E-14 1,20E-14 3,70E-17 15 0,015554428 0,021568712 6,95E-08

1,20E-14 1,37E-14 2,48E-16

20 0,017530292 0,023716313 2,11E-06

1,32E-14 1,52E-14 6,68E-17 25 0,015653186 0,021246572 9,65E-07

1,28E-14 1,46E-14 -9,88E-16

30 0,018391007 0,024816898 1,48E-06

1,54E-14 1,76E-14 1,32E-15 35 0,017223672 0,02373174 3,08E-07

1,23E-14 1,43E-14 5,52E-16

40 0,016443336 0,022241805 -2,32E-06

1,44E-14 1,63E-14 1,32E-15 45 0,015857711 0,021978052 -4,64E-07

1,27E-14 1,42E-14 6,79E-16

50 0,018118213 0,025439972 -2,19E-06

1,18E-14 1,34E-14 -4,77E-16 55 0,018780864 0,025669828 1,28E-06

1,20E-14 1,35E-14 -9,07E-16

88

Tabla 4.79: Resultados Servo del ELM (10 ELM). RESULTADO SERVO ELM (10 ELM)

Número de ENTRENAMIENTO VALIDACION neuronas

MAE entrenamiento RMSE entrenamiento ME entrenamiento

MAE validación RMSE validación ME validación 5 0,232771268 0,301799775 -0,000298079

0,268044438 0,393751266 -0,044303994

10 0,231085445 0,300990956 5,2165E-05

0,26789956 0,394957794 -0,043921414 15 0,231285468 0,300269994 0,000201731

0,265910996 0,393247403 -0,045418458

20 0,230650044 0,29887341 -0,000450306

0,265163601 0,390761476 -0,045250164 25 0,230766906 0,299419254 -0,000267064

0,266939429 0,393377248 -0,043894053

30 0,232023099 0,300677695 0,000300757

0,269062885 0,394013797 -0,044290706 35 0,231542349 0,300918534 -3,74775E-06

0,266818349 0,392845448 -0,044340781

40 0,232824912 0,301731005 0,000247959

0,268017289 0,39356858 -0,044378968 45 0,232282645 0,30028384 1,45815E-05

0,267382168 0,392390767 -0,045833619

50 0,230376923 0,298917388 -0,000672197

0,265823107 0,392779185 -0,046125129 55 0,230883768 0,299280611 -0,000343896

0,265055925 0,389489517 -0,04586225

Tabla 4.80: Resultados Servo del comité ELM (10 ELM). RESULTADO SERVO COMITE ELM (10 ELM)

Número de ENTRENAMIENTO VALIDACION neuronas

MAE entrenamiento RMSE entrenamiento ME entrenamiento

MAE validación RMSE validación ME validación 5 0,067562398 0,087344176 0,001774577

0,05477093 0,073749953 0,000251401

10 0,015783374 0,021909111 6,98E-08

1,19E-14 1,36E-14 -8,11E-16 15 0,017164457 0,023329453 -1,51E-06

1,38E-14 1,55E-14 -8,97E-16

20 0,014900583 0,020082033 9,69E-07

1,31E-14 1,46E-14 3,00E-15 25 0,016524193 0,023084567 -1,59E-06

1,38E-14 1,56E-14 -1,90E-16

30 0,018937493 0,026499972 2,74E-06

1,12E-14 1,26E-14 9,47E-16 35 0,017497044 0,024127062 -6,14E-07

1,30E-14 1,47E-14 -1,97E-15

40 0,01528879 0,020861947 -2,87E-07

1,32E-14 1,51E-14 -1,66E-15 45 0,017734723 0,023906292 -3,21E-07

1,20E-14 1,37E-14 -7,54E-16

50 0,018618698 0,025565617 -1,39E-07

1,09E-14 1,24E-14 -3,60E-15 55 0,016381643 0,022968576 -2,02E-06

1,23E-14 1,38E-14 8,60E-16

Tabla 4.81: Resultados Servo del ELM (20 ELM). RESULTADO SERVO ELM (20 ELM)

Número de ENTRENAMIENTO VALIDACION neuronas

MAE entrenamiento RMSE entrenamiento ME entrenamiento

MAE validación RMSE validación ME validación 5 0,231594889 0,299930477 -2,34241E-05

0,26606394 0,39163983 -0,044706288

10 0,232863324 0,301992195 -0,000184392

0,268992008 0,395103219 -0,044417937 15 0,231643267 0,300387562 2,86515E-05

0,266679532 0,393131181 -0,045278387

20 0,23212972 0,300331304 2,94209E-05

0,266760837 0,392004847 -0,044982001 25 0,231692821 0,30093434 3,75396E-05

0,268395588 0,395392845 -0,045574075

30 0,232543009 0,301463766 0,000259735

0,267686704 0,394029911 -0,044644493 35 0,233186719 0,302619791 0,000323982

0,268870966 0,395735719 -0,044749582

40 0,233003898 0,301414373 0,000269648

0,26821215 0,393232931 -0,04428351 45 0,231788061 0,300867558 -3,12364E-05

0,267766329 0,39403314 -0,044117304

50 0,230704855 0,299654015 -0,000208672

0,266313242 0,393189423 -0,045077403 55 0,233119762 0,302502827 0,000111615

0,269678478 0,39665213 -0,044637525

Tabla 4.82: Resultados Servo del comité ELM (20 ELM).

RESULTADO SERVO COMITE ELM (20 ELM) Número de ENTRENAMIENTO VALIDACION neuronas

MAE entrenamiento RMSE entrenamiento ME entrenamiento

MAE validación RMSE validación ME validación 5 0,061113916 0,081481606 0,000916173

0,057837727 0,081246186 -0,000300363

10 0,018736687 0,02584753 -7,99E-07

1,22E-14 1,38E-14 -8,62E-16 15 0,019437399 0,026451397 -1,15E-06

1,29E-14 1,45E-14 -1,64E-15

20 0,017318506 0,023398665 1,77E-09

1,33E-14 1,49E-14 8,15E-16 25 0,01833807 0,024744555 -6,68E-07

1,31E-14 1,48E-14 -1,03E-15

30 0,016762254 0,0227289 -1,78E-06

1,04E-14 1,17E-14 -6,13E-16 35 0,016347103 0,022178436 4,98E-07

1,24E-14 1,41E-14 -1,11E-16

40 0,015661191 0,021695389 -6,38E-09

1,26E-14 1,43E-14 -5,26E-16 45 0,013915557 0,018960202 9,42E-07

1,30E-14 1,45E-14 2,50E-15

50 0,017688671 0,0240704 1,67E-06

1,46E-14 1,65E-14 1,17E-16 55 0,017635019 0,024203767 7,06E-07

1,21E-14 1,40E-14 7,72E-17

89

90

91

En este caso vuelve a pasar igual que pasaba con Auto price y Machine CPU los valores de ELM son superiores al algoritmo backpropagation y al comité ELM. En este caso los valores de error del comité ELM es mejor que el backpropagation y ELM.

El tiempo para cada algoritmo varia, observemos la tabla:

Tabla 4.83: Tiempo para los distintos algoritmos (medido en segundos). ALGORITMOS

Backpropagation ELM y Comité ELM 299 147

El comité ELM que hemos usado para este cálculo es el de 20 ELMs ya que es el que más tarda. EL número de neuronas ocultas y de repeticiones eran los mismos para los dos, 5:5:55 y 100 respectivamente.

En esta base de datos el comité ELM es el que mejor se comporta.

92

3.6.11 Resultados stocks domains

Tabla 4.84: Resultados Stocks domains del backpropagation. RESULTADO STOCKS DOMAINS BACKPROPAGATION

Número de ENTRENAMIENTO VALIDACION neuronas

MAE entrenamiento RMSE entrenamiento ME entrenamiento

MAE validación RMSE validación ME validación 60 0,018178636 0,023395035 -0,000284198

0,053708298 0,076338869 0,001037838

70 0,018159618 0,023467232 0,000609246

0,053504934 0,075840177 0,001605537 80 0,018371107 0,023698464 0,000492175

0,053783561 0,076227609 0,001613477

90 0,018552892 0,023879029 0,000623058

0,054090968 0,07643408 0,00168479 100 0,01850905 0,023824338 0,000537371

0,053753267 0,075795315 0,001573473

110 0,018395326 0,02365956 0,000457862

0,05357196 0,075406378 0,001435051 120 0,018374172 0,023605967 0,000634976

0,053321598 0,075067697 0,001536994

130 0,01847376 0,023720715 0,000645008

0,053405013 0,075176587 0,001647472 140 0,018420385 0,02364655 0,000592914

0,053210284 0,074841161 0,001548985

150 0,01837771 0,023606648 0,000721526

0,053169161 0,074814386 0,001710065 160 0,018389065 0,023609931 0,000729004

0,053233089 0,074934659 0,001713997

Tabla 4.85: Resultados Stocks domains del ELM (5 ELM). RESULTADO STOCKS DOMAINS ELM (5 ELM)

Número de ENTRENAMIENTO VALIDACION neuronas

MAE entrenamiento RMSE entrenamiento ME entrenamiento

MAE validación RMSE validación ME validación 60 0,055250154 0,070044938 2,56256E-07

0,059749457 0,076331076 0,005064314

70 0,055375352 0,070124274 2,18539E-07

0,059910718 0,076408015 0,005057248 80 0,055676356 0,070559936 1,62338E-07

0,060089168 0,076731718 0,005268093

90 0,055479304 0,070250667 5,67809E-08

0,059930367 0,076502455 0,005477269 100 0,055304519 0,070098048 2,7202E-07

0,059934097 0,076529109 0,005366238

110 0,055397025 0,070203036 1,74357E-08

0,060003646 0,076717541 0,00521641 120 0,055510546 0,070343071 1,28839E-07

0,060015953 0,076789821 0,005167285

130 0,055530429 0,070400037 2,77905E-07

0,05995828 0,076579507 0,005317179 140 0,055405289 0,070181137 7,30788E-08

0,05990022 0,076534534 0,004947817

150 0,055711747 0,07052697 4,95743E-08

0,060161842 0,076849879 0,005189379 160 0,055371902 0,070165263 1,7988E-07

0,059869425 0,076466958 0,005161046

Tabla 4.86: Resultados Stocks domains del comité ELM (5 ELM). RESULTADO STOCKS DOMAINS COMITE ELM (5 ELM)

Número de ENTRENAMIENTO VALIDACION neuronas

MAE entrenamiento RMSE entrenamiento ME entrenamiento

MAE validación RMSE validación ME validación 60 0,042853015 0,054099065 -8,10867E-05

0,042824136 0,054274848 0,001616857

70 0,037890116 0,047622318 -1,29519E-05

0,032232214 0,041201173 0,001483899 80 0,037279493 0,047028276 4,21303E-05

0,032832803 0,041517369 0,001865368

90 0,036499274 0,046278807 9,71344E-06

0,034139727 0,044274845 0,002657578 100 0,038423464 0,048243112 -2,05124E-05

0,034479849 0,043016424 0,001114681

110 0,037478331 0,047134224 -3,71412E-05

0,035195992 0,04460391 0,003092657 120 0,036992088 0,046832102 -9,8114E-05

0,03309399 0,042307408 0,001728105

130 0,037233934 0,046994357 3,14507E-06

0,033270954 0,04248029 0,00166329 140 0,037670428 0,047232294 -6,66161E-05

0,032481591 0,042270031 0,002589633

150 0,037468191 0,047310199 -2,2985E-05

0,034506143 0,044297324 0,002464543 160 0,037964419 0,047385053 -3,49243E-05

0,034835792 0,044089559 0,001864796

93

Tabla 4.87: Resultados Stocks domains del ELM (10 ELM). RESULTADO STOCKS DOMAINS ELM (10 ELM)

Número de ENTRENAMIENTO VALIDACION neuronas

MAE entrenamiento RMSE entrenamiento ME entrenamiento

MAE validación RMSE validación ME validación 60 0,05544385 0,070228611 1,13559E-07

0,059924054 0,076569328 0,005348506

70 0,055389007 0,070168637 1,16832E-07

0,059843946 0,076402167 0,005111253 80 0,055437151 0,070232084 1,36069E-07

0,059890675 0,076465067 0,005100635

90 0,055410541 0,07014721 8,12946E-08

0,059895576 0,076482106 0,005074002 100 0,055536673 0,070359617 1,92403E-07

0,060087532 0,076783971 0,004991817

110 0,055602503 0,070469075 2,23561E-07

0,060185371 0,076833196 0,005138801 120 0,055359943 0,070151188 1,29732E-07

0,059765972 0,076378195 0,005282047

130 0,055543357 0,070360004 1,92872E-07

0,059943521 0,076659361 0,005167519 140 0,05552304 0,070344803 1,80689E-07

0,059952862 0,076574112 0,005106521

150 0,055366013 0,070113801 1,52536E-07

0,059912992 0,076521838 0,005186161 160 0,055296225 0,070040295 5,75682E-08

0,059858467 0,076474144 0,005069845

Tabla 4.88: Resultados Stocks domains del comité ELM (10 ELM). RESULTADO STOCKS DOMAINS COMITE ELM (10 ELM)

Número de ENTRENAMIENTO VALIDACION neuronas

MAE entrenamiento RMSE entrenamiento ME entrenamiento

MAE validación RMSE validación ME validación 60 0,042995728 0,054086555 -0,000210709

0,042743434 0,054838395 0,003443642

70 0,0364061 0,046087696 0,000130841

0,034071421 0,043919597 0,001280353 80 0,03772213 0,047461551 2,61087E-05

0,032633844 0,041629943 -0,000926087

90 0,036881812 0,046650975 -2,95368E-05

0,033406735 0,042884677 0,001407897 100 0,037209439 0,047105218 -8,92259E-05

0,03344984 0,042590813 0,002068469

110 0,037490674 0,047079914 -4,80255E-05

0,033735912 0,043270455 0,000726855 120 0,036328716 0,04594633 -0,000118483

0,033460221 0,04352293 0,002201706

130 0,036507722 0,045803999 5,60282E-05

0,032754313 0,042197559 0,002171461 140 0,037532311 0,047271379 -1,97092E-05

0,033798839 0,043344855 0,002873119

150 0,037066163 0,046311656 5,83426E-06

0,034541249 0,044228599 0,002119323 160 0,036388151 0,045709701 1,77256E-05

0,033924522 0,043213301 0,001451703

Tabla 4.89: Resultados Stocks domains del ELM (20 ELM). RESULTADO STOCKS DOMAINS ELM (20 ELM)

Número de ENTRENAMIENTO VALIDACION neuronas

MAE entrenamiento RMSE entrenamiento ME entrenamiento

MAE validación RMSE validación ME validación 60 0,05548052 0,070305495 1,21416E-07

0,060015386 0,076691594 0,005255849

70 0,055506475 0,070318684 2,42353E-07

0,060005513 0,076677571 0,005252181 80 0,05540677 0,070155566 1,81267E-07

0,059851813 0,076466707 0,005230862

90 0,055406943 0,070206985 1,59614E-07

0,059856858 0,076534862 0,005181723 100 0,055304539 0,070068362 8,0696E-08

0,059747499 0,076370094 0,005200965

110 0,055351634 0,070113227 1,64008E-07

0,059752625 0,076348049 0,005234114 120 0,055424463 0,070240946 1,26289E-07

0,059913534 0,076493022 0,005153896

130 0,055353831 0,070101806 1,78421E-07

0,059881641 0,076510529 0,005226859 140 0,055433611 0,070218664 1,14503E-07

0,0598663 0,076488718 0,005270625

150 0,055361132 0,070122419 1,26646E-07

0,059805803 0,076378714 0,005144055 160 0,055376383 0,070164858 1,19226E-07

0,059869264 0,076480761 0,005310003

Tabla 4.90: Resultados Stocks domains del comité ELM (20 ELM).

RESULTADO STOCKS DOMAINS COMITE ELM (20 ELM) Número de ENTRENAMIENTO VALIDACION neuronas

MAE entrenamiento RMSE entrenamiento ME entrenamiento

MAE validación RMSE validación ME validación 60 0,042212697 0,053328797 -0,000205371

0,042022981 0,053335648 0,002666002

70 0,037479631 0,046920221 -1,7003E-05

0,033696611 0,043058666 0,001659814 80 0,037869118 0,047457411 -9,91635E-05

0,033373942 0,042388889 0,002200225

90 0,037831507 0,047590731 -2,44667E-05

0,033413716 0,042912002 0,001365976 100 0,038428858 0,048343712 -3,47681E-05

0,033437024 0,042960664 0,00248551

110 0,037407136 0,046985683 -9,50352E-05

0,033068821 0,042881611 0,003753672 120 0,037222683 0,046668335 -1,11113E-05

0,033668963 0,0432945 0,001573957

130 0,038031631 0,047634415 -4,49356E-05

0,034215641 0,043637358 0,002114806 140 0,037683784 0,047148683 -0,000127103

0,035462887 0,044991866 0,002059212

150 0,038296295 0,047263812 1,50278E-05

0,033892585 0,043190725 0,001342612 160 0,038131612 0,047784758 -8,933E-05

0,034086384 0,043189291 0,001480818

94

95

96

El algoritmo backpropagation obtiene menores errores en MAE y RMSE de entrenamiento, el ELM obtiene el menor error en ME de entrenamiento y el comité ELM obtiene en la parte de validación menos error en todas las medidas de error (MAE, RMSE y ME).

El tiempo para cada algoritmo varia, observemos la tabla:

Tabla 4.91: Tiempo para los distintos algoritmos (medido en segundos). ALGORITMOS

Backpropagation ELM y Comité ELM 3895 546

El comité ELM que hemos usado para este cálculo es el de 20 ELMs ya que es el que más tarda. EL número de neuronas ocultas y de repeticiones eran los mismos para los dos, 60:10:160 y 100 respectivamente.

El comité ELM tarda un 86% menos que el algoritmo backpropagation y el comité ELM es el que obtiene mejores resultados en la parte de validación.

97

3.6.12 Resultados triazines

Tabla 4.92: Resultados Triazines del backpropagation.

RESULTADO TRIAZINES CPU BACKPROPAGATION Número de ENTRENAMIENTO VALIDACION neuronas

MAE entrenamiento RMSE entrenamiento ME entrenamiento

MAE validación RMSE validación ME validación 2 0,253416976 0,330579234 0,004847099

0,388463001 0,49507153 0,056252763

4 0,264049206 0,342670357 0,00435794

0,384278414 0,493345551 0,049690287 6 0,255999911 0,333232004 0,002240542

0,381501184 0,488181946 0,06054647

8 0,256649139 0,334405173 0,002663646

0,383286849 0,489316985 0,060657678 10 0,253661881 0,330765397 0,005277646

0,381851047 0,488272008 0,056773258

12 0,251820109 0,328746782 0,002889337

0,383447016 0,490950745 0,055226247 14 0,253016839 0,3302335 0,004142309

0,383901912 0,491626145 0,054041977

16 0,253003857 0,330368498 0,00539422

0,38574913 0,493611336 0,056325499 18 0,251987254 0,329590418 0,005753385

0,383247254 0,490861349 0,054941586

20 0,250594911 0,328316939 0,004614932

0,382709339 0,490090741 0,053481337

Tabla 4.93: Resultados Triazines del ELM (5 ELM). RESULTADO TRIAZINES ELM (5 ELM)

Número de ENTRENAMIENTO VALIDACION neuronas

MAE entrenamiento RMSE entrenamiento ME entrenamiento

MAE validación RMSE validación ME validación 2 0,35647222 0,444646558 -0,165904772

0,39920467 0,491602622 -0,174813453

4 0,352156774 0,441691017 -0,158916354

0,394234427 0,48688179 -0,167244832 6 0,349610644 0,438755853 -0,15303065

0,391636697 0,484793839 -0,161032258

8 0,351415751 0,440479876 -0,158440117

0,393667977 0,486797661 -0,16786686 10 0,351372076 0,441026306 -0,156012761

0,393915933 0,487761516 -0,163737362

12 0,350478539 0,439404887 -0,153592912

0,392460531 0,486136364 -0,161726376 14 0,348733589 0,438518212 -0,151551158

0,38961969 0,482907768 -0,158714849

16 0,347143038 0,436707483 -0,149692559

0,389600123 0,483069186 -0,157771442 18 0,354511319 0,442790133 -0,162397918

0,397569661 0,489895361 -0,170926953

20 0,353139484 0,442266653 -0,16047766

0,39540203 0,487877957 -0,168275947

Tabla 4.94: Resultados Triazines del comité ELM (5 ELM). RESULTADO TRIAZINES COMITE ELM (5 ELM)

Número de ENTRENAMIENTO VALIDACION neuronas

MAE entrenamiento RMSE entrenamiento ME entrenamiento

MAE validación RMSE validación ME validación 2 0,193845714 0,254177914 -0,004736215

0,112286346 0,156989229 -0,003529134

4 0,08819338 0,117690257 3,16E-05

3,44E-15 4,24E-15 -2,96E-16 6 0,07668585 0,105434475 -0,00014465

4,52E-15 5,51E-15 7,14E-16

8 0,080782994 0,108661635 3,99E-05

2,99E-15 3,72E-15 4,00E-16 10 0,073020725 0,096379421 1,57E-05

3,22E-15 3,92E-15 5,35E-17

12 0,087207458 0,116610026 5,06E-05

3,18E-15 3,91E-15 -3,64E-17 14 0,072418589 0,096039025 3,73E-05

3,29E-15 4,03E-15 -1,55E-16

16 0,076966758 0,102918356 -5,29E-05

3,39E-15 4,24E-15 3,03E-16 18 0,071676881 0,09553266 -1,77E-06

3,49E-15 4,28E-15 3,10E-16

20 0,084479876 0,115879497 4,07E-05

3,76E-15 4,65E-15 -1,53E-16

98

Tabla 4.95: Resultados Triazines del ELM (10 ELM). RESULTADO TRIAZINES ELM (10 ELM)

Número de ENTRENAMIENTO VALIDACION neuronas

MAE entrenamiento RMSE entrenamiento ME entrenamiento

MAE validación RMSE validación ME validación 2 0,351552337 0,440432142 -0,157691246

0,393893406 0,486558376 -0,166416594

4 0,35195746 0,440552823 -0,157327613

0,394789119 0,487767822 -0,165944651 6 0,352213425 0,440423778 -0,158842072

0,395609055 0,487785349 -0,16787292

8 0,35111275 0,44032368 -0,156752767

0,393901102 0,486954186 -0,165043067 10 0,352066024 0,441358975 -0,157865547

0,393969742 0,486742403 -0,165541526

12 0,350742822 0,439958043 -0,155486367

0,392649125 0,485493781 -0,162209511 14 0,350933893 0,440323013 -0,156052566

0,392626119 0,485810347 -0,163956

16 0,350204416 0,43997021 -0,154527737

0,392383379 0,485537309 -0,163214623 18 0,353806154 0,442440633 -0,160518423

0,395804558 0,488363402 -0,168393899

20 0,351934592 0,440666239 -0,157698171

0,395276456 0,488551819 -0,166224022

Tabla 4.96: Resultados Triazines del comité ELM (10 ELM). RESULTADO TRIAZINES COMITE ELM (10 ELM)

Número de ENTRENAMIENTO VALIDACION neuronas

MAE entrenamiento RMSE entrenamiento ME entrenamiento

MAE validación RMSE validación ME validación 2 0,194408468 0,258438385 -0,004499892

0,115420258 0,152600217 -0,004520669

4 0,066731615 0,087793088 -2,72E-05

3,95E-15 4,84E-15 5,40E-16 6 0,084828011 0,109751997 9,43E-05

3,48E-15 4,23E-15 -2,17E-16

8 0,077629264 0,104338376 -6,11E-05

3,83E-15 4,67E-15 5,87E-16 10 0,07654621 0,101675203 3,76E-06

3,14E-15 3,89E-15 2,51E-16

12 0,082102506 0,10887142 3,31E-05

3,51E-15 4,30E-15 1,56E-16 14 0,074155542 0,101038194 9,60E-06

3,70E-15 4,53E-15 1,70E-16

16 0,076077088 0,102313592 -7,72E-05

3,52E-15 4,37E-15 3,52E-17 18 0,06747052 0,089552747 2,23E-05

3,65E-15 4,47E-15 6,10E-16

20 0,078339968 0,103342079 -2,58E-05

3,53E-15 4,30E-15 1,17E-16

Tabla 4.97: Resultados Triazines del ELM (20 ELM). RESULTADO TRIAZINES ELM (20 ELM)

Número de ENTRENAMIENTO VALIDACION neuronas

MAE entrenamiento RMSE entrenamiento ME entrenamiento

MAE validación RMSE validación ME validación 2 0,349037527 0,438648762 -0,152052884

0,391886195 0,485327877 -0,16055344

4 0,351094011 0,440437274 -0,156017378

0,393868612 0,487360581 -0,165228151 6 0,350205374 0,439849733 -0,154765297

0,392849353 0,486536616 -0,162869879

8 0,350779878 0,439574837 -0,155337573

0,392814825 0,485604436 -0,162948566 10 0,350245364 0,439688437 -0,154019531

0,39176486 0,485310873 -0,162014359

12 0,349783766 0,43911651 -0,152740122

0,391840638 0,485227404 -0,161067563 14 0,349443975 0,438984466 -0,153227642

0,391690634 0,485273547 -0,161666325

16 0,349021082 0,438598388 -0,152217004

0,391473746 0,485191859 -0,160698598 18 0,350863691 0,44005209 -0,155553547

0,393332901 0,486157637 -0,163492692

20 0,349670711 0,439057674 -0,152857591

0,391528664 0,484759043 -0,161176414

Tabla 4.98: Resultados Triazines del comité ELM (20 ELM). RESULTADO TRIAZINES COMITE ELM (20 ELM)

Número de ENTRENAMIENTO VALIDACION neuronas

MAE entrenamiento RMSE entrenamiento ME entrenamiento

MAE validación RMSE validación ME validación 2 0,18122857 0,250339879 -0,001585298

0,107238615 0,142163461 -0,00119957

4 0,081632734 0,112427389 1,78E-04

3,74E-15 4,56E-15 7,88E-17 6 0,075643611 0,101533141 8,18E-05

3,20E-15 3,90E-15 -2,26E-17

8 0,075801007 0,102798168 6,81E-06

3,71E-15 4,52E-15 3,33E-17 10 0,074512626 0,10127009 4,68E-05

4,14E-15 5,16E-15 -1,59E-17

12 0,068258394 0,093134429 -2,32E-05

4,09E-15 5,06E-15 2,46E-16 14 0,071379592 0,095992948 -2,34E-05

3,40E-15 4,16E-15 -3,47E-16

16 0,077661626 0,104463445 3,94E-05

3,30E-15 4,02E-15 -1,38E-16 18 0,07702838 0,103728539 1,06E-04

3,53E-15 4,34E-15 -1,51E-17

20 0,081003677 0,107410921 6,21E-05

3,45E-15 4,23E-15 -2,23E-18

99

100

101

En este caso el comité ELM es el que mejor resultados obtiene, ya que tanto en la parte de entrenamiento y validación tiene el menor error.

El tiempo para cada algoritmo varia, observemos la tabla:

Tabla 4.99: Tiempo para los distintos algoritmos (medido en segundos). ALGORITMOS

Backpropagation ELM y Comité ELM 861 130

El comité ELM que hemos usado para este cálculo es el de 20 ELMs ya que es el que más tarda. EL número de neuronas ocultas y de repeticiones eran los mismos para los dos, 2:2:20 y 100 respectivamente.

102

3.6.13 Resultados Wisconsin breast cancer

Tabla 4.100: Resultados Wisconsin breast cancer del backpropagation.

RESULTADO WISCONSIN BREAST CANCER CPU BACKPROPAGATION Número de ENTRENAMIENTO VALIDACION neuronas

MAE entrenamiento RMSE entrenamiento ME entrenamiento

MAE validación RMSE validación ME validación 2 0,35660363 0,443049921 -0,053597775

0,465714802 0,581639015 0,019367199

4 0,359885498 0,44663935 -0,042372713

0,466434592 0,582957418 0,03598758 6 0,361798673 0,449431397 -0,053367063

0,471221133 0,589168956 0,024184038

8 0,362623775 0,450306429 -0,053445157

0,471524788 0,588629115 0,024632475 10 0,363919339 0,451628882 -0,054445031

0,472382579 0,589198977 0,022402988

12 0,362325813 0,449744806 -0,053529754

0,473088625 0,589752323 0,024118592 14 0,362643281 0,450085464 -0,052137039

0,47306783 0,589500051 0,02509556

16 0,362063083 0,44940075 -0,051480335

0,473926131 0,59031215 0,025760596 18 0,36191241 0,449117618 -0,052100031

0,473279252 0,589221309 0,024369917

20 0,361679256 0,448783055 -0,051054578

0,473538285 0,589278046 0,025406389

Tabla 4.101: Resultados Wisconsin breast cancer del ELM (5 ELM). RESULTADO WISCONSIN BREAST CANCER ELM (5 ELM)

Número de ENTRENAMIENTO VALIDACION neuronas

MAE entrenamiento RMSE entrenamiento ME entrenamiento

MAE validación RMSE validación ME validación 2 0,477842662 0,553726453 0,027004741

0,457092809 0,548243102 0,023444893

4 0,476593877 0,552682258 0,024413929

0,455990672 0,546995847 0,021087777 6 0,47821876 0,554023083 0,023197133

0,457670381 0,548996537 0,019201573

8 0,477402319 0,553222638 0,02498566

0,456396938 0,547707193 0,018797448 10 0,478042986 0,553916031 0,027798262

0,457218581 0,548280302 0,023429093

12 0,478755424 0,554699473 0,025612133

0,458013141 0,548797192 0,023208511 14 0,47677555 0,552532611 0,024071514

0,455238851 0,546340641 0,020077523

16 0,477488306 0,553702786 0,027603049

0,456724866 0,548420145 0,022572962 18 0,476831973 0,552848771 0,026479105

0,45655817 0,548040457 0,022985915

20 0,477551236 0,553508874 0,027714112

0,456723394 0,547991131 0,021865255

Tabla 4.102: Resultados Wisconsin breast cancer del comité ELM (5 ELM). RESULTADO WISCONSIN BREAST CANCER COMITE ELM (5 ELM)

Número de ENTRENAMIENTO VALIDACION neuronas

MAE entrenamiento RMSE entrenamiento ME entrenamiento

MAE validación RMSE validación ME validación 2 0,337836936 0,415915108 -0,001167832

0,171535451 0,220528532 -0,001077936

4 0,19112586 0,256072741 2,78281E-05

6,36145E-15 7,55767E-15 -5,4162E-16 6 0,204900239 0,265635931 -2,80239E-05

5,56764E-15 6,53891E-15 1,44618E-17

8 0,178551452 0,238511863 2,97809E-05

5,51335E-15 6,59269E-15 -2,22977E-16 10 0,186971702 0,241100584 2,72875E-05

5,11273E-15 6,02799E-15 4,70768E-16

12 0,169662305 0,230090023 -4,48243E-05

4,90771E-15 5,75182E-15 -2,53959E-16 14 0,196416732 0,254203983 2,02713E-05

4,68553E-15 5,55666E-15 -7,71661E-16

16 0,207401311 0,272549755 7,45104E-05

5,76518E-15 6,85672E-15 6,41769E-16 18 0,185666478 0,247077382 2,7086E-05

5,49058E-15 6,52351E-15 -8,11765E-16

20 0,18303407 0,241155567 0,000108231

5,33855E-15 6,3015E-15 2,53187E-16

103

Tabla 4.103: Resultados Wisconsin breast cancer del ELM (10 ELM). RESULTADO WISCONSIN BREAST CANCER ELM (10 ELM)

Número de ENTRENAMIENTO VALIDACION neuronas

MAE entrenamiento RMSE entrenamiento ME entrenamiento

MAE validación RMSE validación ME validación 2 0,477359616 0,553112908 0,024409217

0,45659671 0,547693163 0,019494441

4 0,478215178 0,553909009 0,025302997

0,457812678 0,549191857 0,021232672 6 0,477963579 0,553718229 0,02522061

0,456928934 0,548165677 0,020492351

8 0,478372539 0,554213631 0,026696939

0,45777287 0,549094731 0,022712191 10 0,478398463 0,554290554 0,026497841

0,457444879 0,548804232 0,023040861

12 0,478229937 0,554108486 0,026028564

0,457586759 0,548623739 0,021988874 14 0,477943772 0,553796866 0,023881932

0,457015499 0,548188596 0,019281994

16 0,477385827 0,553248779 0,024190594

0,45646245 0,547872733 0,0203937 18 0,478455042 0,554232805 0,026109475

0,456866472 0,548144815 0,021392163

20 0,478247803 0,5542308 0,026988601

0,457243246 0,548635972 0,023216214

Tabla 4.104: Resultados Wisconsin breast cancer del comité ELM (10 ELM). RESULTADO WISCONSIN BREAST CANCER COMITE ELM (10 ELM)

Número de ENTRENAMIENTO VALIDACION neuronas

MAE entrenamiento RMSE entrenamiento ME entrenamiento

MAE validación RMSE validación ME validación 2 0,316191458 0,387845391 -0,000220937

0,173783376 0,218558635 -0,000717834

4 0,183098091 0,243843095 -1E-04

5,69741E-15 6,64964E-15 8,86591E-16 6 0,182705349 0,247877691 -7,56667E-05

6,12621E-15 7,23356E-15 -5,57476E-16

8 0,176914702 0,231223847 8,04629E-06

5,31725E-15 6,38478E-15 -4,86259E-16 10 0,175648037 0,233341058 4,91857E-05

5,38917E-15 6,28166E-15 -1,76546E-16

12 0,185911508 0,245062846 -8,59128E-05

5,43661E-15 6,41548E-15 1,11545E-15 14 0,204640782 0,266222369 8,941E-05

5,94225E-15 6,86202E-15 1,13439E-16

16 0,177094899 0,231219163 -0,000110752

6,90484E-15 7,99751E-15 6,14362E-17 18 0,196208702 0,269431039 5,37721E-05

5,56867E-15 6,61603E-15 1,72823E-16

20 0,187167736 0,244496848 -6,61612E-05

5,47695E-15 6,43092E-15 -9,5032E-16

Tabla 4.105: Resultados Wisconsin breast cancer del ELM (20 ELM). RESULTADO WISCONSIN BREAST CANCER ELM (20 ELM)

Número de ENTRENAMIENTO VALIDACION neuronas

MAE entrenamiento RMSE entrenamiento ME entrenamiento

MAE validación RMSE validación ME validación 2 0,478165709 0,554000347 0,025428476

0,456958079 0,54827831 0,021090384

4 0,478328737 0,554269162 0,02803433

0,457346728 0,548877342 0,023847103 6 0,47783981 0,553584266 0,024802794

0,457299539 0,5483482 0,021038179

8 0,478079356 0,553997227 0,026652019

0,456680006 0,548161977 0,022925584 10 0,478233808 0,554027416 0,026127119

0,457369902 0,548660455 0,022438848

12 0,477401509 0,553268394 0,024995513

0,456685902 0,548250238 0,021074505 14 0,477818154 0,553794762 0,02674522

0,457165105 0,549308623 0,022330391

16 0,477302703 0,553170128 0,02452499

0,456268935 0,547569449 0,020108457 18 0,478279089 0,554098154 0,027241532

0,457698673 0,548825864 0,023767363

20 0,477671099 0,553569819 0,025991442

0,45721925 0,548627295 0,021287003

Tabla 4.106: Resultados Wisconsin breast cancer del comité ELM (20 ELM). RESULTADO WISCONSIN BREAST CANCER COMITE ELM (20 ELM)

Número de ENTRENAMIENTO VALIDACION neuronas

MAE entrenamiento RMSE entrenamiento ME entrenamiento

MAE validación RMSE validación ME validación 2 0,321197938 0,402476605 -0,00100557

0,171693637 0,214109305 0,000771751

4 0,182175005 0,243056244 -4,39E-05

4,89E-15 5,78E-15 -4,97E-16 6 0,200185356 0,262264649 7,08E-05

5,45E-15 6,45E-15 5,86E-16

8 0,190528914 0,247516295 -2,31E-06

5,97E-15 7,09E-15 -2,85E-16 10 0,211703489 0,271742518 3,29E-05

6,13E-15 7,23E-15 -1,91E-16

12 0,221269059 0,285037512 3,38E-05

6,82E-15 8,04E-15 -1,96E-16 14 0,198324668 0,254582387 4,92E-05

6,17E-15 7,19E-15 -9,61E-16

16 0,177107473 0,231662388 6,23E-05

6,08E-15 7,15E-15 -5,50E-16 18 0,199165058 0,260819357 0,000103132

6,17E-15 7,24E-15 5,74E-17

20 0,205892489 0,267656548 -2,11E-05

6,34E-15 7,41E-15 -4,25E-16

104

105

106

El comité ELM es el que mejores resultados obtiene, ya que en la medición de los distintos errores obtiene el valor mínimo para cada uno de ellos, tanto para los de entrenamiento como los de validación.

El tiempo para cada algoritmo varia, observemos la tabla:

Tabla 4.107: Tiempo para los distintos algoritmos (medido en segundos). ALGORITMOS

Backpropagation ELM y Comité ELM 381 95

El comité ELM que hemos usado para este cálculo es el de 20 ELMs ya que es el que más tarda. EL número de neuronas ocultas y de repeticiones eran los mismos para los dos, 2:2:20 y 100 respectivamente.

109

CAPITULO 4 CONCLUSIONES

4.1 Conclusiones generales

En primer lugar vamos a analizar mediante una tabla que algoritmos han obtenido menores valores de error en las distintas bases de datos usados.

Tabla 4.1: Resultados bases de datos para los distintos algoritmos.

Bases de datos MEDIDAS DE ERROR

ENTRENAMIENTO VALIDACION MAE RMSE ME MAE RMSE ME

Abalone X X X X X X Auto price X X X X X X

Bank domains X X X X X X California housing X X X X X X Census (house8l) X X X X X X Computer activity X X X X X X

Delta ailerons X X X X X X Delta elevators X X X X X X Machine CPU X X X X X X

Servo X X X X X X Stocks domains X X X X X X

Triazines X X X X X X Wisconsin breast cancer X X X X X X

X -> Backpropagation X -> ELM X -> Comité ELM

El comité ELM es el que tiene mayor presencia con un total de 51, el segundo es el algoritmo backpropagation con 20 y por último el algoritmo ELM con 7. El comité ELM es el que mejores resultados ha obtenido, sobretodo en la parte de validación. Aunque la parte de entrenamiento es importante la parte de validación lo es más, ya que el objetivo es que la red esté bien entrenada de forma que haya aprendido lo suficiente del pasado para generalizar el futuro [Haykin-94] .

110

El algoritmo backpropagation obtiene en algunos casos mejores resultados en la parte de entrenamiento, sin embargo el tiempo que se necesita para entrenar la red es superior que el que necesita el ELM y comité ELM. Mediante la siguiente tabla podemos observar el tiempo que necesita cada algoritmo.

Tabla 4.2: Tiempos de las bases de datos para los algoritmos (medido en segundos). Datos Tiempos algoritmos

Backpropagation ELM y Comité ELM Abalone 2887 709

Auto price 334 156 Bank domains 11853 1251

California housing 33842 2848 Census (house8l) 29345 6954 Computer activity 13611 1618

Delta ailerons 4359 490 Delta elevators 6685 1845 Machine CPU 252 111

Servo 299 147 Stocks domains 3895 546

Triazines 861 130 Wisconsin breast cancer 381 95

Si observamos la tabla el algoritmo backpropagation siempre tarda más tiempo que el ELM y comité ELM, esto hace que el comité ELM tenga otro punto a favor. Aunque en algunos casos el algoritmo backpropagation obtiene un menor error, la diferencia con el error que obtiene el comité ELM es pequeña.

A la vista de los resultados, podemos decir que se han cumplido los objetivos del proyecto y con buenos resultados. Los algoritmos backpropagation y ELM fueron analizadas y se han obtenido los resultados que se esperaban. El comité ELM era un reto y se ha desarrollado con excelentes resultados, mejor que el backpropagation tanto en los valores obtenidos como en el tiempo que se emplea.

4.3 Proyeccion futura

Una opción podría ser calcular por otra forma mediante mínimos cuadrados, de manera que quedaría:

𝑀í𝑛𝑖𝑚𝑜 [𝑑 − 𝑜 ]

111

Otra opción puede ser el uso de la regresión bayesiana [Soria-2011], este método hace que no se necesite un alto nivel de computación. El método permite la introducción de un conocimiento a priori haciendo que sea más preciso.

4.3 Valoración personal

Como valoración personal decir que este proyecto ha sido muy enriquecedor para mí, en el aspecto académico, ya que he aprendido mucho. Al principio me pareció un tema interesante, desconocido y difícil. Pero con tiempo y dedicación he podido realizar el proyecto.

113

BIBLIOGRAFIA

[Emmanuel-06] Emmanuel, S. Loh, Q.J.B. ELM for the Classification of Music Genres. Diciembre 2006. Pag. 1–6.

[Huang-05] Guang-Bin Huang, Qin-Yu Zhu, Chee-Kheong Siew. Extreme learning machine: Theory and applications. Diciembre 2005. Pag. 489–501.

[Hudson-10] Mark Hudson Beale, Martin T. Hagan, Howard B. Demuth. Neural Network Toolbox. User’s  guide. Septiembre 2010.

[Kim-09] Jinkwon Kim, Hang Sik Shin, Kwangsoo Shin, Myoungho Lee. Robust algorithm for arrhythmua classification in ECG using extreme learning machine. 28 October 2009. Pag. 3257–3260.

[Kong-08] Xiangxin Kong Ming Cheng Yagang Shu. Extreme learning machine based phase angle control for stator-doubly-fed doubly salient motor for electric vehicles. Septiembre 2008. Pag. 1-5.

[Li-09] Feng-Chia Li; Peng-Kai Wang; Gwo-En Wang. Comparison of the primitive classifiers with Extreme Learning Machine in credit scoring . Diciembre 2009. Pag. 685–688.

[Mitchell-97]. Tom Mitchell, Machine learning. 1997.

[Nizar-08] Nizar, A.H. Dong, Z.Y. Wang, Y. Power Utility Nontechnical Loss Analysis With Extreme Learning Machine Method. Agosto. 2008. Vol.23. Pag. 946–955.

[Rong-08] Hai-Jun Rong, Guang-Bin Huang, Yew-Soon Ong. Extreme Learning Machine for Multicategories Classification Applications. Junio 2008. Pag. 1709–1713.

[Soria-11] Soria-Olivas, E.; Gomez-Sanchis, J.; Martin, J.D.; Vila-Frances, J.; Martinez, M.; Magdalena, J.R.; Serrano, A.J. BELM: Bayesian Extreme Learning Machine. Marzo 2011. Pag. 505-509.

[Suresh-06] Suresh, S.; Babu, V.; Sundararajan, N.. Image Quality Measurement Using Sparse Extreme Learning Machine Classifier . Diciembre 2006. Pag. 1–6.

114

[Vani-10] Vani, G.; Savitha, R.; Sundararajan, N.. Classification of abnormalities in digitized mammograms using Extreme Learning Machine. Diciembre 2010. Pag. 2114-2117.

[Wang-05] Dianhui Wang Guang-Bin Huang. Protein sequence classification using extreme learning machine. Agosto 2005. Vol. 3 Pag. 1406-1411.

[Zhai-08] Chuan-Min Zhai Ji-Xiang Du. Applying extreme learning machine to plant species identification. Junio 2008. Pag. 879-884.