método y aplicaciones de redes neuronales artificiales en
TRANSCRIPT
![Page 1: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/1.jpg)
Método y Aplicaciones de Redes Neuronales Artificiales en la
Predicción de Variables Hidrológicas no Lineales
Seminario DoctoradoDepartamento de Ingeniería hidráulica y ambiental
Escuela de Ingeniería P.U.C.
Año 2005
Dr. Ing. Oscar Dölling
![Page 2: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/2.jpg)
Esquema de Red NeuronalFeedforward
Capa de entrada Capas ocultas Capa de salida
x1
x2
x4
x3
Output
![Page 3: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/3.jpg)
Esquema de neurona artificial
Hacia otras neuronas con sites
Valor de salidaActivaciónFunción de
Función deValor de ACTIVACIÓN
BASE
Valor del siteFunción del site
Umbral
Suma
1
0
SigmoideFunción
,1
1,
kjVkj acte
o −+=
enlace cada a asociado (Bias) sesgo
resp. jy 1-j capa neurona de número k y i
capa de número1
,1,,1,,
,
.
==
==
−−∑+=
kj
j
n
iijkijkjkj
owVact
θ
θ
![Page 4: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/4.jpg)
Tipología de Redes neuronales Artificiales (ANNs)
1- (BP1) feedforward con método de aprendizaje backpropagtation momentum, Tangente Hiperbólica (capa oculta) y lineal (capa salida)
2- las redes (BP2) igual a la anterior pero con función de activación Sigmoidal (capas oculta y de salida)
3- la red (SM) igual a la anterior pero con método de aprendizaje estocástico
4- (ELM) Red recurrente con método backpropagation(Red Elman)
5- (RBN) red Radial Basis Function.
![Page 5: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/5.jpg)
Diseño de ANNs para predicción
Para desarrollar un modelo de predicción, primero debe ser definida la arquitectura de la red de neuronas.
Para ello hay que contestar a ciertos interrogantes, tales como:
1) Que tipo de fenómeno estoy modelando?2) Cuantos neuronas de entrada voy a utilizar?3) Cuantos neuronas de salida son necesarios?4) Cuantas capas ocultas y cuantas neuronas por capa son necesarios y . suficientes?5) Que tipo de enlaces y cuantos son adecuados para armar la red?
Dependen del tipo de problema de predicción y de los datos disponibles
![Page 6: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/6.jpg)
Aspectos principales a resolver
Ajuste de pesos Tratamiento de información
Nro. Neuronasde entrada
Nro. Neuronasde salida
Evaluación del pronóstico
Nro. neuronasocultas
wij cij
![Page 7: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/7.jpg)
Metodología de elaboración ANNspara predicción.
Para cubrir convenientemente todos los aspectos mencionados, se elaboró una metodología constituida por las siguientes etapas fundamentales:
� Análisis de Información
� Identificación de modelos candidatos
� Validación de modelos candidatos
� Selección del modelo óptimo
![Page 8: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/8.jpg)
Identificación de la estructura de la capa oculta. Proposición de modelos candidatos
Aprendizaje de modelos candidatos. Selección de estrategia de entrenamiento
Cálculo de estadísticos y Análisis de Residuos
Evaluación de la capacidad predictiva de los modelos candidatos
Comparación de resultados de lavalidación. Pautas de selección .
Modelo óptimo
Identificación de la estructura de la capa de entrada
Series de Datos de caudales y variablesexplicativas
Tratamiento estadístico de datos
Selección de la estructura de la capa de salida
Armado de duplas entrada-salida
sets de entrenamiento-validación y test
Análisis de Información
Selección del
Modelo óptimo
Validación de candidatos
Identificación de candidatos
![Page 9: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/9.jpg)
Identificación de laestructura de la capa de entrada
Recopilación de Información
Tratamiento estadístico de datos
Selección de la estructurade la capa de salida
Armado de duplasentrada-salida
sets de entrenamiento-validación y test
Análisis de Información
![Page 10: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/10.jpg)
Recopilación y tratamiento de la información disponible:
• Conceptualización del proceso a modelar
• Recopilación de la información
• Análisis de consistencia y homogeneidad
![Page 11: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/11.jpg)
Análisis de Información
Tratamiento estadístico de la información
Las series de datos pueden recibir el siguiente tratamiento previo:•Análisis de estacionariedad en media (homogeneidad)(Análisis de tendencias - Transf. Por diferenciación)•Análisis de consistencia (Análisis de saltos Test de Fisher)•Estandarización periódica(Análisis de ciclos -Autocorrelograma y Periodograma)•Análisis de Estacionariedad en varianza (Heteroscedasticidad y Normalización.(Transformación BOX COX, logarítmica)
![Page 12: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/12.jpg)
Análisis de datos de entrada
Análisis de homogeneidad (estacionariedad)TendenciasCambios paulatinos y persistentes en alguna
propiedad de la serie: Promedio, variancia.
t
x
t
x
Análisis de Información
![Page 13: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/13.jpg)
Análisis de datos de entrada
Detección de TendenciasTest de aleatoriedad (random test)Dadostiempo t: 1, 2, 3, ........, t,........Tvariable y: y1, y2, y3, ........yt,.......yTubicación R: R1, R2, R3, ......Rj,.......Rn (orden ascendente)
Se busca si existe una relación significativa entre R y t analizando el Rango de Correlación.
2
12, )(.
)1(
61 ∑
=
−−
−=N
tttR tR
NNr
Análisis de Información
![Page 14: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/14.jpg)
Análisis de estacionariedad dela mediaRemover Tendencias determinísticas.1) Tendencias Lineales
operador de diferencias de 1er orden y = ∆xy = [(x2-x1), (x3-x2), (x4-x3),..., (xN-xN-1)]
2) Tendencias cuadráticasoperador de diferencias de 2do. Orden y = ∆ (∆x)y = [((x2-x1) - (x3-x2)) , ((x4-x3)-(x5-x4)),............]
t
x
t
x
Análisis de Información
![Page 15: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/15.jpg)
Análisis de datos de entrada
Análisis de consistenciaSaltosCambios bruscos del Promedio. Test de Fischer.
t
x ?
x1
x2
N1 N2
to
τ
N1
τα
τα= estadígrafo t de Student α = nivel de significación grados de libertad : N1-1
Análisis de Información
![Page 16: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/16.jpg)
Selección de Unidades de entrada
• Análisis del grado de autocorrelación de las series de variables de salida (FAS y FAP).
• Análisis de correlación cruzada de variables de entrada y salida. (Funciones de correlación cruzada).
![Page 17: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/17.jpg)
14/05/2007
Análisis de Datos de entrada
Detección de NormalidadTest ParamétricosSuponen que Xt se distribuye Normal.
Test No paramétricos.Dada una muestra de valores (x1, x2, ...xn) se desea saber si proviene de una variable Normal con probabilidad (1-α).
),( σµN
Análisis de Información
![Page 18: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/18.jpg)
14/05/2007
Análisis de Datos de entrada
Detección de Normalidad Test de Fisher
Estima la asimetría g de la muestra X t y trata de comprobar la Ho de que
g ≈≈≈≈ N (0, 6/N)
31
3
).2)(1( SNN
xxg
N
ii
−−
−=∑
=
−
11
2
−
−=∑
=
−
N
xxS
N
ii
Análisis de Información
![Page 19: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/19.jpg)
14/05/2007
Análisis de Estacionariedad de la varianza
.1aplicar constante mantiene se rango el si
,5.0aplicar positiva lexponencia formaen aumenta rango el si
0,aplicar 1) a (1 elinealment aumenta rango o dispersión la
serie), la de (nivel media la de valor elaumentar al
ln1ln
lim1
lim
Xtln Yt ............. 1a ; 0 Si
XtYt ............. 0a ; 1 Si
esparticular Casos
Yt
deSelección
COX - BOX CIÓNTRANSFORMA
00
=−=
=
==−===
===
−=
→→
λλ
λ
λ
λ
λ
λ
λ
λ
λ
λ
λ
λ
Si
XtXtXtXt
aXt
Análisis de Información
![Page 20: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/20.jpg)
Análisis de autocorrelación
Coeficiente de correlación:
rk = cov(X,Y)/sx.sy ; (-1 < rk < 1)
donde k = lag o retardo
X = xi
Y = xi-k
sx = desviación típica de xi
sy = desviación típica de xi-k
N= Tamaño del muetsra
cov (X,Y) = ∑(xi-xmi).(xi-k-xmi-k)/(N-k)
para i= 1,....,N-k
para k= 1,2,3......
Análisis de Información
![Page 21: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/21.jpg)
Análisis de autocorrelación
Test Anderson Verificación de aleatoriedad
Para verificar si una serie es aleatoria, se puede analizar el correlograma de la serie a través del Test de independencia de Anderson, que acepta que el proceso es puramente aleatorio (ruido blanco) , cuando las rk se distribuyen según una Normal N(0,1/N) estableciendo los límites de significación del 95% como
r0.95=-1±1.96.(N-K-1)1/2
N-K
Análisis de Información
![Page 22: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/22.jpg)
Análisis de autocorrelación
Verificación de PeriodicidadEn el caso de series de tiempo es importante verificar si la
variable presenta periodicidad. Una de las maneras de analizar periodicidad es a través de la Función de auto correlación o (correlograma). El cual define la estructura de dependencia de la serie.
rk
kK=0-k
1
0
-1
r0.95=-1+1.96.(N-K-1)1/2
N-K
r0.95=-1-1.96.(N-K-1)1/2
N-K
Análisis de Información
![Page 23: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/23.jpg)
Selección de las unidades de salida
� Se puede elegir en este paso entre dos enfoques según se trate de predecir un solo concepto (multiples entradas y una unidad de salida -MISO-) o representar varios conceptos en forma simultánea con un solo modelo (Multiples entradas y Multiplesunidades de salida -MIMO).
![Page 24: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/24.jpg)
Armado de conjuntos de duplas de entrenamiento, validación y test.
� Selección de las variables de entrada (explicativas) y salida (explicadas).
� Armado de las duplas (patrones entrada-salida) En total se tendrán tantas duplas como ejemplos disponibles.
� Clasificación del ejemplo se puede hacer en tres grandes clases normal, por debajo de lo normal, por arriba de lo normal de acuerdo a los datos observados.
� Selección de ejemplos para el armado de duplas de entrenamiento – validación y Test.
![Page 25: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/25.jpg)
Armado de conjuntos de duplas de entrenamiento, validación y test.
� selección de las duplas
� entrenamiento 2/5 del total de duplas de cada clase.
� Validación 2/5 del total de duplas de cada clase.
� Test 1/5 del total de duplas de cada clase.
![Page 26: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/26.jpg)
Armado de conjuntos de duplas de entrenamiento, validación y test.
� Los conjuntos empleados para el entrenamiento, validación y test serán los mismos para todos los tipos de redes candidatas.
� En el caso de contar con pocos ejemplos deberá utilizarse la metodología de Thomas Mitchel.
![Page 27: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/27.jpg)
Identificación de la estructura de la capa oculta.
Aprendizaje de modelos candidatos.
Selección de estrategia de entrenamiento
Proposición de modelos candidatos
Identificación de candidatos
![Page 28: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/28.jpg)
Selección del número de neuronas en la capa oculta:
� Para realizar la selección del número de unidades ocultas pueden utilizar los métodos : prueba y error, podado de nodos y enlaces o el algoritmo Cascade-Correlation desarrollado por Scott Falhmany Lebiere (1990).
![Page 29: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/29.jpg)
Estrategia de Entrenamiento
La estrategia de entrenamiento se especifica en base a la definición de los siguientes aspectos:
� Algoritmo de Aprendizaje :(ej: Backpropagation mom.)� Actualización de pesos: (on line, batch)� Inicialización de pesos:(aleatorio, no aleatoria)� Variación de parámetros de aprendizaje:(manual,
programado)� Presentación de duplas de entrenamiento:(en orden,
aleatoria)� Criterio de Término del aprendizaje:(Punto de Término)
![Page 30: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/30.jpg)
Aprendizaje de modelos Candidatos
� Las ANNs pueden ser usadas para aprender, por medio de un algoritmo de aprendizaje, a modificar algunos de los parámetros (pesos de los enlaces y desvíos) que describen los componentes de la estructura de la red.
� El conjunto de pesos modificables define un “espacio de parámetros” cuya dimensión estádefinida por el número de pesos a ajustar. Un modelo de red con un conjunto de pesos ajustables define un espacio de hipótesisque corresponde a una familia de funciones[Dean et al 1995].
![Page 31: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/31.jpg)
Aprendizaje de modelos Candidatos
� Una vez definido el espacio de hipótesis, encontrar la mejor hipótesis dentro del espacio implica definir una estrategia de control, que permita aplicar reglas para encontrar una solución. En general esta estrategia se basa en establecer una función de error cuyo mínimo se busca, tal como en un problema de optimización no lineal.
![Page 32: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/32.jpg)
Aprendizaje de modelos Candidatos
� Para encontrar una solución óptima que satisfaga las expectativas de pronóstico se sugiere aplicar los métodos de aprendizaje: Backpropagationmomentum (basado en el método del descenso de gradiente) para las redes feedforward; el método Recurrent Cascade Correlation para el entrenamiento de las redes Elman; el algoritmo de aprendizaje Radial Basis Learning para las redes del tipo radial Basis Function. [Zell el al –SNNS-1995].
![Page 33: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/33.jpg)
Aprendizaje de modelos Candidatos
� Tanto la función de inicialización de pesos y el modo de actualización de los mismos durante el entrenamiento, dependerá del tipo de método de aprendizaje elegido [Zell el al –SNNS- 1995].
� Se recomienda utilizar el Método de Montecarloque permite inicializar la red generando pesos en forma aleatoria.
![Page 34: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/34.jpg)
Aprendizaje de modelos Candidatos
� Un aspecto muy importante a tener en cuenta es el criterio de terminación del entrenamiento con el objeto de evitar el fenómeno de sobreentrenamiento (overfitting). Para ello, en el caso particular de las redes feedforwardentrenadas con el algoritmo backpropagationmomentum se sugiere la estrategia de entrenamiento propuesta por Mitchell[Mitchel 1997 pp.127] destinada a casos con escasos ejemplos de entrenamiento.
![Page 35: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/35.jpg)
Análisis de residuosEvaluación de la capacidad predictiva
Validación de candidatos
Pre - Diagnóstico de comportamiento
Problemas de entrenamiento
![Page 36: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/36.jpg)
Pre - diagnóstico - Curvas de entrenamiento
Causas comunes de problemas de convergencia:
A) Problemas Estructurales� incorrecta asignación de nodos de entrada
� inconsistencia en los datos
� insuficientes nodos ocultos
� Demasiados nodos ocultos
B) Mala estrategia de entrenamiento
� Overfitting�Selección parámetros de entrenamiento y/o pesos
iniciales
![Page 37: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/37.jpg)
Validación y evaluación de la capacidad predictiva.
� El procedimiento de validación se basa en un conjunto de análisis a realizar sobre los residuos (valores calculados como la diferencia entre los valores de salida observados y los calculados por la red) generados por cada modelo para los distintos conjuntos (entrenamiento, validación y test).
� También se usa como indicador de comportamiento el número de ciclos necesario para lograr un entrenamiento que asegure una buena generalización.
![Page 38: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/38.jpg)
Evaluación de capacidad predictiva
N
Validación de Candidatos 2222
SSE vs ciclos
S4E vs ciclos
MAE vs ciclos
RMSE vs ciclos
COE vs ciclos
SSE vs ciclos
R2 vs ciclos
![Page 39: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/39.jpg)
Evaluación de capacidad predictiva
� S4E evalúa el ajuste del modelo a los valores máximos
� MAE es específico para evaluar el ajuste a los valores medios
� RMSE evalúa la varianza de los errores independientemente del tamaño de la muestra [Abrahart&See 1998]. Valores altos de RMSE pueden indicar problemas de generalización asociados generalmente a una mala identificación del número de neuronas ocultas o a un deficiente entrenamiento.
![Page 40: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/40.jpg)
Selección del modelo óptimo:• análisis visual de gráficos de series calculadas y
observadas,
• análisis de dispersión gráfica de valores calculados vs valores observados
• Análisis de independencia y normalidad de residuos; un análisis de auto correlación y correlación cruzada de residuos y variables de entrada.
• % de predicciones correctas
• % de predicciones bajas entre 5,10 y 25% de los valores observados
• % predicciones altas entre 5,10 y 25% de datos observados
• % mayores al 25% de observados
![Page 41: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/41.jpg)
*
*
Qcalc
Qobs0
Verificación del grado de ajuste
*
*
Qcalc
Qobs0
*
*
Qcalc
Qobs0
*
*
Qcalc
Qobs0
*
**
*
*
*
*
*
***
**
*
**
*
**
*
*
*
*
* *
* *
*
*
*
*
*
*
*
**
*
*
*
* **
* *
*
* *
*
**
*
*
*
*
****
*
*
*
*
*
** *
*
*
*
*
*
**
**
*
**
*
*
*
**
*
**
*
*
![Page 42: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/42.jpg)
Visualización de resultados
QANN
Qobs
0
Qm(m3/s)
Tiempo (meses)
�
![Page 43: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/43.jpg)
Diagnóstico de problemas en la estructura del modelo (fórmulas)
+1 Φεε(τ)
+20-20-1
+1 Φε2´
ε2(τ)
+20-20-1
+1 Φε(εu)(τ)
+20-20-1
+1 Φu2´
ε(τ)
+20-20-1
+1 Φuε(τ)
+20-20-1
Validación de Candidatos�
FAS
FAC2
FCC FCC
FCC+ 1.96 √ N
-1.96√ N
![Page 44: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/44.jpg)
Diagnóstico de problemas en la estructura del modelo
Si el análisis de autocorrelación de la serie de residuos indica que un coeficiente de autocorrelaciónsupera un determinado nivel de confianza, ello puede
indicar problemas en la identificación de las variables de entrada o una arquitectura defectuosa de
la red que no logra capturar toda la información predecible.
�
![Page 45: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/45.jpg)
Selección del Modelo óptimo
Las propiedades deseables para el modelo óptimo se refieren a aquel que presente:
�Menos problemas de convergencia en el entrenamiento.
�Mejor capacidad de generalización.
�Una serie de residuos con propiedades de “ruido blanco”.
�Menor número de parámetros a ajustar .(parsimonia)
�Menor número de ciclos de entrenamiento.
�Mejor respuesta en situaciones extremas.
![Page 46: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/46.jpg)
Principio de parsimonia
Para asegurar la capacidad de generalización, debemos evaluar el grado de parsimonia del modelo de red ajustado, se proponen los siguientes indicadores:
N= número de ejemplos
Nw= número de pesos
SSE= error cuadrático medio
( )( ) Error) Prediction (Final
2NSSE FPE
Akaike) den informació de (criterio .2)2
ln(
w
w
NN
NNNNw
NSSE
AIC
−+=
+=
![Page 47: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/47.jpg)
REDES NEURONALES Y TELEDETECCIÓN APLICADAS A LA DISTRIBUCIÓN ESPACIAL DE MATERIAL EN SUSPENSIÓN EN CUERPOS DE
AGUA.
Mariana Pagot1, Oscar Dölling2, Andrés Rodríguez1, Felipe Niencheski3, Gerardo Hillman1, Mariano Corral1 y Claudia Oroná1.
1 Laboratorio de Hidráulica. Universidad Nacional de Córdoba. Argentina2 Dpto. de Hidráulica. Universidad Nacional de San Juan. Argentina
3 Dpto. Química Oceonográfica. FURG – Brasil.
![Page 48: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/48.jpg)
OBJETIVO GENERAL DEL ESTUDIO
Entrenar una Red Neuronal Artificial que
prediga espacialmente la concentración
de material en suspensión (MES) en la
Laguna de Los Patos, Brasil, a partir de
datos de reflectividad medidos con
sensores remotos de la serie LANDSAT
(5 y 7).
![Page 49: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/49.jpg)
Figura 1: Ubicación esquemática de la región en est udio. Laguna de los Patos – Brasil.
![Page 50: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/50.jpg)
Datos de campo
Se utilizaron datos de material en Suspensión
(MES) medidos en 10 estaciones distribuidas
uniformemente sobre el eje longitudinal de la
Laguna. Estas mediciones fueron realizadas en 4
campañas de monitoreo durante los meses de
marzo a noviembre de 1999, por la Fundación
Universitaria de Río Grande (FURG), Brasil.
![Page 51: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/51.jpg)
Datos satelitales
Reflectividad calculada en función de parámetros propios de las bandas (1-2-3 y 4) de los sensores remotos de la serie LANDSAT (5 y 7); considerando además, las efemérides del satélite al momento de adquirir cada imagen.
Las imágenes disponibles fueron cedidas por la CONAE (Comisión Nacional de Actividades Espacial) a través del Instituto de Altos Estudios Espaciales “Mario Gulich”. Se contó con 8 imágenes de la región en coincidencia con lascampañas realizadas.
Cada imagen cubre un área de 180x180 km² por lo quese realizó un mosaico con 2 imágenes para analizar cadacampaña.
![Page 52: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/52.jpg)
Se procesaron 4 mosaicos de imágenes satelitales (2 por
cada instante de muestreo) y se midieron sobre cada
estación monitoreada los correspondientes datos de
intensidades de píxeles (ND) filtrados espacialmente para
promediar el error en la ubicación de dicha estación. La
resolución de cada pixel depende de la banda analizada
para este caso se utilizaron las bandas 1-2 – 3 y 4 con
resolucion espacial de 30x30mts y una escala de grises
(rango del numero digital ND) de 0 a 64 correspondiente
a 8bits en la conversion Analog--Digital.
![Page 53: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/53.jpg)
La expresión utilizada en la transformación de variables se presenta en la ecuación 1.
ρp es la reflectividad en la Banda pLλ: es la radiancia espectral (L=a1*ND+a2) ND: número digital de la imagend: día julianoEsunλ: irradiancia solar (constante para cada satélite y cada banda)Θs: ángulo de elevación solar.
sp Esun
dL
Θ•••
=cos
2
λπρ λ
![Page 54: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/54.jpg)
Discriminacion de minerales y rocas. También humedad suelo.
Infrarojomedio
2.08 – 2.357
Analisis de stress en vegetacion. Discriminacion de humedades de suelo. Temperaturas de objetos.
Infrarofotérmico
10.4 – 12.56
Discriminacion de nubes y nieve ( contenido de humedad de suelo y contenido de humedad vegetal)
Infrarojomedio
1.55 – 1.755
Tipos de cultivos – vigor – contenido de biomasa – limites de cuerpos de agua – discriminacion de humedad de suelos.
Infrarojocercano
0.76 -0.904
Vegetación. Difer. Especies.rojo0.63 – 0.693
Vegetación diferenciación de estadosde Crecimiento y vigor.
verde0.52 – 0.602
Agua / suelo (delimitacion de costas)azul0.45 - 0.501
AplicaciónEspectrolongitud de onda
(micrometros)
BANDA
![Page 55: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/55.jpg)
Tabla 1: Datos satelitales y de campo disponibles p ara desarrollar la red.
3,6810,0350,0080,049650,01020O110
2,6810,0270,0320,059580,02168P89
2,9820,0310,0450,056740,01913P78
3,9320,0310,0410,049650,00638P67
4,0840,0290,0370,046810,00383P56
3,6580,0190,0200,052480,01020P45
3,3600,0100,0000,053900,01785P34
3,4130,0020,0030,053900,01658P23
4,0900,0000,0000,000000,00925P12
4,2920,0210,0220,039720,00000
17-Sep-99
R11
ln (MES) (y)Banda4
(R4)Banda3
(R3)Banda2
(R2)Banda1 (R1)ImagenEstación
M.E.S.Reflectividad (R)FechaCódigo
DatoNro.
![Page 56: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/56.jpg)
3,5090,0480,0530,0649120,030100O140
3,4440,0540,0580,0672300,032330P839
4,5020,0450,0470,0394110,015607P738
3,8750,0480,0360,0602760,027870P637
3,8290,0340,0210,0602760,027870P536
2,8500,0000,0000,0765040,040133P435
5,5650,0100,0000,0000000,000000P334
4,8770,0060,0040,0324560,008918P233
4,9210,0080,0020,0301380,004459P132
4,1590,0280,0190,0533210,022296
12-Nov-99
R131
4,6160,0220,0190,0449150,014399O130
3,3450,0330,0220,0898310,047517P829
2,6550,0180,0190,0988140,050397P728
4,2570,0290,0320,0658760,025919P627
4,4920,0110,0150,0509040,023039P526
5,1750,0040,0100,0299440,000000P425
3,9340,0070,0000,0748590,031678P324
4,5370,0040,0050,0479100,015839P223
5,1840,0000,0020,0059890,000000P122
5,3040,0180,0070,0000000,000000
08-Ago-99
R121
1,8640,0260,0300,0186500,014947O120
2,0630,0190,0250,0186500,014947P819
1,1630,0040,0030,0217580,017937P718
1,1550,0150,0180,0217580,017937P617
1,2240,0190,0300,0217580,017937P516
0,2620,0190,0230,0248670,023916P415
2,0970,0080,0000,0155420,014947P314
3,5550,0000,0000,0000000,000000P213
2,9640,0080,0030,0124330,010463P112
2,6080,0110,0150,0155420,014947
17-Mar-99
R111
![Page 57: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/57.jpg)
Tabla 2: Coeficientes de asimetría
VerificaVerificaVerificaVerificaVerifica
-0,672310,604950,692390,122590,73463
YR4R3R2R1
intervalo de confianza [-0,75 y 0,75] para (a)= 0,05 y 40 datos
Tabla 3: Parámetros estadísticos típicos
40Nro. de observaciones:
1,250020,014650,016410,025350,01386Desviación típica:
3,500,0190,0180,0410,017Promedio:
5,570,0540,0580,0990,050Máximo:
0,260,000,000,000,00Mínimo:
Ln(MES)R4R3R2R1
![Page 58: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/58.jpg)
Figura 2: Funcion de autocorrelación simple series espaciales de reflectividades y Ln(MES).
![Page 59: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/59.jpg)
En la mayoría de las series la dependencia espacial
comprobada correspondió a 1 desfasaje (k = 1). Esto
es debido a que las estaciones (ubicadas en dirección
NE-SO) reciben desde el NE los mayores aportes por
tributarios de la Laguna, del Río Guaiba, cuya
concentración de sedimentos medida en la
desembocadura de este río influye en la próxima
estación ubicada hacia aguas abajo.
![Page 60: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/60.jpg)
Selección del conjunto de ejemplos
1- División del conjunto de datos en clases de Entrenamiento, de Validación Y Test. (Además, se verificó que cada conjunto de entrenamiento cubriera el espectro de las posibles clases de entradas.)
2- Selección de la función sigmoide como función de activación de neurona.
3- Escalamiento de los datos de salida entre [-0,7 y 0,7]. (Los datos de entrada se encontraban originalmente dentro de este rango).
4- Luego se evaluaron tres estructuras principales de ejemplos:
a)Los datos de entrada corresponden a las series analizadas de reflectividades (R1, R2, R3 y R4) mientras que los de salida corresponden a los valores escalados del Ln (MES). b) Los datos de entrada corresponden a las series analizadas (R1, R2, R3 y R4) junto con las series desplazadas un intervalo igual a una estación de monitoreo hacia el Sur de la Laguna para R2, R3 y R4, mientras que los de salida, corresponden a los valores escalados a Ln (MES).
c) Igual que (b) pero considerando una variable explicativa adicional relacionada con el índice (R1i/R2i) con i desde 1 a 40.
![Page 61: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/61.jpg)
El punto (c) surgió del análisis de las regresiones múltiples lineales
entre las variables explicativas y explicadas, las cuales para esta
combinación arrojó un coeficiente de determinación (r²) igual a
0,71; el cual resulta mayor al obtenido con el resto de las
alternativas evaluadas (por ejemplo la adición de las
reflectividades en cada banda ya sea en forma separada o
conjunta).
El criterio de selección de las alternativas se basó en la evaluación
los residuos correspondientes.
![Page 62: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/62.jpg)
Selección de la topología de red
Se evaluaron distintas arquitecturas de redes neuronales
RED [cantidad de neuronas de entrada, cantidad de neuronas ocultas, cantidadde neuronas de salida]:
RED [4,4,1]
RED [4,3,1]
RED [4,10,1]
RED [7,4,1]
RED [7,3,1]
RED [8,4,1]
![Page 63: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/63.jpg)
Estrategia de entrenamiento
La estrategia seleccionada se aplicó en las distintas
topologías mencionadas y se basaron en la definición de
los siguientes aspectos:
-algoritmo de aprendizaje: Backpropagation mom.
-actualización de pesos: On-line
-modo aleatorio de inicialización de pesos y presentación
de las tuplas de entrenamiento
![Page 64: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/64.jpg)
Entre los esquemas analizados, los resultados presentaron
los siguientes errores medios de predicción entre los
valores calculados por el programa SNNS y los valores
objetivos correspondientes a cada ejemplo de
entrenamiento: RED [4,4,1]: - 5,46%RED [4,3,1]: 4,52 %RED [4,10,1]: -8,9%RED [7,4,1]: - 0,45 %RED [7,3,1]: -3,55 %RED [8,4,1]: -0,50 %
Se observa que las redes (d) y (f) son las que presentan menoreserrores de predicción.
![Page 65: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/65.jpg)
En la Figura 5, se presenta la estructura de la red (d) [7, 4, 1], en la cual se observan los pesos calculados para cada enlace de neuronas.
Figura 5: Estructura de la red [7, 4, 1] y pesos ca lculados.
Los pesos mayores corresponden a la variable explicativa R1, lo cual coincide con lo estimado a partir de las regresiones lineales realizadas entre las distintas variables explicativas y explicadas.
![Page 66: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/66.jpg)
Figura 6: Los errores absolutos obtenidos para el c onjunto de ejemplos de Test de la red [7, 4, 1] son menores del 1%.
![Page 67: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/67.jpg)
Figura 8: Estructura de la red [8, 4, 1]
![Page 68: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/68.jpg)
Para confirmar qué serie generaliza mejor dichos ejemplos se analizaron
los residuos para verificar si se acercan o no a un proceso aleatorio
puro “ruido blanco”.
Así, en cada red [7, 4, 1] y [8, 4, 1] se verificó el test de Normalidad con
valores -0,1551 y -0,0776, respectivamente, en un intervalo
comprendido entre 0,7893 y -0,7893.
El análisis del autocorrelograma simple indicó una dependencia espacial
de los dos primeros intervalos (Figura 9). Mientras que para la estructura
[7, 4, 1] no se presentaron valores fuera del intervalo de confianza,
definido en ambos casos para una probabilidad del 5% (Figura 10).
![Page 69: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/69.jpg)
Figura 9: Autocorrelogramas de residuos Red [8, 4, 1 ]
FAS
FAP
-0,5
-0,4
-0,3
-0,2
-0,1
0
0,1
0,2
0,3
0,4
0 2 4 6 8 10 12 14 16
k
r(k)
r(k) superior inferior
![Page 70: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/70.jpg)
Figura 10: Autocorrelograma de los residuos Red [7, 4, 1]
-0,5
-0,4
-0,3
-0,2
-0,1
0
0,1
0,2
0,3
0,4
0 2 4 6 8 10 12 14 16
k
r(k)
r(k) superior inferior
![Page 71: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/71.jpg)
Validación. Análisis de los resultados
1- Se verificó la Normalidad de los residuos delconjunto de validación con el test de Fischer.
2- Se visualizó datos calculados vs observados
Figura 13: Curva de regresión lineal entre los valo res medidos de (MES) y los generados con la red neuronal y el programa SNN S. Red [7, 4, 1] para el conjunto de Validación.
![Page 72: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/72.jpg)
Figura 13: Curva de regresión lineal entre los valo res medidos de (MES) y los generados con la red neuronal y el programa S NNS. Red [7, 4, 1]Para el conjunto de validación.
![Page 73: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/73.jpg)
CAPACIDAD DE PRONÓSTICO CONJUNTO DE VALIDACIÓN
Figura 15: Comparación entre resultados medidos y g enerados para la red [7, 4, 1] de los ejemplos de Validación .
![Page 74: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/74.jpg)
Figura 16: Comparación entre resultados medidos y g enerados para la red [8, 4, 1] de los ejemplos de Validación .
![Page 75: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/75.jpg)
CAPACIDAD DE PRONÓSTICO CONJUNTO TOTAL DE DATOS
Figura 17: Valores medidos vs valores generados con la red [7, 4, 1]
![Page 76: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/76.jpg)
Figura 18: Valores medidos vs valores generados con la red [8, 4, 1]
![Page 77: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/77.jpg)
Selección del modelo óptimo
Figura 19: Visualización de resultados medidos y ge nerados con SNNSMODELO RED [7, 4, 1] .
![Page 78: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/78.jpg)
CONCLUSIONES
El modelo RED [7, 4, 1] tiende a subestimar el primer conjunto de ejemplos (de entrenamiento) y sobrestimar el
resto (que incluye los datos de validación).
El modelo explica el 75 % de los ejemplos (escasos) disponibles.
La combinación resultante puede, aún, mejorarse, ya que el coeficiente de determinación fue menor a 0,90.
Es posible a futuro sumar datos de reflectividades de otros sensores con el objetivo de aumentar el número de
ejemplos disponibles y mejorar la performance del modelo.
![Page 79: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/79.jpg)
APLICACIÓN DE REDES NEURONALES PARA LA SIMULACIÓN DE LA
EVOLUCIÓN DE NIVELES DE AGUA PARA LA LAGUNA DE MAR CHIQUITA
Hillman G.1, Dölling O.2, Pagot M.1, Pozzi C.1 y Plenco vich G.1
* 1Laboratorio de Hidráulica. FCEFyN. UNC.
2 Departamento de Hidráulica. Universidad Nacional de San Juan. Argentina
![Page 80: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/80.jpg)
Sistema endorreico de la República Argentina
Area de influencia de la laguna de Mar Chiquita - bañados del RíoDulce
PROVINCIAS INVOLUCRADASCatamarca, Salta, Tucumán, Córdoba y Santiago del Estero
CUENCAS DE APORTE Río Dulce
Río SuquíaRío Xanaes
Superficie total = 75000 km2El entorno lagunar abarca un ecosistema cerrado: 10.000 km2
Rango de fluctuaciones en el sistema (2.000 a 6.000 km², entre niveles de 66 y 72 msnm),
![Page 81: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/81.jpg)
![Page 82: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/82.jpg)
DV = Qi. DT + AL (P-E). DT
donde:
DV variación de volumen de la laguna
Qi caudales aportados por los tributarios al sistema
P precipitación media areal sobre la laguna,
E evaporación,
AL área de la laguna,
DT paso de tiempo.
![Page 83: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/83.jpg)
Variables Explicativas
RH: Caudales medios mensuales en Río Hondo.
RI: Caudales medios mensuales en Río Primero.
RII: Caudales medios mensuales en Río Segundo.
PN: Precipitaciones en el arco norte de la laguna de Mar Chiquita.
PS: Precipitaciones en el arco sur de la laguna de Mar Chiquita.
E: Evaporación en la laguna de Mar Chiquita.(Estación Miramar)
Variable explicada
H: niveles de la elevación de la superficie de agua en la
Laguna de Mar Chiquita. (Miramar)
período de estudio
17 años (Nov 1980 - Ago 1997),
![Page 84: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/84.jpg)
![Page 85: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/85.jpg)
![Page 86: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/86.jpg)
![Page 87: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/87.jpg)
TRATAMIENTO ESTADÍSTICO Y ANÁLISIS DE LA ESTRUCTURATEMPORAL DE LAS SERIES
Los análisis realizados fueron:
a. Estimadores muestrales.b. Análisis de saltos.c. Análisis de tendencia.d. Análisis de normalidad.e. Análisis de autocorrelogramasf. Análisis de correlogramas cruzadosg. Selección del conjunto de variables explicativas a incluir en el modelo
![Page 88: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/88.jpg)
![Page 89: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/89.jpg)
Test de Fischer a pesar de que se presentan saltos en las seriesse consideró que los datos son de calidad y que los saltos son reales.
![Page 90: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/90.jpg)
Se removieron las tendencias de las series con dif. De primer orden, solo la serie de niveles necesito aplicar diferencias de 2do orden.
![Page 91: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/91.jpg)
Se normalizaron las series con transformaciones de tipo BOX COX
ANALISIS de NORMALIDAD DE SERIES
![Page 92: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/92.jpg)
Análisis de la estructura de dependencia temporal:Correlogramas.
![Page 93: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/93.jpg)
Análisis de la estructura de dependencia temporal:Correlogramas.
![Page 94: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/94.jpg)
Análisis de la estructura de dependencia temporal:Correlogramas.
![Page 95: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/95.jpg)
Análisis de la estructura de dependencia temporal:Correlogramas.
![Page 96: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/96.jpg)
Análisis de la estructura de dependencia temporal:Correlogramas Cruzados respecto de H.
![Page 97: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/97.jpg)
A las 6 variables explicativas se le sumaron 9 variables explicativas que representan la influencia de la historia del proceso en los niveles explicados.
![Page 98: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/98.jpg)
ARMADO DE EJEMPLOS DE ENTRENAMIENTO, VALIDACIÓN Y T EST
Total de ejemplos disponibles : 192
se dividió en 3 conjuntos por selección aleatoria
el 60% para entrenamiento: 115
el 30% para validación 58 ejemplos
el 10%para test : 19 ejemplos
Luego de evaluar distintas arquitecturas, como mejor configuración resultó una red de tres Capas (15-6-1)
una visible de 15 neuronas (entrada)
una oculta de 6 neuronas
una neurona de salida
![Page 99: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/99.jpg)
RED NEURONAL ENTRENADA RED 15-6-1
![Page 100: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/100.jpg)
![Page 101: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/101.jpg)
PARAMETROS DE LA RED NEURONAL 15-6-1
![Page 102: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/102.jpg)
![Page 103: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/103.jpg)
dispersión valores observados versus calculados (TEST)
![Page 104: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/104.jpg)
valores observados versus calculados (TEST)
(calculados)
![Page 105: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/105.jpg)
![Page 106: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/106.jpg)
Los resultados obtenidos y el buen ajuste logrado, demuestra la capacidad que ofrece la modelación con redes neuronales para representar procesos inerciales no lineales como es la variación de los niveles de la laguna.
El éxito de la modelación depende en gran medida de la calidad y cantidad de datos disponibles para los procesos de aprendizaje, validacióny calibración.
El modelo presentado puede ser implementado, asegurando una resolución en el cálculo muy aceptable para intervalos de tiempo mensuales, resultando una herramienta de apoyo a la planificación estratégica de suma utilidad para las comunidades de la zona afectada.
CONCLUSIONES
![Page 107: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/107.jpg)
MODELO DE PRONÓSTICO CAUDALES DIARIOS DEL RIO SAN JUAN - ESTACION KM 47.3
PROYECTO CICITCA Cod. I-291 / 2003 U.N.S.J.
Director:Oscar R. Dolling
Integrantes: Joaquín RiverosPatricia OviedoSergio Camargo
![Page 108: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/108.jpg)
Cuenca del rCuenca del ríío San Juano San Juan
Río San Juan
Río Blanco
Río Calingasta
Río
Los
Pat
os
Río Castaño
Río
Uru
guay
Río
Sas
o
0 30 60 kmts
N
O E
S
El Pachon
1 3
2
ESTACIONES de aforo
1 La PLateada
2 Km 101
3 Km 47.3
![Page 109: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/109.jpg)
Descripción de Datos
Período Fuente
Caudal medio diario río San Juan en Km 47.3.
01/07/51 a 30/06/2003 EVARSA
Caudal medio diario río San Juan en Km 101.
01/10/71 – a 30/06/2003 EVARSA
Caudal medio diario río Los Patos en La Plateada.
01/07/51 – a 30/06/2003 EVARSA
Temperatura Bulbo humedo medio diario en Km47.3
01/09/93 y 30/09/2003 EVARSA
Temperatura Mínima Est. Km 47.3 01/09/93 – a 30/09/2003 EVARSA Temperatura Máxima Est. Km 47.3 01/09/93 – a 30/09/2003 EVARSA Tanque Evaporación Km47.3 01/09/93 a 30/09/2003 EVARSA Velocidad Viento Km 47.3 01/09/93 y 30/09/2003 EVARSA Evaporación diaria Km47.3 01/09/93 a 30/06/2003 EVARSA Humedad diaria Km47.3 01/09/93 a 30/09/2003 EVARSA Precipitación diaria Km47.3 01/09/93 a 30/09/2003 EVARSA Caudal Medio Diario río Los Patos Est. Alvarez Condarco.
01/07/57 a 30/06/2003 EVARSA
Caudal Medio Diario río Castaño, Castaño Nuevo.
01/07/51 a 02/07/1986 EVARSA
Temperatura Bulbo seco medio diario en Km47.3
01/09/93 y 30/09/2003 EVARSA
Temperatura Máxima Est. Met. Pachón 09-01-81 a 16/12/1997 Dto. Hidráulica
Temperatura Mínima Est. Met. Pachón 09-01-81 a 16/12/1997 Dto. Hidráulica
Temperatura Promedio Est. Met. Pachón 09-01-81 a 16/12/1997 Dto. Hidráulica
Datos de niveles freáticos Valle Tulum 01-03-91 a 01-10-95 Dto. Hidráulica
RECOPILACION DE INFORMACIÓN
![Page 110: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/110.jpg)
VARIABLES INCLUIDAS EN EL ANÁLISIS
VAR47KM: Caudales diarios estación de aforo KM47,3.
VAR101KM: Caudales diarios estación de aforo KM101.
VARPLATE: Caudales diarios estación de aforo La Plateada.
VARPP: Precipitación líquida estación Pachón.
VARNC: Precipitación sólida estación Pachón.
VARNA: Precipitación sólida acumulada, estación Pachón.
VARTMAX: Temperatura máxima, estación Pachón.
VARTMIN: Temperatura mínima, estación Pachón
VARTPROM: Temperatura promedio, estación Pachón.
![Page 111: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/111.jpg)
VARIABLES INCLUIDAS EN EL ANÁLISIS
PerPerPerPerííííodo de Anodo de Anodo de Anodo de Anáááálisis 1981 a 1997lisis 1981 a 1997lisis 1981 a 1997lisis 1981 a 1997
6209 datos diarios 6209 datos diarios 6209 datos diarios 6209 datos diarios
NOTA:La serie de aforos diarios de la estación Km47.3 presenta un período de 15 días en los cuales no se han medido caudales. Estos corresponden al período comprendido del 1 de enero de 1995 a 15 de enero del mismo año. Se relleno ajustando curvas de regresion lineal entre estaciones.
![Page 112: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/112.jpg)
nieve acumulada vs dia
0
50
100
150
200
250
300
1
316
631
946
1261
1576
1891
2206
2521
2836
3151
3466
3781
4096
4411
4726
5041
5356
5671
5986
días
niev
e ac
umul
ada
(cm
)
precipitación sólida vs dia
0,0
20,0
40,0
60,0
80,0
100,0
120,0
140,0
1
324
647
970
1293
1616
1939
2262
2585
2908
3231
3554
3877
4200
4523
4846
5169
5492
5815
6138
días
altu
ra d
e ni
eve
caíd
a (c
m)
Precipitación vs días
0,0
20,0
40,0
60,0
80,0
100,0
120,0
140,0
1
364
727
1090
1453
1816
2179
2542
2905
3268
3631
3994
4357
4720
5083
5446
5809
6172
Dias
Pre
cipi
taci
ón lí
quid
a (
mm
)
Temperatura media vs dia
-25,0
-20,0
-15,0
-10,0
-5,0
0,0
5,0
10,0
15,0
1
321
641
961
1281
1601
1921
2241
2561
2881
3201
3521
3841
4161
4481
4801
5121
5441
5761
6081
días
Tem
pera
tura
pro
med
io (°
C)
Temperaturas vs. DIAS
-35
-30
-25
-20
-15
-10
-5
0
5
10
15
20
1
123
245
367
489
611
733
855
977
1099
1221
1343
1465
1587
1709
1831
1953
2075
2197
2319
2441
2563
2685
2807
2929
3051
3173
3295
3417
3539
3661
3783
3905
4027
4149
4271
4393
4515
4637
4759
4881
5003
5125
5247
5369
5491
5613
5735
5857
5979
6101
DIAS
Tem
pera
tura
s M
ínim
as (
°C)
Caudales KM 47,3 vs dia
0,00
100,00
200,00
300,00
400,00
500,00
600,00
700,00
1
316
631
946
1261
1576
1891
2206
2521
2836
3151
3466
3781
4096
4411
4726
5041
5356
5671
5986
días
caud
ales
dia
rios
(m3/
s)
Caudales KM 101 vs dia
,0100,0
200,0300,0400,0
500,0600,0700,0
800,0900,0
1
311
621
931
1241
1551
1861
2171
2481
2791
3101
3411
3721
4031
4341
4651
4961
5271
5581
5891
6201
días
caud
ales
dia
rios
(m3/
s)
Caudales La >Plateada vs dia
0,0
100,0
200,0
300,0
400,0
500,0
600,0
700,0
800,0
1
311
621
931
1241
1551
1861
2171
2481
2791
3101
3411
3721
4031
4341
4651
4961
5271
5581
5891
6201
días
caud
ales
dia
rios
(m3/
s)
Temperaturas vs. DIAS
-15
-10
-5
0
5
10
15
20
25
1
12
3
24
5
36
7
48
9
61
1
73
3
85
5
97
7
10
99
12
21
13
43
14
65
15
87
17
09
18
31
19
53
20
75
21
97
23
19
24
41
25
63
26
85
28
07
29
29
30
51
31
73
32
95
34
17
35
39
36
61
37
83
39
05
40
27
41
49
42
71
43
93
45
15
46
37
47
59
48
81
50
03
51
25
52
47
53
69
54
91
56
13
57
35
58
57
59
79
61
01
DIAS
Tem
pera
tura
s M
ínim
as (°
C)
Temperatura Maxima
Temperatura M{inima
![Page 113: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/113.jpg)
Figura N ° 4.1: Representación de los caudales de las estaciones de aforo 47km y 101km, se representa la línea de tendencia.
4211,2Q979,0Q km101km47 +×= R2 = 0.9727
Gráfico de doble Masa
0
100
200
300
400
500
600
700
800
900
0 200 400 600 800 1000
Caudales 101km (m 3/seg)
Cau
dale
s 47
km (
m3 /s
eg)
![Page 114: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/114.jpg)
Figura N ° 4.2: dispersión de datos correspondientes a las estaciones de Aforo 101km y La Plateada, también se graficó la recta de regresión con su expresión incluida en el figura.
Gráfico de doble Masa
y = 0.9628x - 13.957
R2 = 0.9133
0
100
200
300
400
500
600
700
800
0 100 200 300 400 500 600 700 800 900
La Plateada
Est
ació
n de
Afo
ro 1
01km
![Page 115: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/115.jpg)
Tabla N° 4.1: Valores de máximos y mínimos del Río San Juan período 1981 hasta 1997.
6,56739,82Estación La Plateada
14,85795,00Estación 101km
17,92663,14Estación 47.3km
MÍNIMO(m3/seg)
MÁXIMO(m3/seg)
ESTACIÓN DE AFORO
Tabla N° 4.2: Caudales medios correspondiente a las tres estaciones de aforo período de 1981 a 1997.
51,5La Plateada
68,02Estación 101km
69,02Estación 47,3km
Caudal Promedio(m3/seg)
Estación de Aforo
![Page 116: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/116.jpg)
Tabla N° 4.4: Desviación Estándar de las estaciones de aforo.
65,2712La Plateada
64,7877Estación 101km
64,3095Estación 47,3km
Desviación EstándarEstación de Aforo
Tabla N° 5: Coeficientes de asimetría de las estaciones de aforo, se puede ver que existe un fuerte sesgo de los valores, por lo tanto se debe realizar una normalización de los datos observados.
Coeficiente de Asimetría
Estación de Aforo
3,8994La Plateada
3,5387Estación 101km
3,4201Estación 47,3km
![Page 117: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/117.jpg)
CAUDALES MEDIOS, MÍNIMOS, MAXIMOS
0
100
200
300
400
500
600
700
800
900
0 10 20 30 40 50 60 70 80
Tiempo
Cau
dale
s (m
3/se
g) CaudalMedioCaudalesMínimosCaudalesMáximos
Figura N ° 4.3: Caudales máximos, mínimos y medios, para realizar esta grafica se realizó una agregación de datos cuatrimestral.
anomalía
![Page 118: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/118.jpg)
SA LTO S DE FISH ER
-1.50
-1.00
-0.50
0.00
0.50
1.00
1.50
2.00
2.50
0 10 20 30 40 50 60 70 80
N1
Tie
mpo T de F isher
Lim ite
Figura N° 4.7c: Test de Fishercorrespondiente a la Plateada.
![Page 119: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/119.jpg)
Figura N°4. 7a: Test de Fisher para el aforo 101km.
SALTOS DE FISHER
-1.50
-1.00
-0.50
0.00
0.50
1.00
1.50
2.00
2.50
3.00
0 10 20 30 40 50 60 70 80
N1
Tie
mpo T de Fisher
Limite
![Page 120: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/120.jpg)
S A L T O S D E F IS H E R
-1 .5 0
-1 .0 0
-0 .5 0
0 .0 0
0 .5 0
1 .0 0
1 .5 0
2 .0 0
2 .5 0
3 .0 0
0 1 0 2 0 3 0 4 0 5 0 6 0 7 0 8 0
N 1
t T d e F is h e r
L im ite
Figura N° 4.7b: Test de Fishercorrespondiente 47,3km.
![Page 121: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/121.jpg)
Gráfica en el salto de F
-175
-75
25
125
225
325
425
525
625
1 47 93 139
185
231
277
323
369
415
461
507
553
599
645
691
737
783
829
875
921
967
1013
1059
Tiempo (días)
Cau
dale
s
Caudales 47km
Diferencia 47km - 101km
Figura N° 4.8a: Q vs T para Período donde se registró el salto mediante el test de Fisher.
![Page 122: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/122.jpg)
Figura N° 4.8b: Representación del la estación de aforo La Plateada y 101km
Gráfica en el salto de F
-200
-100
0
100
200
300
400
500
600
7001 50 99 148
197
246
295
344
393
442
491
540
589
638
687
736
785
834
883
932
981
1030
1079
Tiempo (días)
Cau
dale
s
La Plateada
Diferencia La Plateada - 101km
![Page 123: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/123.jpg)
Lag Number
16
15
14
13
12
11
10
9
8
7
6
5
4
3
2
1
Par
tial A
CF
1.0
.5
0.0
-.5
-1.0
Confidence Limits
Coefficient
Figura N ° 4.4: Autocorrelación parcial serie caudales estación 47,3km.
![Page 124: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/124.jpg)
VAR00003
Lag Number
16
15
14
13
12
11
10
9
8
7
6
5
4
3
2
1
Par
tial A
CF
1.0
.5
0.0
-.5
-1.0
Confidence Limits
Coefficient
Figura N° 4.5: Correlograma parcial serie caudalesestación de aforo La Plateada.
![Page 125: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/125.jpg)
Figura N°4.6: Correlograma serie de caudales estación de aforo 101km.VAR00004
Lag Number
16
15
14
13
12
11
10
9
8
7
6
5
4
3
2
1
Par
tial A
CF
1.0
.5
0.0
-.5
-1.0
Confidence Limits
Coefficient
![Page 126: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/126.jpg)
Correlations
1,000 ,986** ,857** -,063** -,061** -,068** ,250** ,229** ,261**
, ,000 ,000 ,000 ,000 ,000 ,000 ,000 ,000
6209 6209 6209 6209 6206 6209 6186 6186 6186
,986** 1,000 ,847** -,065** -,063** -,076** ,264** ,243** ,275**
,000 , ,000 ,000 ,000 ,000 ,000 ,000 ,000
6209 6209 6209 6209 6206 6209 6186 6186 6186
,857** ,847** 1,000 -,064** -,060** -,063** ,241** ,215** ,248**
,000 ,000 , ,000 ,000 ,000 ,000 ,000 ,000
6209 6209 6209 6209 6206 6209 6186 6186 6186
-,063** -,065** -,064** 1,000 ,893** ,196** -,287** -,161** -,248**
,000 ,000 ,000 , ,000 ,000 ,000 ,000 ,000
6209 6209 6209 6209 6206 6209 6186 6186 6186
-,061** -,063** -,060** ,893** 1,000 ,159** -,255** -,152** -,225**
,000 ,000 ,000 ,000 , ,000 ,000 ,000 ,000
6206 6206 6206 6206 6206 6206 6183 6183 6183
-,068** -,076** -,063** ,196** ,159** 1,000 -,441** -,424** -,468**
,000 ,000 ,000 ,000 ,000 , ,000 ,000 ,000
6209 6209 6209 6209 6206 6209 6186 6186 6186
,250** ,264** ,241** -,287** -,255** -,441** 1,000 ,709** ,937**
,000 ,000 ,000 ,000 ,000 ,000 , ,000 ,000
6186 6186 6186 6186 6183 6186 6186 6186 6186
,229** ,243** ,215** -,161** -,152** -,424** ,709** 1,000 ,910**
,000 ,000 ,000 ,000 ,000 ,000 ,000 , ,000
6186 6186 6186 6186 6183 6186 6186 6186 6186
,261** ,275** ,248** -,248** -,225** -,468** ,937** ,910** 1,000
,000 ,000 ,000 ,000 ,000 ,000 ,000 ,000 ,
6186 6186 6186 6186 6183 6186 6186 6186 6186
Pearson Correlation
Sig. (2-tailed)
N
Pearson Correlation
Sig. (2-tailed)
N
Pearson Correlation
Sig. (2-tailed)
N
Pearson Correlation
Sig. (2-tailed)
N
Pearson Correlation
Sig. (2-tailed)
N
Pearson Correlation
Sig. (2-tailed)
N
Pearson Correlation
Sig. (2-tailed)
N
Pearson Correlation
Sig. (2-tailed)
N
Pearson Correlation
Sig. (2-tailed)
N
VAR47KM
VAR111KM
VARPLATE
VARPP
VARNC
VARNA
VARTMAX
VARTMIN
VARTPROM
VAR47KM VAR111KM VARPLATE VARPP VARNC VARNA VARTMAX VARTMIN VARTPROM
Correlation is significant at the 0.01 level (2-tailed).**.
Tabla 7.1 : Planilla de Correlación cruzada entre variables
![Page 127: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/127.jpg)
VAR47KM with VAR101KM
Lag Number
76543210-1-2-3-4-5-6-7
CC
F
1,0
,5
0,0
-,5
-1,0
Confidence Limits
Coefficient
VAR47KM with VARPLATE
Lag Number
76543210-1-2-3-4-5-6-7
CC
F
1,0
,5
0,0
-,5
-1,0
Confidence Limits
Coefficient
VAR47KM with VARTMAX
Lag Number
76543210-1-2-3-4-5-6-7
CC
F
1,0
,5
0,0
-,5
-1,0
Confidence Limits
Coefficient
VAR47KM with VARTMIN
Lag Number
76543210-1-2-3-4-5-6-7
CC
F
1,0
,5
0,0
-,5
-1,0
Confidence Limits
Coefficient
VAR47KM with VARTPROM
Lag Number
76543210-1-2-3-4-5-6-7
CC
F
1,0
,5
0,0
-,5
-1,0
Confidence Limits
Coefficient
CorrelaciónCruzada entre Km 47.3 y Variables explicativas
![Page 128: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/128.jpg)
Resultado del Análisis de Correlación cruzada
Variables Explicativas:
•Caudal de la estación de aforo KM101 para lag = -2
•Caudal de la estación de aforo La Plateada para lag = -2
•Temperatura máxima tomadas en la estación Pachón para lag= -3
•Temperatura mínima tomadas en la estación Pachón lag = -3
•Temperatura promedio tomadas en la estación Pachón = -3
•Precipitación líquida tomadas en la estación Pachón = -3
•Precipitación sólida tomadas en la estación Pachón = -3
•Precipitación sólida acumulada tomadas en la estación Pachón = -3
La variable explicada es:
•Caudal de la estación de aforo KM47,3 para lag = 0
![Page 129: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/129.jpg)
KM47 ANN 8-0-1
![Page 130: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/130.jpg)
KM47 ANN 8-1-1
![Page 131: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/131.jpg)
KM47 ANN 8-2-1
![Page 132: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/132.jpg)
KM47 ANN 8-3-1
![Page 133: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/133.jpg)
KM47 ANN 8-3-1
![Page 134: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/134.jpg)
Tabla 7.3: estadígrafos serie de residuos (errores respecto al valor observado en %) conjunto de Test para las redes entrenadas
68,1845966ANN 8-0-1Máximo %
-43,75Mínimo %
-0,2764287Promedio %
15,3800537Desviación %
847Datos
87,6222494ANN 8-2-1Máximo %
-38,8553659Mínimo %
-3,03025274Promedio %
8,26183437Desviación %
847Datos
299,969438ANN 8-1-1Máximo %
-32,7182487Mínimo %
58,3478108Promedio %
34,1896794Desviación %
847Datos
175,672372ANN 8-3-1
Máximo %
-37,137796Mínimo %
-2,533281Promedio %
12,105094Desviación %
847Datos
![Page 135: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/135.jpg)
KM 47,3 ANN 8-0-1
y = 0,9168x + 0,0032
R2 = 0,8821
0
0,2
0,4
0,6
0,8
1
0 0,2 0,4 0,6 0,8 1
Observado
Cal
cula
do
KM 47,3 ANN 8-2-1
y = 0,8861x + 0,0067
R2 = 0,9584
0
0,1
0,2
0,3
0,4
0,5
0,6
0,7
0,8
0,9
1
0 0,2 0,4 0,6 0,8 1
Observado
Cal
cula
do
KM 47,3 ANN 8-1-1
y = 0,8355x + 0,0541
R2 = 0,9174
0
0,1
0,2
0,3
0,4
0,5
0,6
0,7
0,8
0,9
1
0 0,2 0,4 0,6 0,8 1
Observado
Cal
cula
do
KM 47,3 ANN 8-3-1
y = 0,8915x + 0,0061
R2 = 0,9585
0
0,1
0,2
0,3
0,4
0,5
0,6
0,7
0,8
0,9
1
0 0,2 0,4 0,6 0,8 1
Observado
Cal
cula
do
Figura 7.10: Gráficas de comparación entre valor observado y calculado de la serie de residuos perteneciente a Test. Se incluye recta de regresión y su ecuación.
![Page 136: Método y Aplicaciones de Redes Neuronales Artificiales en](https://reader031.vdocuments.net/reader031/viewer/2022012509/6186d2423a5866696743732b/html5/thumbnails/136.jpg)
KM 47,3 ANN 8-0-1
0
0,1
0,2
0,3
0,4
0,5
0,6
0,7
0 500 1000 1500 2000 2500 3000 3500 4000
Nº DE DATOS
KM 47,3 ANN 8-1-1
0
0,1
0,2
0,3
0,4
0,5
0,6
0 500 1000 1500 2000 2500 3000 3500 4000
Nº DE DATOS
KM 47,3 ANN 8-2-1
0
0,1
0,2
0,3
0,4
0,5
0,6
0 500 1000 1500 2000 2500 3000 3500 4000
Nº DE DATOS
KM 47,3 ANN 8-3-1
0
0,1
0,2
0,3
0,4
0,5
0,6
0 500 1000 1500 2000 2500 3000 3500 4000
Nº DE DATOS
Figura 7.11: Gráficas de comparación entre valor observado (azul) y pronosticado (rosado)para las 4 redes de mejor resultado.