Redes Neuronales
Redes Neuronales
Redes Neuronales
Una red neuronal artificial es una herramienta diseñada para imitar la forma
en que el cerebro humano funciona. Se parece al cerebro en dos aspectos,
por una parte la red adquiere conocimientos a través de un proceso de
aprendizaje, y por otra las conexiones interneuronales, conocidas como
cargas sinápticas presentan una gran solidez que se encargan de almacenar
los conocimientos.
•Robusta: Por su carácter distributivo, una red maneja muy bien daños a
su estructura (ruido).
b.- On line,- Se característica porque entrena con cada nuevo dato, sin
necesidad de detenerse. Los datos se modifican dinámicamente con
cada nueva información. Pero a cambio su carácter estático durante los
períodos de predicción hace más estable al sistema.
3.2 Redes con Aprendizaje Supervisado versus No Supervisado
1.-FUNCIÓN UMBRAL
𝟏 𝑠𝑖 𝑦 ≥ 0
Se define como: 𝝋 𝒚 = 𝒃 + 𝒙𝟏 𝒘𝟏 + ⋯ +𝒙𝒑 𝒘𝒑 = 𝝋 𝒚 =
𝟎 𝑠𝑖 𝑦 < 0
Los valores se pueden asociar a éxito y fracaso esta condición dependerá si.
Éxito Fracaso
1.1-GRÁFICA DE LA FUNCIÓN UMBRAL:
1 0
Para dos variables donde: X= 𝑥1 W= 1
𝑥2 1
𝝋 𝒃 + 𝒙𝟏 𝒘𝟏 + ⋯ +𝒙𝒑 𝒘𝒑 = 𝝋 𝑿´𝑾 = 𝝋 𝒙 + 𝒚
𝑿´𝑾 ≥ 𝟎
1 𝝋 𝑿´𝑾 =1=
𝝋 𝑿´𝑾 =0=
-1 1
-1
𝑿´𝑾 ≤ 𝟎
1.2- EJEMPLO:
1 −1
0 0.8
Sea; X= 1 W= 1
−1 1
0 0.5
Estimulo Pesos sinápticos
Sesgo b =-1
𝝋(-1)=0
2.-FUNCIÓN SIGNO
Se define como:
−𝟏 𝑠𝑖 𝑦 < 0
𝝋 𝒚 = 𝒃 + 𝒙𝟏 𝒘𝟏 + ⋯ +𝒙𝒑 𝒘𝒑 = 𝝋 𝒚 = 𝟎 𝑠𝑖 𝑦 = 0
𝟏 𝑠𝑖 𝑦 > 0
-1
2.1- GRÁFICA DE LA FUNCIÓN SIGNO:
1 0
Para dos variables donde: X= 𝑥1 W= 1
𝑥2 1
𝝋 𝒃 + 𝒙𝟏 𝒘𝟏 + ⋯ +𝒙𝒑 𝒘𝒑 = 𝝋 𝑿´𝑾 = 𝝋 𝒙 + 𝒚
𝑿´𝑾 > 𝟎
1 𝝋 𝑿´𝑾 =1=
𝝋 𝑿´𝑾 =-1=
𝝋 𝑿´𝑾 =0 =
-1 1
𝑿´𝑾 = 𝟎
-1
𝑿´𝑾 ≤ 𝟎
2.2- EJEMPLO:
1 −1
0 0.8
Sea; X= 1 W= 1
−1 1
0 0.5
Estimulo Pesos sinápticos
Sesgo b =-1
𝝋(-1)=-1
3.-FUNCIÓN LOGÍSTICA (más utilizada)
Se define como:
𝟏
𝝋 𝒚 = 𝒃 + 𝒙𝟏 𝒘𝟏 + ⋯ +𝒙𝒑 𝒘𝒑 =𝝋 𝒚 = ; 𝒚 ∈ 𝑹, ∝> 𝟎
𝟏 + 𝒆−∝𝒚
Sesgo b =-1
𝟏
𝝋 −𝟏 = = 0.2689
𝟏+𝒆𝟏
4.-FUNCIÓN TANGENTE HIPERBÓLICA
Se define como:
𝟏 − 𝒆−∝𝒚
𝝋 𝒚 = 𝑻𝒂𝒏 𝒚/𝟐 = ; 𝒚 ∈ 𝑹, ∝> 𝟎
𝟏 + 𝒆−∝𝒚
Sesgo b =-1
𝟏−𝒆𝟐
𝝋 −𝟏 = = 0.76159
𝟏+𝒆𝟐
5.-FUNCIÓN LINEAL (IDENTIDAD)
5.1- EJEMPLO:
𝝋 −𝟏 = 𝟏
5.2.-FUNCIÓN REGRESIÓN LINEAL SIMPLE
Se define como:
𝝋 𝒃 + 𝒂𝒙 = 𝒃 + 𝒂𝒙 ; 𝒚 ∈ 𝑹, ∝> 𝟎
1 𝑏
X= W=
𝑥 𝑎
x1= x w1= a
𝒃 + 𝒂𝒙 𝝋 𝒃 + 𝒂𝒙 = 𝒃 + 𝒂𝒙
w0 = b
x0=1
6.-FUNCIÓN LINEAL ACOTADA 𝟎 𝑠𝑖 𝑦 ≤ 0
Se define como: 𝝋 𝒚 = 𝒙 𝑠𝑖 0 ≤ 𝑦 ≤ 1
𝟏 𝑠𝑖 𝑦 ≥ 𝟏
𝝋
6.1- EJEMPLO:
𝝋 −𝟏 = 𝟎
7.-FUNCIÓN LINEAL ACOTADA SIMÉTRICA −𝟏 𝑠𝑖 𝑦 ≤ −1
Se define como: 𝝋 𝒚 = 𝒙 𝑠𝑖 − 1 ≤ 𝑦 ≤ 1
𝟏 𝑠𝑖 𝑦 ≥ 𝟏
𝝋
-1 1
-1
7.1- EJEMPLO:
𝝋 −𝟏 = −𝟏
IV.- PESOS SINÁPTICOS
Los pesos sinápticos guardan el conocimiento adquirido, los valores se
obtienen mediante un proceso de aprendizaje que se divide en.
x2 w1 Neurona k
.
. 𝒑
𝒑
wi 𝒙𝒊 𝒘𝒊
xi 𝒀𝒌 = 𝝋𝒌 𝒙𝒌𝒊 𝒘𝒊
. 𝒊=𝟎
wp 𝒊=𝟎
.
xp w0=b
𝒘𝒊 𝒕 + 𝟏 = 𝒘𝒊 𝒕 + 𝒏(𝒕) 𝒙 𝒕 − 𝒘𝒊 (𝒕)
X(t)
2.4 Memory Based learning:
Las RBF utilizan este tipo de postulado en su entrenamiento, al igual que las
redes SOM
Distancias x ||x-y||
•Euclidea : ||x-y||
•Producto interno : xt*y
y
xt y