Aller au contenu

« Perceptron » : différence entre les versions

Un article de Wikipédia, l'encyclopédie libre.
Contenu supprimé Contenu ajouté
Xiawi (discuter | contributions)
Règle de Hebb : référence + lien vers article détaillé
Xiawi (discuter | contributions)
Définition : reformulation de la définition
Ligne 6 : Ligne 6 :
[[Fichier:Perceptron.svg|alt=Schéma d'un perceptron à n entrées.|thumb|334x334px|Les entrées ''i''<sub>1</sub> à ''i''<sub>n</sub> sont multipliées avec les poids W<sub>1</sub> à W<sub>n</sub>, puis sommées, avant qu'une fonction d'activation soit appliquée.]]
[[Fichier:Perceptron.svg|alt=Schéma d'un perceptron à n entrées.|thumb|334x334px|Les entrées ''i''<sub>1</sub> à ''i''<sub>n</sub> sont multipliées avec les poids W<sub>1</sub> à W<sub>n</sub>, puis sommées, avant qu'une fonction d'activation soit appliquée.]]


Le perceptron peut être vu comme le type de [[réseau de neurones]] le plus simple. C'est un [[classifieur linéaire]]. Ce type de réseau neuronal ne contient aucun cycle (en anglais [[:en:Feedforward neural network|feedforward neural network]]). Dans sa version simplifiée, le perceptron est mono-couche et n'a qu'une seule sortie à laquelle toutes les entrées sont connectées. Les entrées et la sortie sont booléennes.
Le perceptron peut être vu comme le type de [[réseau de neurones]] le plus simple. C'est un [[classifieur linéaire]]. Ce type de réseau neuronal ne contient aucun cycle (en anglais [[:en:Feedforward neural network|feedforward neural network]]). Dans sa version simplifiée, le perceptron est mono-couche et n'a qu'une seule sortie à laquelle toutes les entrées sont connectées et les entrées et la sortie sont booléennes. Plus généralement, les entrées peuvent être des nombres réels.


Le potentiel post-synaptique biaisé est représenté par <math>Z = tanh(\sum W_i X_i - \theta)</math>. Ici, θ définit le seuil (ou biais) à dépasser pour que la sortie Y soit à 1, et <math>W_i</math> est le poids de l'entrée <math>X_i</math>.
Un perceptron à ''n'' entrées <math>(x_1,\dots,x_n)</math> et à une seule sortie ''o'' est défini par la donnée de ''n'' poids (ou coefficients synaptiques) <math>(w_1,\dots,w_n)</math>et un biais (ou seuil) <math>\theta</math> par:
::<math> o= f(z) = \left\{\begin{matrix} 1 & \mathrm{si} & \sum_{i=1}^n w_i x_i > \theta \\ 0 & \mathrm{sinon} & \end{matrix}\right. </math>
La sortie ''o'' résulte alors de l'application de la [[fonction de Heaviside]] au potentiel post-synaptique <math>z=\sum_{i=1}^n w_i x_i</math>, avec:


::<math> f(z)=\left\{\begin{matrix} 0 & \mathrm{si} & z \le 0 \\ 1 & \mathrm{si} & z > 0\end{matrix}\right. </math>
La fonction d'activation est la [[fonction de Heaviside]] (la [[fonction signe]] est parfois utilisée)


Cette fonction non linéaire est appelée fonction d'activation. Une alternative couramment employée est <math>f=tanh()</math>.
::<math>Y = H(Z)=\left\{\begin{matrix} 0 & \mathrm{si} & Z < 0 \\ 1 & \mathrm{si} & Z \ge 0\end{matrix}\right. </math>


== Règle de Hebb ==
== Règle de Hebb ==

Version du 21 septembre 2017 à 18:45

Le perceptron est un algorithme d'apprentissage supervisé de classifieurs binaires (c'est-à-dire séparant deux classes). Il a été inventé en 1957 par Frank Rosenblatt au laboratoire d'aéronautique de l'université Cornell. C'est un modèle inspiré des théories cognitives de Friedrich Hayek et de Donald Hebb. Il s'agit d'un neurone formel muni d'une règle d'apprentissage qui permet de déterminer automatiquement les poids synaptiques de manière à séparer un problème d'apprentissage supervisé. Si le problème est linéairement séparable, un théorème assure que la règle du perceptron permet de trouver une séparatrice entre les deux classes.

Définition

Schéma d'un perceptron à n entrées.
Les entrées i1 à in sont multipliées avec les poids W1 à Wn, puis sommées, avant qu'une fonction d'activation soit appliquée.

Le perceptron peut être vu comme le type de réseau de neurones le plus simple. C'est un classifieur linéaire. Ce type de réseau neuronal ne contient aucun cycle (en anglais feedforward neural network). Dans sa version simplifiée, le perceptron est mono-couche et n'a qu'une seule sortie à laquelle toutes les entrées sont connectées et les entrées et la sortie sont booléennes. Plus généralement, les entrées peuvent être des nombres réels.

Un perceptron à n entrées et à une seule sortie o est défini par la donnée de n poids (ou coefficients synaptiques) et un biais (ou seuil) par:

La sortie o résulte alors de l'application de la fonction de Heaviside au potentiel post-synaptique , avec:

Cette fonction non linéaire est appelée fonction d'activation. Une alternative couramment employée est .

Règle de Hebb

La règle de Hebb, établie par Donald Hebb[1], est une règle d'apprentissage des réseaux de neurones artificiels dans le contexte de l'étude d'assemblées de neurones.

Cette règle suggère que lorsque deux neurones sont excités conjointement, il se crée ou renforce un lien les unissant.

Dans le cas d'un neurone artificiel seul utilisant la fonction signe comme fonction d'activation cela signifie que :

représente le poids corrigé et représente le pas d'apprentissage.

Cette règle n'est malheureusement pas applicable dans certains cas bien que la solution existe.

Règle d'apprentissage du perceptron

Le perceptron de Frank Rosenblatt est très proche de la règle de Hebb, la grande différence étant qu'il tient compte de l'erreur observée en sortie.

Cette fonction est recommandée lorsque la tangente hyperbolique (tanh) est utilisée comme fonction d'activation.

= le poids corrigé

= sortie attendue

= sortie actuelle

= le taux d'apprentissage

= l'entrée du poids pour la sortie attendue

= le poids actuel

= le taux d'apprentissage (nombre décimal de 0 à 1)

Notes et références

  1. Donald Olding HEBB, The Organization of Behavior, New York, Wiley & Sons, 1949

Voir aussi

Bibliographie

  • F. Rosenblatt (1958), The perceptron: a probabilistic model for information storage and organization in the brain,
- repris dans J.A. Anderson & E. Rosenfeld (1988), Neurocomputing. Foundations of Research, MIT Press

Liens externes