PerceptronJednym z podstawowych modeli sieci jednokierunkowych jest perceptron przedstawiony na rysunku poniżej. Perceptron zbudowany jest z neuronów wejściowych i neuronów wyjściowych. Elementy zarówno wejścia jak wyjścia perceptronu przyjmują wartości binarne, tzn. należą do zbioru .
Zadaniem perceptronu jest odwzorowanie zadanego zbioru wektorów wejściowych na zadany zbiór wektorów wyjściowych. W związku z tym zbiór danych uczących składa się z par , w których jest elementowym wektorem wejściowym, a skojarzonym z nim elementowym wektorem wyjściowym.
Każdy z neuronów warstwy wyjściowej oblicza swoją wartość według poniższej zasady:
(1)
Proces nauki perceptronu polega na stopniowej modyfikacji wag łączących neurony wejściowe z wyjściowymi w taki sposób, żeby po jego zakończeniu podanie na wejściu któregokolwiek z wektorów powodowało wygenerowanie na wyjściu wektora .
Uważni czytelnicy zauważyli zapewne, że jeden z neuronów warstwy wejściowej (skrajny lewy) przedstawiony jest nieco inaczej niż pozostałe neurony tej warstwy. Neuron ten jest dodany sztucznie i ma zawsze wartość równą 1.
CZY DOMYŚLACIE SIĘ DLACZEGO? Otóż ten dodany neuron jest niezbędny w sytuacji, w której wektor wejściowy byłby złożony z samych zer, a odpowiadający mu wektor wyjściowy miałby jakieś elementy niezerowe. Bez dodatkowego impulsu wygenerowanie wartości dodatniej na wyjściu przy zerowym wejściu nie byłoby możliwe!
Nauka perceptronu przebiega następująco. W pierwszym kroku wszystkie elementy macierzy wag są równe zero. Następnie, kolejno pokazywane są pary uczące (według wylosowanej wcześniej kolejności) i po każdej prezentacji wagi perceptronu modyfikowane są według następującego schematu:
oraz
(2)
(3)
Wszystkie wzorce pokazywane są wielokrotnie, aż do momentu gdy wagi ustabilizują się.
[ Początek strony ] [ MiNIWyklady ]
Wszystkie prawa zastrzeżone © 2000 Wydział Matematyki i Nauk Informacyjnych Politechniki Warszawskiej