Perceptron: Razlika med redakcijama

Iz Wikipedije, proste enciklopedije
Izbrisana vsebina Dodana vsebina
Brez povzetka urejanja
Vrstica 6: Vrstica 6:




== večslojni perceptron ==
== Večslojni perceptron (MLP)==


Če damo na izhod enoslojnega perceptrona še en sloj nevronov dobimo dvoslojni perceptron. To lahko večkrat ponavljamo in dobimo večslojni perceptron. Tako dobljeni perceptron lahko rešuje težje naloge od enoslojne ga. Tudi XOR problem. Učenje je drugačno kot pri enoslojnem perceptronu. Najbolj znano učenje je backpropagation.
Če damo na izhod enoslojnega perceptrona še en sloj nevronov dobimo dvoslojni perceptron. To lahko večkrat ponavljamo in dobimo večslojni perceptron. Tako dobljeni perceptron lahko rešuje težje naloge od enoslojne ga. Tudi XOR problem. Učenje je drugačno kot pri enoslojnem perceptronu. Najbolj znano učenje je backpropagation.



== www povezave ==
== www povezave ==

Redakcija: 12:09, 4. julij 2005

Perceptron je najbolj razširjena nevronska mreža. Vse povezave med nevroni so usmerjene naprej. Vhodne in izhodne vrednosti so lahko poljubne zvezne spremenljivke. Učenje poteka postopoma in traja dokler ni napaka dovolj mala.

enoslojni perceptron

Vsi nevroni so razvrščeni v en sloj (eno vrsto). Rešuje razmeroma preproste naloge. Učenje poteka po Hebbovem pravilu. Marvin Minsky in Seymour Papert sta leta 1969 dokazala, da enoslojni Perceptron ne more rešiti XOR problema.


Večslojni perceptron (MLP)

Če damo na izhod enoslojnega perceptrona še en sloj nevronov dobimo dvoslojni perceptron. To lahko večkrat ponavljamo in dobimo večslojni perceptron. Tako dobljeni perceptron lahko rešuje težje naloge od enoslojne ga. Tudi XOR problem. Učenje je drugačno kot pri enoslojnem perceptronu. Najbolj znano učenje je backpropagation.

www povezave

Java-applet perceptrona