Perceptron: Razlika med redakcijama

Iz Wikipedije, proste enciklopedije
Izbrisana vsebina Dodana vsebina
Brez povzetka urejanja
Brez povzetka urejanja
Vrstica 9: Vrstica 9:
Če damo na izhod enoslojnega perceptrona še en sloj nevronov dobimo dvoslojni perceptron. To lahko večkrat ponavljamo in dobimo večslojni perceptron. Tako dobljeni perceptron lahko rešuje težje naloge od enoslojnega. Med drugim tudi XOR problem. Učenje je drugačno kot pri enoslojnem perceptronu. Najbolj znano učenje je [[backpropagation]].
Če damo na izhod enoslojnega perceptrona še en sloj nevronov dobimo dvoslojni perceptron. To lahko večkrat ponavljamo in dobimo večslojni perceptron. Tako dobljeni perceptron lahko rešuje težje naloge od enoslojnega. Med drugim tudi XOR problem. Učenje je drugačno kot pri enoslojnem perceptronu. Najbolj znano učenje je [[backpropagation]].


== www povezave ==
== Zunanje www povezave ==

* [http://diwww.epfl.ch/mantra/tutorial/english/perceptron/html/ Java-applet perceptrona]
* [http://www.csulb.edu/~cwallis/artificialn/History.htm Zgodovina perceptrona]
* [http://www.cis.hut.fi/ahonkela/dippa/node41.html Matematično ozadje perceptrona]
* [http://library.thinkquest.org/18242/perceptron.shtml Perceptron demo applet in predstavitev s primeri]


== Glej tudi==

*[[Umetna inteligenca]]
*[[nevroska mreža
*[[Rudarjenje podatkov]]
*[[Strojno učenje]]
*[[Prepoznavanje vzorcev]]


[http://diwww.epfl.ch/mantra/tutorial/english/perceptron/html/ Java-applet perceptrona]





Redakcija: 10:02, 5. julij 2005

Perceptron je najbolj razširjena nevronska mreža. Prvi ga je predstavil Frank Rosenblatt leta 1958. Vse povezave med nevroni so pri perceptronu usmerjene naprej. Vhodne in izhodne vrednosti so lahko poljubne zvezne spremenljivke. Učenje poteka postopoma in traja dokler ni napaka dovolj mala.

Enoslojni perceptron

Vsi nevroni so razvrščeni v en sloj (eno vrsto). Rešuje razmeroma preproste naloge. Učenje poteka po Hebbovem pravilu. Marvin Minsky in Seymour Papert sta leta 1969 dokazala, da enoslojni Perceptron ne more rešiti XOR problema.

Večslojni perceptron (MLP)

Če damo na izhod enoslojnega perceptrona še en sloj nevronov dobimo dvoslojni perceptron. To lahko večkrat ponavljamo in dobimo večslojni perceptron. Tako dobljeni perceptron lahko rešuje težje naloge od enoslojnega. Med drugim tudi XOR problem. Učenje je drugačno kot pri enoslojnem perceptronu. Najbolj znano učenje je backpropagation.

Zunanje www povezave


Glej tudi