Perceptron: Razlika med redakcijama

Iz Wikipedije, proste enciklopedije
Izbrisana vsebina Dodana vsebina
ArthurBot (pogovor | prispevki)
m Bot: ru:Перцептрон is a featured article
TXiKiBoT (pogovor | prispevki)
m robot Dodajanje: uk:Перцептрон
Vrstica 27: Vrstica 27:
[[Kategorija:Računalništvo]]
[[Kategorija:Računalništvo]]
[[Kategorija:Umetna inteligenca]]
[[Kategorija:Umetna inteligenca]]

{{Link FA|ru}}


[[ar:بيرسيبترون]]
[[ar:بيرسيبترون]]
Vrstica 39: Vrstica 41:
[[nl:Perceptron]]
[[nl:Perceptron]]
[[pl:Perceptron]]
[[pl:Perceptron]]
[[ru:Перцептрон]] {{Link FA|ru}}
[[ru:Перцептрон]]
[[sk:Perceptrón]]
[[sk:Perceptrón]]
[[sv:Perceptron]]
[[sv:Perceptron]]
[[th:เพอร์เซปตรอน]]
[[th:เพอร์เซปตรอน]]
[[uk:Перцептрон]]
[[zh:感知器]]
[[zh:感知器]]

Redakcija: 20:37, 30. december 2009

Perceptron je najbolj razširjena nevronska mreža. Prvi ga je predstavil Frank Rosenblatt leta 1958. Vse povezave med nevroni so pri perceptronu usmerjene naprej. Vhodne in izhodne vrednosti so lahko poljubne zvezne spremenljivke. Učenje poteka postopoma in traja dokler ni napaka dovolj mala.

Enoslojni perceptron

Vsi nevroni so razvrščeni v en sloj (eno vrsto). Rešuje razmeroma preproste naloge. Učenje poteka po Hebbovem pravilu. Marvin Minsky in Seymour Papert sta leta 1969 dokazala, da enoslojni Perceptron ne more rešiti XOR problema.

Večslojni perceptron (MLP)

Če damo na izhod enoslojnega perceptrona še en sloj nevronov dobimo dvoslojni perceptron. To lahko večkrat ponavljamo in dobimo večslojni perceptron. Tako dobljeni perceptron lahko rešuje težje naloge od enoslojnega. Med drugim tudi XOR problem. Učenje je drugačno kot pri enoslojnem perceptronu. Najbolj znano učenje je backpropagation.

Zunanje povezave

Glej tudi

Predloga:Link FA