Perceptron: Razlika med redakcijama

Iz Wikipedije, proste enciklopedije
Izbrisana vsebina Dodana vsebina
Brez povzetka urejanja
m m/dp/wiki
Vrstica 1: Vrstica 1:
'''Perceptron''' je najbolj razširjena [[nevronska mreža]]. Prvi ga je predstavil [[Frank Rosenblatt]] leta [[1958]]. Vse povezave med [[nevron|nevroni]] so pri perceptronu usmerjene naprej. Vhodne in izhodne vrednosti so lahko poljubne zvezne spremenljivke. Učenje poteka postopoma in traja, dokler ni [[napaka]] dovolj majhna.
'''Perceptron''' je najbolj razširjena [[nevronska mreža]]. Prvi ga je predstavil [[Frank Rosenblatt]] leta [[1958 v znanosti|1958]]. Vse povezave med [[nevron]]i so pri perceptronu usmerjene naprej. Vhodne in izhodne vrednosti so lahko poljubne zvezne spremenljivke. Učenje poteka postopoma in traja, dokler ni [[napaka]] dovolj majhna.


== Enoslojni perceptron ==
== Enoslojni perceptron ==


Vsi nevroni so razvrščeni v en sloj (eno vrsto). Rešuje razmeroma preproste naloge. Učenje poteka po [[Hebbovem pravilu]]. [[Marvin Minsky]] in [[Seymour Papert]] sta leta 1969 dokazala, da enoslojni Perceptron ne more rešiti XOR problema.
Vsi nevroni so razvrščeni v en sloj (eno vrsto). Rešuje razmeroma preproste naloge. Učenje poteka po [[Hebbovo pravilo|Hebbovem pravilu]]. [[Marvin Minsky]] in [[Seymour Papert]] sta leta 1969 dokazala, da enoslojni perceptron ne more rešiti problema XOR.


== Večslojni perceptron (MLP)==
== Večslojni perceptron (MLP)==


Če damo na izhod enoslojnega perceptrona še en sloj nevronov, dobimo dvoslojni perceptron. To lahko večkrat ponavljamo in dobimo večslojni perceptron. Tako dobljeni perceptron lahko rešuje težje naloge od enoslojnega, med drugim tudi XOR problem. Učenje je drugačno kot pri enoslojnem perceptronu. Najbolj znano učenje je [[backpropagation]].
Če se da na izhod enoslojnega perceptrona še en sloj nevronov, se dobi dvoslojni perceptron. To se lahko večkrat ponavlja in dobi večslojni perceptron. Tako dobljeni perceptron lahko rešuje težje naloge od enoslojnega, med drugim tudi problem XOR. Učenje je drugačno kot pri enoslojnem perceptronu. Najbolj znano učenje je [[backpropagation]].

== Glej tudi==

* [[umetna inteligenca]]
* [[SOM]]
* [[podatkovno rudarjenje]]
* [[strojno učenje]]
* [[prepoznavanje vzorcev]]


== Zunanje povezave ==
== Zunanje povezave ==
Vrstica 16: Vrstica 24:
* [http://library.thinkquest.org/18242/perceptron.shtml Perceptron demo applet in predstavitev s primeri]
* [http://library.thinkquest.org/18242/perceptron.shtml Perceptron demo applet in predstavitev s primeri]


{{računalniška škrbina}}
== Glej tudi==
*[[Umetna inteligenca]]
*[[SOM]]
*[[Podatkovno rudarjenje]]
*[[Strojno učenje]]
*[[Prepoznavanje vzorcev]]


{{normativna kontrola}}
{{comp-stub}}


[[Kategorija:Računalništvo]]
[[Kategorija:Računalništvo]]
[[Kategorija:Umetna inteligenca]]
[[Kategorija:Umetna inteligenca]]
{{normativna kontrola}}

Redakcija: 14:05, 23. avgust 2020

Perceptron je najbolj razširjena nevronska mreža. Prvi ga je predstavil Frank Rosenblatt leta 1958. Vse povezave med nevroni so pri perceptronu usmerjene naprej. Vhodne in izhodne vrednosti so lahko poljubne zvezne spremenljivke. Učenje poteka postopoma in traja, dokler ni napaka dovolj majhna.

Enoslojni perceptron

Vsi nevroni so razvrščeni v en sloj (eno vrsto). Rešuje razmeroma preproste naloge. Učenje poteka po Hebbovem pravilu. Marvin Minsky in Seymour Papert sta leta 1969 dokazala, da enoslojni perceptron ne more rešiti problema XOR.

Večslojni perceptron (MLP)

Če se da na izhod enoslojnega perceptrona še en sloj nevronov, se dobi dvoslojni perceptron. To se lahko večkrat ponavlja in dobi večslojni perceptron. Tako dobljeni perceptron lahko rešuje težje naloge od enoslojnega, med drugim tudi problem XOR. Učenje je drugačno kot pri enoslojnem perceptronu. Najbolj znano učenje je backpropagation.

Glej tudi

Zunanje povezave