Perceptron

Perceptron alalla Neuroverkkojen on kaksi merkitystä. Se voi viitata eräänlainen keinotekoinen neuroverkko kehittänyt Frank Rosenblatt.Y samassa teorian Frank Rosenblatt. Se voidaan myös ymmärtää keinotekoinen neuroni ja perus päättelyn yksikkö lineaarisena diskriminaattorin, joka on, algoritmi pystyy tuottamaan valintaperuste osajoukko suurempi ryhmä komponentteja. Rajoitus Tämän algoritmin on, että jos vedämme tontille nämä tekijät pitää erottaa hypertaso ja "haitalliset" elementtejä "toivottuja". Perceptron voidaan käyttää yhdessä muiden perceptrons tai muita keinotekoisia neuroni, muodostaa monimutkaisempia neuroverkot.

Määritelmä

Yksinkertaisin biologinen malli perceptron on hermosolu ja päinvastoin. Että on, yksinkertaisin matemaattinen malli neuroni on perceptron. Hermosolu on erikoistunut ja tunnusomaista, rajoittamaton määrä tulokanavien kutsutaan dendrites ja Lähtökanava kutsutaan Axon solu. Dendrites toimivat anturit keräävät tietoja alueella, jossa he ovat ja ajautuvat elin neuroni synapsin reagoi lähettämällä vastaus aivoihin, tämä kun on kyse eläviä olentoja.

Vaikka yksittäiset neuroni puuttuu perustelut. Heidän erikoistunut työstä tulee arvokasta siltä osin kuin se liittyy muiden neuronien, jotka muodostavat verkoston. Normaalisti Axon on hermopäätteiden toimittaa sen tiedot "tulosignaali" ja dendriittiä toisen neuroni ja niin edelleen. Perceptron että kaappaa signaali jäljempänä tarkoittaa muodostavat verkoston neuronien, onko biologinen tai puolijohdesubstraatille.

Perceptron käyttää matriisi edustaa neuroverkot ja on kolmannen asteen diskriminaattorin jossa esitellään sen panos yksi lähtö arvoa jono.

Jos on vektori Todelliset painot ja on piste tuote. on "kynnys", joka edustaa eston tasosta neuroni, on vakio termiä ei ole arvoa ottaa sisäänkäynnin.

Arvoa käytetään luokitella positiivinen tapaus tai negatiivinen asia, kun kyseessä on kaksijakoinen luokittelu ongelma. Kynnys voidaan ajatella korvaamaan aktivaatiofunktio, tai antaa alhainen toiminnan suorituskyvyn neuroni. Painotettu summa tuotantopanosten on tuottaa arvo on suurempi kuin hermosolun muuttamaan tilaa 0-1.

Oppiminen

In Perceptron, on olemassa kahdenlaisia ​​oppimisen, ensimmäisen käyttäen oppimista nopeudella, kun taas toinen ei käytä sitä. Tämä oppiminen nopeus vaimentaa muutos painon arvoja.

Oppiminen algoritmi on sama kaikille neuronien, kaikki, mitä seuraa koskee yhden neuroni erikseen. Jotkut muuttujat määritellään ensin:

  • tarkoittaa elementti asema tulovektori
  • elementti paikkavektori paino
  • tarkoittaa neuronin ulostulon
  • Hän huomauttaa odotettu tuotos
  • on vakio siten, että

Kahdenlaisia ​​oppimisen eroavat tässä vaiheessa. Ensimmäistä tyypin oppimisen avulla oppimista korko, käytämme seuraavaa päivitystä sääntö painoja:

Toisen tyypin oppiminen, ilman oppimista korko, päivitys sääntö painoja on seuraava:

Siksi oppiminen mallinnetaan painotusvektori päivitys jokaisen iteraation, joka tapahtuu vain, jos tuotanto poikkeaa halutun tehon. Harkitsemaan neuroni vuorovaikutuksessa useita toistojen täytyy määrittää joitakin muuttujia lisää:

  •  tulolle vektori iterointia i
  •  merkitsee painovektorin iterointia i
  •  tarkoittaa lähtö iteraatio i
  •  tarkoittaa aikaa oppimisen toistojen

Kussakin iterointia painotusvektoria päivitetään seuraavasti:

  • Kullekin määräsi parin
  • Siirry päivityssääntö

Oppiminen ajanjakso sanotaan olevan lineaarisesti erotettavissa, jos on positiivinen arvo ja painotusvektoria sellainen, että kaikille.

Novikoff osoitti, että oppimisen algoritmi konvergoi jälkeen rajallinen määrä toistojen, jos data on lineaarisesti erotettavissa ja virheiden määrä on rajoitettu:.

Kuitenkin jos tietoa ei lineaarisesti erotettavissa, viivalle algoritmi ei taata lähentyä.

Esimerkki

Mieti ja OR toimintoja, nämä toiminnot ovat lineaarisesti erotettavissa, joten ne voidaan oppia perceptron.

XOR toimintoa ei voi oppia yhden perceptron koska se vaatii vähintään kaksi riviä eri luokkaan. Sitä pitäisi käyttää ainakin yksi lisäkerros perceptrons mahdollistamiseksi oppimista.

Perceptron oppii suorittamaan NAND binääritulojen ja toiminta. :, ,, Milloin merkintöjä pidetään vakiona 1.

Kynnys: 0.5

Bias: 0

Kahvi oppiminen: 0,1

Koulutus asettaa koostuu neljästä näytteet:

Jäljempänä lopullinen painoja tulla iteroinnin aluksi perusteella seuraavasti. Kukin sykli on kaikki näytteet harjoitussetti on merkitty paksu linjat.

Tämä esimerkki voidaan toteuttaa seuraava koodi in Python.

  0   0
Edellinen artikkeli Aramburu Palace
Seuraava artikkeli Rasvaa, kalju ja lyhyt

Kommentit - 0

Ei kommentteja

Lisääkommentti

smile smile smile smile smile smile smile smile
smile smile smile smile smile smile smile smile
smile smile smile smile smile smile smile smile
smile smile smile smile
Merkkiä jäljellä: 3000
captcha