Neuroverkko

Perinteisesti termi neuroverkon käytetään viittaus verkkoon tai piiri biologisen neuronien kuitenkin väittää myös käyttö sovelletun matematiikan viitaten Neuroverkkoja, matemaattiset mallit koostuvat "neuronien" keinotekoinen. Ilmaisu voi siis hankkia kaksi erillistä merkitystä:

  • Biologiset Neuroverkkojen: koostuvat biologisen neuronien, elävien solujen tyypillinen liittyvän eläimen tai kytketty ääreishermoston tai keskushermoston. Neurotieteen, ne ovat usein todettu ryhmien neuronien että kuljettaa tietty fysiologinen laboratoriokokeissa.
  • Neuroverkkoja: ovat matemaattisia malleja, jotka edustavat yhteenliittäminen määritellyt elementit keinotekoinen neuronien eli matemaattisia rakenteita, jotka jossain määrin matkivat ominaisuuksia elävän neuronien. Nämä matemaattiset mallit voidaan käyttää sekä saada käsitys biologisen Neuroverkkojen, mutta vielä enemmän ratkaista tekniset ongelmat tekoälyn kuten ne, jotka ilmenevät eri tekniikan aloilla.

Keinotekoinen neuroverkko voidaan toteuttaa sekä ohjelmia että erityisen laitteiston. Tämä haara voidaan käyttää yhdessä ja sumean logiikan.

Seuraavassa katsotaan aikavälillä neuroverkko tarkin keinotekoinen neuroverkko.

Perustukset

Biologinen säätiöt

Monissa elävät organismit ovat monisoluisten monimutkaisia ​​organisaatioita hermosolujen, jossa tunnustetaan tehtävät kokoonpanoissa olettaa ulkoisen ympäristön, varastointi ja reaktio ärsykkeisiin tulevat samasta. Ihmisen aivot on todennäköisesti merkittävin tulos evoluution sen kyky käsitellä tietoa. Voidakseen suorittaa tällaisia ​​toimia, biologiset verkot käyttävät valtava määrä yksinkertaisia ​​laskennallisia elementtejä tiheästi toisiinsa siten muuttamaan kokoonpanoa vastauksena ulkoisiin ärsykkeisiin: tässä mielessä voi olla kyse oppimisen ja keinotekoisten mallien yrittää kaapata tätä tunnusmerkki biologia.

Yleensä neuroni koostuu 3 osasta:

  • pakkaus: solun elin
  • Axon: lähtölinjan neuronin ainutlaatuinen mutta joka haarautuu tuhansiin oksat
  • dendrite: tulojohdossa hermosolu, joka vastaanottaa tulosignaalit muista axons kautta synapsien

Solun elin suorittaa "painotettu summa" tulosignaalien. Jos tulos ylittää tietyn kynnysarvon niin hermosolu on aktiivinen ja tuotetaan "aktiopotentiaalin", joka kuljetetaan Axon. Jos tulos ei ylitä kynnysarvoa, neuroni pysyy lepotilassa.

Neuroverkko kuvaa väkiluku neuronien fyysisesti yhdistetty toisiinsa, tai ryhmä neuronien jossa eri tuotannontekijöiden tai signaloinnin määritellä piiri tunnistettavissa. Välinen viestintä neuronien usein sähkökemiallisessa prosessissa. Liitäntä, jonka kautta ne ovat vuorovaikutuksessa ympäröivän neuronien koostuu, kuten edellä on esitetty, useat dendriitit, jotka on yhdistetty kautta synapsien muihin neuronien ja axon.

Sen sijaan, hermo piiri on toiminnallinen yksikkö toisiinsa neuronien, jotka vaikuttavat toisiinsa.

Perusteet matemaatikko / tietokone

Keinotekoinen neuroverkko, yleensä kutsutaan vain "neuroverkko", on matemaattinen / tietokoneen laskelma perustuu biologisiin neuroverkkoihin. Tällainen malli koostuu ryhmän yhteenliittäminen tietoa, jossa on keinotekoinen neuronien ja prosessien avulla konnektionististen lähestymistapaa laskennan. Useimmissa tapauksissa, keinotekoinen neuroverkko on mukautuva järjestelmä, joka muuttaa sen rakennetta, joka perustuu ulkoista tai sisäistä tietoa, joka virtaa verkon kautta aikana oppimisen vaiheessa.

Käytännössä neuroverkot ovat epälineaarisia rakenteita tilastotietojen järjestetään mallinnuksen työkaluja. Niitä voidaan käyttää simuloida monimutkaisia ​​suhteita panosten ja tuotosten että muut analyyttisten funktioiden ei anna oikeaa kuvaa.

Keinotekoinen neuroverkko vastaanottaa ulkoiset signaalit kerros tulo solmuja, joista kukin on yhdistetty useita sisäisiä solmuja, järjestetään useita tasoja. Jokainen solmu prosessoi vastaanotetut signaalit ja lähettää tuloksen myöhemmin solmuja.

Historia

Erilaisia ​​malleja ei voida erottaa perusaineosana, keinotekoinen neuroni ehdottamat WS McCulloch ja Walter Pitts vuonna teos 1943: "looginen calculus ideoita immanenttina hermoston toiminta", joka tiivistää kellotaulu lineaarinen kynnys, binaaridataa useita saapuvia ja yhden binaaridatatuotoksen: sopiva määrä Tällaisten elementtien, joka on kytketty niin, että se muodostaa verkon, se pystyy laskemaan yksinkertaisia ​​Boolen toimintoja.

Ensimmäinen hypoteesi oppimisen otettiin käyttöön DO Hebb vuonna 1949 kirja: "järjestäminen käyttäytyminen", sisältävät ehdotetut yhteydet monimutkaisia ​​kuvioita aivojen.

Vuonna 1958, J. Von Neumann kirjassaan "Tietokone ja aivot" tarkastelee ehdottamat ratkaisut edellinen kirjoittajat korostamalla puute yksityiskohtaisesti, että nämä rakenteet hallussaan pystyä monimutkaisten hankkeiden toteuttamiseen.

Samana vuonna, F. Rosenblatt kirjassa "Phychological arvosteluja" esittelee ensimmäisen järjestelmän neuroverkko, sanoi Perceptron, edeltäjä nykyisen neuroverkkojen tunnustamista ja luokittelu muotoja, jotta tulkinnan yleisen organisaation biologisten järjestelmien. Probabilistinen malli Rosenblatt sitten suunnattu analyysin matemaattisia muodossa, toimintoja, kuten tietojen tallentamisen, ja niiden vaikutus hahmontunnistuksen; se merkitsee ratkaisevaa askelta eteenpäin verrattuna binäärisarjan McCulloch ja Pitts, koska sen synaptic painot vaihtelevat ja siten Perceptron pystyy oppimaan.

Työ Rosenblatt stimuloi useita tutkimuksia ja tutkimusta, joka on kestänyt vuosikymmenen, ja on herättää paljon kiinnostusta ja suuria odotuksia tiedeyhteisön kuitenkin tarkoitettu selvästi heikentynyt 1969 kun Marvin Minsky ja Seymour A. Papert, työ "johdannossa laskennallinen geometria", osoittaa toiminta-rajat yksinkertaisen kaksikerroksisen verkostoja, jotka perustuvat Perceptron, ja osoittaa, että on mahdotonta ratkaista tällä tavoin monta luokkaa ongelmia, nimittäin ne, tunnettu siitä, että ei-lineaarinen separoituvuus ratkaisuja: tämäntyyppisten neuroverkko ei ole tarpeeksi voimakas: se ei edes osaa arvioida yksin tai. Koska näistä rajoituksista, aika euforia johtuu ensimmäiset tulokset kybernetiikan seuraa ajan epäluottamuksen aikana kaikki alan tutkimusta ei enää saa rahoitusta hallituksen Yhdysvallat; tutkimus kattavat yleensä, itse asiassa, polkea yli vuosikymmenen, ja alustava innostus vähenee huomattavasti.

Matemaattinen yhteydessä rautatieverkoista MLP perustettiin amerikkalaisen matemaatikon Paul Werbos hänen väitöskirjaansa vuonna 1974. Hän ei annettu paljon painoarvoa hänen työnsä oli niin vahva kumottu esitetty Minsky ja Papert vuotta sitten, ja vain sen JJ Hopfield, vuonna 1982 hänen paperin tutkimuksissa malleja hahmontunnistuksen hyvin yleinen, hän vastusti suoraan kumottu Minsky uudelleen Joten tilaa tämän alan tutkimusta.

Yksi tunnettu ja tehokas koulutus tällaisen luokan Neuroverkkojen on niin sanottu virhe backpropagation algoritmi, ehdotti vuonna 1986 David E. Rumelhart, G. Hinton ja RJ Williams, joka systemaattisesti muuttaa painot yhteydet solmujen välillä, niin että vaste-verkon aina lähestyy enemmän halutuksi. Tämä työ tuotettiin kuvion luoma Werbos. Backpropagation algoritmi on tekniikka oppimista esimerkiksi muodostamalla yleistys oppiminen Perceptron kehittämä Rosenblatt 60-luvun alussa. Tämän tekniikan avulla oli mahdollista, kuten mainittiin, vain käsitellä hakemuksia luonnehdittavissa kuin Boolen toimintoja lineaarisesti erotettavissa.

Oppiminen algoritmi perustuu kaltevuus laskeutuminen menetelmä, jonka avulla voidaan löytää paikallinen vähintään toiminnon tilaan N ulottuvuuksia. Painot liittyvät yhteyksiä kerrosten neuronien alustetaan pieniä satunnaisia ​​arvoja ja sitten soveltaa oikeusvaltion oppimisen esittämällä verkko malleja esimerkin. Nämä neuroverkot voivat sitten yleistää asianmukaisesti, että on, antaa uskottavia vastauksia panos että he eivät ole koskaan nähneet.

Koulutus Kunkin neuroverkon BP tapahtuu kahdessa eri vaiheessa: eteenpäinsyötön ja taaksepäin omille. Ensimmäisessä vaiheessa tulovektorit viedään tuloon solmut eteenpäin signaalien etenemistä läpi kunkin tason verkon. Tässä vaiheessa arvot synaptisen painot ovat kaikki asetettu. Toisessa vaiheessa, vastaus verkon verrataan halutun tehon saamiseksi virhesignaalin. Laskettu virhe etenee suuntaan, joka on vastakkainen synaptisten yhteyksien. Synaptic painot ovat lopulta muutettiin siten, että minimoidaan ero todellisen lähdön ja halutun tehon.

Tämä algoritmi mahdollistaa korjata puutteet perceptron ja ratkaista epälineaarinen erotettavuus, teki lopullisen elpyminen Neuroverkkojen, mistä on osoituksena laaja valikoima kaupallisia sovelluksia: tällä hetkellä BP-algoritmi on laajasti käytössä monissa sovellusalueita.

Teoria ja oppimisen paradigmat

Analyysi oppimisen järjestelmän neuroverkon

Käsite neuroverkon johtuu siitä, että toiminto on määritelty koostumus, ja muita toimintoja, jotka voidaan puolestaan ​​määritellään edelleen koostumusta muita toimintoja. Tämä voidaan sopivasti edustettuina verkon rakenne, nuolilla kuvaavat muuttujien välisiä riippuvuuksia. Esitys laajalti käytetty on painotettu summa ei-lineaarisia, jossa, jossa on ennalta määrätty funktio, kuten hyperbolinen tangentti. Se on kätevä seuraavan viitata joukko toimii samalla.

Kuva 1 esittää hajoaminen toiminto, jossa muuttujien välisiä riippuvuuksia on osoitettu nuolilla. Nämä voidaan tulkita kahdella tavalla:

  • Ensimmäinen näkökulma on toiminnallinen näkymä: tulo muuttuu vektori kolmiulotteisesti, joka muunnetaan sitten kaksiulotteinen matriisi, joka on lopulta muuttuu. Tämä näkemys on yleisimmin todettu optimoinnin yhteydessä.
  • Toinen näkökulma on näkymä todennäköisyyspohjainen: satunnaismuuttuja riippuu satunnaismuuttuja, joka riippuu, joka riippuu puolestaan ​​siitä satunnaismuuttuja. Tämä näkemys on yleisimmin todettu yhteydessä graafinen malleja.

Kahdesta näkökulmasta ovat pitkälti vastaavat. Molemmissa tapauksissa, ja tämä erityisesti verkon arkkitehtuuri, komponentit yksittäiset kerrokset ovat toisistaan ​​riippumattomia. Tämä tietenkin, mahdollistaa tietyn yhdenmukaisuuden tai järjestelmän rakentamisen.

Verkot, kuten edellä on yleisesti kutsutaan "rehu-eteenpäin", koska niiden on suunnattu asyklinen kuvaaja. Verkostojen syklit niissä kutsutaan yleisesti toistuvia verkoissa. Tällaisia ​​verkkoja käytetään yleisesti kuvattu, kuten on esitetty yläosa kuvion 2, jossa funktio on esitetty riippuvainen itse. On kuitenkin aika riippuvuus hiljaista, että et voi todistaa. Tämä tarkoittaa käytännössä, että arvo tiettynä ajankohtana riippuu arvoista nolla ajan tai yhden tai useamman muun ajankohtina. Kuvio kuvaajan alaosassa Kuvio 2 esittää tapausta, jossa arvo riippuu ainoastaan ​​sen lopullisen arvon.

Kuitenkin mielenkiintoisin piirre näistä toiminnoista, mitä on herättänyt kiinnostusta ja tutkimuksen suurin Neuroverkkojen, on mahdollisuus oppia, mikä käytännössä tarkoittaa seuraavaa:

annettu erityinen tehtävä on ratkaista, ja luokan toimintoja, oppimisen avulla käyttäen joukko havaintoja, jotta löydettäisiin joka ratkaisee ongelman optimaalisella tavalla.

Tähän liittyy määritelmä kustannusfunktion sellaista, että optimaalinen ratkaisu ei ole ratkaisu on kustannuksia pienemmät kuin kustannukset optimaalinen ratkaisu.

Kustannusfunktio on tärkeä käsite oppimiseen, koska tämä on mitata kuinka kaukana meistä on optimaalinen ratkaisu ongelman haluamme ratkaista. Joten on olemassa useita oppimisen algoritmeja, jotka yrittävät ratkaisu tilaa, jotta löydettäisiin toiminto, on mahdollisimman pienin kustannuksin.

Sovelluksiin, joissa ratkaisu riippuu joitakin tietoja, kustannukset on välttämättä oltava kommentteja.

Vaikka voit määrittää joillekin verkkojen kustannusfunktio ad hoc, usein voit käyttää tiettyä kustannus toimivat on halutut ominaisuudet, tai koska se on lähtöisin tietystä muotoilua ongelma. Viime kädessä, kustannusfunktio riippuu tehtävän.

Oppiminen ajatusmallit

On olemassa kolme suurta oppimisen paradigmat, joista kukin vastaa tiettyä abstrakti oppimistehtävä. Nämä valvotaan oppiminen, ilman valvontaa oppiminen ja vahvistaminen oppiminen. Yleensä yhden tyyppinen verkon arkkitehtuuria voidaan käyttää missä tahansa näistä tehtävistä.

  • valvottu oppiminen, jos sinulla on joukko tietoja koulutukseen käsittää tyypillisiä esimerkkejä tuotantopanosten ja vastaavat lähdöt heidän vastaava: näin verkko voi oppia päätellä niiden välinen suhde. Tämän jälkeen verkko on koulutettu avulla sopivalla algoritmilla, joka käyttää näitä tietoja varten tarkoituksena muuttaa painot ja muut parametrit verkon siten, että minimoidaan ennustusvirhe liittyvät täyden koulutuksen. Jos koulutus onnistuu, verkko oppii tunnistamaan suhteessa tuntematon tekijä, joka sitoo panosmuuttujia lähtöön, ja voi siis tehdä ennusteita vaikka tuotos ei ole tiedossa etukäteen; Toisin sanoen, perimmäisenä tavoitteena valvottu oppiminen on ennustaminen tuotannon arvo jokaiselle voimassa arvo sisäänkäynti, nojaudutaan vain rajoitettu määrä esimerkkejä kirjeenvaihtoa. Voit tehdä niin, verkko on vihdoin varustettu sopivalla yleistys kyky, viitaten tapauksiin tuntematon sitä. Näin voit ratkaista ongelmia regressio tai luokittelua.
  • ohjaamaton oppiminen, joka perustuu koulutukseen algoritmeja, jotka muuttavat paino verkon viittaamalla ainoastaan ​​tietoaineistoa, joka sisältää vain panosmuuttujia. Nämä algoritmit yrittävät ryhmään lähtötiedot ja siten määritellä sopivat klusterin edustaja samat tiedot, tyypillisesti hyödyntämällä topologista menetelmien tai todennäköinen. Ohjaamaton oppiminen käytetään myös kehittää tekniikoita tiedon pakkaus.
  • vahvistaminen oppiminen, jossa sopivalla algoritmilla pyritään tunnistamaan tietty toimintatapa, alkaen prosessi havainto ulkoisen ympäristön; kaikki toiminta on vaikutus ympäristöön, ja ympäristöä tuottaa palautetta, joka ohjaa itse algoritmiin oppimisprosessissa. Tämän luokan ongelmia arvelee aine, joiden kapasiteetti on käsitys, tutkia ympäristöä, jossa otetaan joukko toimia. Ympäristö itse tarjoaa vastauksena kannustin tai ehkäisevästi tarvittaessa. Algoritmit vahvistaminen oppimisen yrittää viime kädessä päättää politiikkaa maksimoida kannustimet saamat agentti kertynyt aikana hänen etsintä kysymys. Vahvistaminen oppiminen eroaa valvotuissa koska niitä ei koskaan esitetty panos-tuotos paria tunnettuja esimerkkejä, eikä tekee korjauksen nimenomaisen toimien optimaalinen. Lisäksi algoritmi on keskittynyt suorituskykyyn verkossa, mikä tarkoittaa tasapainoa tutkia tuntemattomia tilanteita ja tietämyksen nykyinen.

Hebbian oppiminen

Hebbian oppiminen algoritmi perustuu siihen yksinkertaiseen periaatteeseen, että jos kaksi neuronit ovat aktiivisia samanaikaisesti, yhteenliittämistä on vahvistettava.

 missä,

jossa on "maahantulon ja on oppimisen korko.

Hebb sääntö on seuraava: tehokkuus tietyn synapsi muutokset, jos ja vain jos on olemassa voimakas samanaikainen aktiivisuus kaksi neuronien, korkea lähetyksen synapsin panos kyseessä.

Esimerkki menettely:

  • Alusta painot nollaan.
  • Valmista tulo kuvio vastaa kuvion tunnettujen lähdön.
  • Laskee ja päivittää sitten.
  • Toista vaiheet 2 ja 3 jokaisen mallin tiedossa

Näin yhteydet voivat vain kasvaa. Liitännät katsotaan vahvistuu, kun yksiköt presynaptinen ja postsynaptisiin toisin sovi heikentää. Ottaen huomioon kaksisuuntainen sijasta Boolen toimintoja.

Teoria ja käyttö

Toiminta feedforward neuroverkon

Neuroverkot perustuvat pääasiassa simulointi keinotekoisten neuronien kytketty oikein. Malli kuvassa on yksi ehdottama McCulloch ja Pitts.

Nämä neuronit saada palautetta ärsykkeitä ja käsitellä niitä. Käsittely voi myös olla erittäin hienostunut mutta yksinkertainen asia mitä voi ajatella, että yksittäisten panosten kerrotaan sopiva arvo mainitun paino, tulos lisäystä lisätään ja jos summa ylittää tietyn kynnyksen, hermopäätteiden tulipalot aktivoimalla sen tuotos. Paino ilmaisee tehokkuutta synaptisen tulojohdon ja palvelee arvioitava niiden suuruus, erittäin tärkeä panos on suuri paino, kun taas panos pikku laadittaessa painaa vähemmän. Voidaan ajatella, että jos kaksi neuronien kommunikoida niiden välillä käyttämällä yli joitakin yhteyksiä tällaisia ​​yhteyksiä on suurempi paino, kunnes se luo yhteyksiä tulo ja lähtö verkkoa, joka hyödyntää "edullisten väyliä". On kuitenkin väärin ajatella, että verkko päätyvät tuottaa yhden yhteyden polku: kaikki yhdistelmät itse asiassa on tietty paino, ja edistää siten yhteys input / output.

Kuvassa malli on klassinen neuroverkko täysin kytketty.

Yksittäisten neuronien on yhdistetty isäntäkoneeseen myöhempien neuronien, siten, että muodostuu verkoston neuronien. Normaalisti, verkko muodostetaan kolme kerrosta. Ensimmäisessä meillä on panoksia, tämä kerros on huolissaan käsitellä panoksia niin kuin sopeutua vaatimuksiin neuronien. Jos tulosignaalit jo käsitelty saattaa olla siellä. Toinen kerros on piilossa, huolet käsittely todellisia ja voidaan myös muodostuu useita sarakkeita hermosolujen. Kolmas kerros on poistua eikä vaivaudu kerätä tulokset ja sopeutua vaatimuksiin seuraavan lohkon neuroverkon. Nämä verkostot voivat myös olla hyvin monimutkainen ja liittyy tuhansia neuronien ja kymmeniä tuhansia yhteyksiä.

Rakentaa rakenne monikerroksista neuroverkkoa voidaan työntää piilotettu kerrokset; On kuitenkin joitakin mielenosoituksia, jotka osoittavat, että 1 tai 2 kerrosta Piilotettu saat saman tehokas yleistys verkosta verrattuna enemmän kerroksia Piilotettu. Tehokkuus neuroverkon yleistää monikerroksinen riippuu tietenkin koulutuksesta se on saanut ja jotka se onnistui tai ei tehdä paikallisen minimin hyvä.

Backpropagation algoritmi

Backpropagation algoritmia käytetään oppimista valvonnassa. Sen avulla voidaan muuttaa painot yhteyksien siten, että minimoi tietyn virheen funktio E. Tämä toiminto riippuu vektorin h: nnen lähdön palasi verkkoon, koska vektorin h: nnen tulovektorin ja h: nnen lähdön haluamme. Koulutus sarja on siis joukko N ​​paria vektoreiden kanssa. Virhe toiminto, joka on minimoitava voidaan kirjoittaa seuraavasti:

jossa indeksi k on arvo, joka vastaa k: nnen lähdön neuronin. Se on funktio riippuu painot, voit minimoida kaltevuus laskeutumisen algoritmia. Algoritmi lähtee yleinen pisteen ja laskee kaltevuus. Kaltevuus antaa suunta, johon liikkua pitkin, joka on suurin mahdollinen lisäys. Määritellään kulkusuunnasta asetettua etäisyyttä etukäteen ja siellä on uusi kohta, joka lasketaan uudelleen kaltevuus. Se jatkuu iteratiivisesti kunnes kaltevuus ei ole nolla. Backpropagation algoritmi voidaan jakaa kahteen vaiheeseen:

  • Eteenpäinsyötön: lähtötiedot verkkoon etenee seuraavalle tasolle ja niin edelleen seuraavalle tasolle. On arvioitu, sen vuoksi, virhe.
  • Taaksepäinsyötön: tekemä virhe verkko etenee taaksepäin ja painot päivitetään asianmukaisesti.

Loogisia vaiheita kouluttamiseen neuroverkko valvottu oppiminen ovat seuraavat:

  • Luoda joukon tulon malli ja siihen liittyvät kuvio halutun tehon
  • Alusta painot neuroverkon satunnainen arvoja, pieni verrattuna tulevaisuuden, joka vie, ja alle mitään.
  • Oppiminen Cycle
    • Feedforward sykli
      • talteen tulo kuvio satunnaisesti joukossa saatavilla
      • laskea kaikkien neuronien myöhemmät
      • vähennetään tulos kynnysarvon neuroni aktivoinnin
      • suodatus neuronin ulostulon soveltamalla logistinen funktio, jotta tämä arvo panos seuraavan neuronin
    • Vertaa tulosta verkkoon rakenteessa lähdön suhteessa tuloon lisätään ja leikkaa virheen nykyinen verkko
    • Cycle backpropagation
      • laskea korjaus tehtävät painot mukaisesti sijainti oikeusvaltion vähimmäis- valinta
      • sovelletaan korjauksen kerroksen painosta

 jotta on hyvä koulutus, uutot suorittaa ilman vaihto: Kun kuvio on purettu, se ei osallistu seuraavia uuttoja; Siksi aika ajoin, olet kalastus joukko malleja ei vielä uutettu. Kun kaikki kuviot on purettu, voit mahdollisesti toistaa prosessi tyhjästä alkaen koko joukko tulo kuvioita.

Tyypit neuroverkko

Hopfield verkot

Vuonna 1982 fyysikko John J. Hopfield julkisen avaimen artikkelin, jossa se esittää matemaattista mallia yleisesti tunnettu tarkasti Hopfield verkko: tämä verkko on ominaista "spontaani uusien laskennallisia valmiuksien mistä kollektiivinen käyttäytyminen suuri määrä yksinkertaisia prosessointielementtejä ". Kollektiivinen ominaisuudet mallin tuottaa assosiatiivinen muisti hahmontunnistuksen korruptoitunut ja hakemista puuttuu.

Lisäksi, Hopfield katsoo, että jokainen fyysinen järjestelmä voidaan pitää mahdollisena muistilaitteeseen, jos se on tietty määrä stabiilista tilasta, jotka toimivat attraktorin järjestelmän itse. Tämän perusteella vastike, hän pyrkii ilmaisemaan väitteeseen, jonka vakaus ja sijoittaminen tällaisten vetovoimatekijöihin ovat omaisuutta spontaani järjestelmissä on, kuten mainittiin, huomattavia määriä neuronien keskinäistä vuorovaikutusta.

Uusista ideoita esille tuomat Hopfield, kaikkein mainitsemisen arvoinen koskee käänteinen suhde tähänastisen vaihtaa laskutoimituksen ja numerot: kun hän oli yleisesti tiedossa, että laskelma tuottaisi numerot, paljon vähemmän triviaali oli havainto, että Hopfield , päinvastoin, myös numerot voi spontaanisti tuottaa laskelma, ja että tämä voi syntyä joka määrite kollektiivinen interaktiivisia järjestelmiä,.

Sovellukset Hopfield verkkojen koskevat pääasiassa rakentamisen yhdistys muistoja, jotka kestävät muuttaminen käyttöolosuhteissa, ja ratkaisu ongelmiin kombinatorista. Rakenteellisesta näkökulmasta, Hopfield verkko on toistuva neuroverkko symmetrinen, joista lähentymistä on taattu.

Toistuva verkko on hermo malli, jossa on kaksisuuntainen tiedonkulku; Toisin sanoen, kun verkostot feedforward tyyppiä eteneminen signaalien tapahtuu ainoastaan, jatkuvalla tavalla, suuntaan, joka johtaa panosten ja tuotosten, uusiutuvan verkoissa tämä lisäys voi myös ilmetä kerroksella hermo vieressä edelliseen, tai välillä neuronien kuuluvat samaan kerrokseen, ja jopa välillä hermosolun ja itsensä.

Elman verkot

Merkittävä ja tunnettu esimerkki yksinkertaisesta toistuva verkko johtuu Jeffrey L. Elman. Se muodostaa teeman variaatio monikerroksisen perceptron, joilla on täsmälleen kolme kerrosta ja lisäämällä joukon neuronien "pika" kerrokseen tulo. Yhteydet takautuvasti etene välikerros tällaisiin yksiköihin pika, jolle se antaa paino vakio ja samansuuruinen yhtenäisyyttä.

Kunakin hetkenä, tulot kasvatetaan perinteisellä tavalla, tyypillinen myötäkytkentä verkkojen, mukaan lukien soveltaminen algoritmi oppimiseen. Yhteydet taannehtivasti vahvistettu vaikutuksesta pitää jäljennöksen aikaisemmasta arvojen väli neuronien, koska tällainen virtaus tapahtuu aina ennen oppimisen vaihetta.

Näin verkoston Elman otetaan huomioon sen aiempaan tilaan, jonka avulla se voi suorittaa tehtäviä ennustaminen ajallisen sekvenssit, joita on vaikea saavuttaa tavanomaisten monikerroksinen perceptron.

Karttoja tai itseorganisoiva verkkojen SOM

Lopuksi, toinen mielenkiintoinen tyyppinen verkko koostuu ns itseorganisoituvan kartan tai SOM verkkoon. Tämä innovatiivinen tyyppinen neuroverkko on kehitetty Teuvo Kohonen Helsingin yliopisto; sen oppiminen algoritmi on epäilemättä loistava muotoilu ohjaamaton oppiminen, ja on johtanut useita sovelluksia luokittelun ongelmia. Kartta tai SOM verkko perustuu olennaisesti ristikko tai verkkoon keinotekoisten neuronien joiden painot jatkuvasti mukautettava harjoittajille esitetty panos koulutukseen asetettu. Tällaiset kantajat voivat olla koko yleinen, mutta useimmissa sovelluksissa on melko korkea. Mitä tulee lähdöt verkon, päinvastoin, on yleensä rajoitettu enintään koon, joka on kolme, joka mahdollistaa aiheuttaa 2D- tai 3D-karttoja. Useammassa analyyttinen kannalta, algoritmi voidaan helposti kuvattu, kuten edellä, kannalta joukon keinotekoinen neuronien, joista jokaisella tarkka sijainti kartalla on tyypillinen tuotoksia, jotka osallistuvat prosessi tunnetaan voittajaksiR vie kaiken, lopussa joka solmu, jolla painotusvektori lähinnä tietty tulo julistetaan voittajaksi, kun painot itse päivitetään siten tuoda heidät lähemmäksi tulovektori. Jokainen solmu on useita vierekkäisiä solmuja. Kun solmu voittaa kilpailu, painot viereisten solmujen muutetaan, mukaan yleissääntö, jonka enemmän solmu on poissa voittaja solmu, vähäisempi on muutos sen painosta. Prosessi toistetaan sitten kullekin kantavan joukko koulutuksen, useiden, yleensä suuri, syklien. On sanomattakin selvää, että eri tuotantopanoksia tuottavat erilaisia ​​voittajia. Toimivat tällä tavalla, kartta ei lopulta yhdistää tuotoksen solmut ryhmien tai toistuvia kuvioita joukko lähtötietoja. Jos nämä kuviot ovat tunnistettavissa, ne voidaan osoittaa vastaavaan solmut koulutettu verkon. Samalla tavalla kuin suurin keinotekoinen neuroverkot, myös kartan tai SOM verkko voi toimia kahdella eri tavalla:

  • harjoittelujakson aikana, kartta on rakennettu siten, verkko on määritetty ja järjestää käyttämällä kilpailumenettelyssä. Verkosto on mahdollisimman joukko tulovektorit, joka voi edustaa uskollisesti kantajan tyyppi, joka lopulta toimitetaan toisessa vaiheessa;
  • toisen vaiheen aikana, jokainen uusi tulovektorin voidaan nopeasti luokitella tai luokiteltu, saattaa se kartalle automaattisesti saatu edellisessä vaiheessa. Aina tulee olemaan yksi voittaa neuroni, yksi jonka painotusvektori sijaitsee lähempänä vektori juuri toimitettu verkkoon; tällainen neuroni voidaan määrittää yksinkertaisesti laskemalla euklidinen etäisyys kahden vektorien osalta.

Verkot attractors

Yleensä ANN on verkosto solmuja, usein toisiinsa rekursiivisesti, jonka dynaaminen ajan perustetaan asettumista tietyssä tilassa värähtely. Tämä tila värähtely voi olla paikallaan, vaihtelu ajan tai stokastinen ja kutsutaan sen "attractor". Teoreettisen neurotieteen erityyppisiä verkkoja vetovoimatekijöihin on liitetty eri toimintoja, kuten muistia, liike kuljettaa ja luokittelu. Kuvaukset verkkojen verkkojen vetovoimatekijöihin on hyödyllinen tutkijoille koska se auttaa heitä tutkimaan teorian dynaamisten systeemien analysoida niiden ominaisuuksia ..

Tarkemmin, verkon attractors on verkko N ​​solmut on kytketty siten, että niiden koko dynamiikka tulee vakaa tila D-ulotteinen, yleensä missä N & gt; & gt; D. Tässä oletetaan, että ei ole enää syöttää järjestelmän ulkopuolelta. Vakaus tässä tilassa attractor osoittaa, että valtio jatkuu joissakin algebran lajike.

Sovellukset ja ominaisuudet

Hyödyllisyys neuroverkkomallien on se, että nämä voidaan ymmärtää toiminto käyttämällä vain huomautuksensa tietoihin. Tämä on erityisen hyödyllinen sovelluksissa, joissa monimutkaisia ​​tietoja tai vaikeus käsittely tekee suunnittelu tällaisen funktion epäkäytännöllinen kanssa tavanomaisten menettelyjen manuaalinen analyysi.

Tehtäviä, joissa Neuroverkkojen sovelletaan voidaan jakaa seuraaviin pääryhmään sovelluksia:

  • Lainsäädännön toimintoja, tai regressio, mukaan lukien aikasarja ennustaminen ja mallintaminen.
  • Luokitus, mukaan luettuna rakenne ja sekvenssi geneeristen tunnustaminen, tunnistaa uusia ja päätöksentekoon.
  • Tietojenkäsittelyn, mukaan lukien "suodatus", klusterointi, erottaminen signaalien ja puristus.

Sovellusalueita ovat ohjausjärjestelmät, simulaattoreita, pelejä ja päätöksenteko, hahmontunnistus, tunnistussekvenssejä, lääketieteellinen diagnoosi, taloudelliset sovellukset, data mining, roskapostisuodattimet sähköpostin.

Meriitit

Neuroverkkojen ovat rakennettu toimimaan rinnakkain ja voivat siten käsitellä paljon tietoa. Se on pohjimmiltaan hienostunut järjestelmä tilastollisen varustetulle hyvä immuniteetti melulle; jos yksikköä järjestelmän oli toimintahäiriön, verkko kokonaisuutena olisi heikkene mutta tuskin kohtaisi järjestelmän kaatumisen. Uusimman sukupolven ohjelmistojen omistettu neuroverkkojen silti edellyttävät hyvää tilastollista tietoa; aste ilmeinen välitön käytettävyys ei saa johtaa harhaan, samalla käyttäjä tehdä ennusteita tai luokituksia välittömästi, vaikkakin rajoitukset tapauksen. Teolliselta kannalta, ne ovat tehokkaita, kun on historiallisia tietoja, joita voidaan käsitellä algoritmit hermo. Tämä on kiinnostava tuotantoon, koska sen avulla voit poimia tietoja ja malleja ilman ylimääräisiä testejä ja kokeita.

Viat

Mallien tuottamat neuroverkko, vaikka erittäin tehokas, ei selitettävissä ihmisen symbolinen kieli: tulokset on hyväksyttävä "sellaisenaan", josta jopa Englanti määritelmää neuroverkkojen kuin "musta laatikko": toisin sanoen toisin algoritmista järjestelmä, jossa voi tutkia askel-askeleelta polku tulo, joka tuottaa lähdön, neuroverkon pystyy tuottamaan voimassa seurauksena, tai miten suurella todennäköisyydellä on hyväksyttävissä, mutta se ei ole mahdollista miten ja miksi tämä tulos syntyi. Kuten minkä tahansa mallinnus algoritmi, myös neuroverkot ovat tehokkaita vain, jos ennustaja muuttujat on valittu huolella. Ne eivät kykene tehokkaasti hoitamaan ehdoton muuttujia on monia eri arvoja. Vaadi koulutus vaihe, joka asettaa painot yksittäisten neuronien ja tämä voi kestää jonkin aikaa, jos tietueiden määrä ja muuttujien analysoitu on erittäin suuri. On lauseet tai malleja määrittää optimaalisen verkon, niin menestys verkkoon riippuu paljon kokemusta luoja.

Tarkoitus

Neuroverkot käytetään tyypillisesti tilanteissa, joissa tietoja voidaan osittain virheellinen tai jossa ei ole analyyttisiä malleja pysty ongelman ratkaisemiseksi. Yksi niiden tyypillinen käyttö on OCR, kasvojentunnistus järjestelmiä ja yleisemmin järjestelmissä, jotka käsittelevät prosessi tietojen virheitä tai melua. Ne ovat myös yksi käytettävät työkalut analysointiin tiedon louhinta. Neuroverkkojen käytetään myös keinona ennustaa taloudellinen analyysi tai meteorologista. Viime vuosina se on kasvanut huomattavasti niiden merkitys alalla bioinformatiikan, jossa käytetään etsiä toiminnallisia malleja ja / tai rakenteellisia proteiineja ja nukleiinihappoja. Esittää sopivasti pitkä sarja panoksia, verkko pystyy tarjoamaan lähtö todennäköisempää. Viime vuosina myös tutkitaan niiden käyttöä ennustamisessa epileptisiä kohtauksia. Viimeaikaiset tutkimukset ovat osoittaneet hyvät mahdollisuudet neuroverkkojen seismologian paikallistamiseen epicenters maanjäristysten ja ennustaminen niiden intensiteetti.

  0   0
Edellinen artikkeli Angelo Sanfelice
Seuraava artikkeli Ronald Syme

Aiheeseen Liittyvät Artikkelit

Kommentit - 0

Ei kommentteja

Lisääkommentti

smile smile smile smile smile smile smile smile
smile smile smile smile smile smile smile smile
smile smile smile smile smile smile smile smile
smile smile smile smile
Merkkiä jäljellä: 3000
captcha