Neurale Netwerken - PowerPoint PPT Presentation

1 / 39
About This Presentation
Title:

Neurale Netwerken

Description:

Neurale Netwerken Kunstmatige Intelligentie Rijksuniversiteit Groningen Mei 2005 hc 5 Hopfield netwerken boek: H7 overzicht het idee 7.1 7.3 het netwerk 7.4, 7 ... – PowerPoint PPT presentation

Number of Views:108
Avg rating:3.0/5.0
Slides: 40
Provided by: JorisIJss
Category:

less

Transcript and Presenter's Notes

Title: Neurale Netwerken


1
Neurale Netwerken
  • Kunstmatige Intelligentie
  • Rijksuniversiteit Groningen


Mei 2005
2
hc 5
  • Hopfield netwerken
  • boek H7

3
overzicht
  • het idee 7.1 7.3
  • het netwerk 7.4, 7.9
  • de energie 7.4
  • het leren 7.5 7.7
  • het traveling sales person probleem 7.8

4
herinneren in een Hopfield netwerk
  • als iets wordt aangeboden dat lijkt op een T,
    zegt het netwerk dat het een T is
  • analoog met vage herinnering die wordt
    geassocieerd met het volledige plaatje, liedje of
    wat dan ook

evolution under clamp fig. 7.12
5
stored patterns are attractors
  • inputs outputs
  • input sensory cue
  • output stored pattern
  • opnieuw energie minimaliseren, stable states
  • dit keer is elk minimum een goede oplossing
  • basins of attraction, elke input geeft als output
    de stored pattern die het dichtst bij is
  • The ball comes to rest in the same place each
    time, because it remembers where the bottom of
    the bowl is.

6
  • huidige state x(t) en opgeslagen patterns x1, x2,
    ..., xn zijn vectoren
  • het systeem evolueert van x(0) naar één van de
    stable states x1, x2, ..., xn
  • xi (1 i n) correspondeert met een energie
    minimum Ei (basin of attraction)

(0,0)
x(0)
x1 x(4)
x(1)
x(2)
x(3)
7
overzicht
  • het idee 7.1 7.3
  • het netwerk 7.4, 7.9
  • de energie 7.4
  • het leren 7.5 7.7
  • het traveling sales person probleem 7.8

8
van single layer perceptron naar Hopfield net
begin met een single layer net met even veel
inputs als outputs en full connectivity de
volgende verbindingen verdwijnen input1
output1, input2 output2, input3
output3 recurrente verbindingen worden
toegevoegd
9
van single layer perceptron naar Hopfield net
de inputs worden onderdeel van de output neuronen
10
van single layer perceptron naar Hopfield net
de inputs worden onderdeel van de output neuronen
11
van single layer perceptron naar Hopfield net
12
van single layer perceptron naar Hopfield net
Hopfield (1982)
13
  • aan het begin van elke run wordt er een sensory
    cue aangeboden
  • de output van een neuron is steeds input voor
    alle andere neuronen, waardoor de network state
    kan veranderen
  • het netwerk convergeert naar een stored pattern

14
de state van het netwerk
  • alle mogelijke states van een Hopfield net met
    drie neurons
  • elke state correspondeert met een binair getal
  • een netwerk met n neuronen heeft 2n states

0 0 0 0
1 0 0 1
2 0 1 0
3 0 1 1
4 1 0 0
5 1 0 1
6 1 1 0
7 1 1 1
15
uitgewerkt voorbeeld p. 98, 99 stel, de externe
input is x(0) (0, 0, 0) het netwerk bevindt
zich in state 0 (0,0,0) en neuron 1 vuurt
16
Het netwerk bevindt zich nu in state 4 (1,0,0) en
neuron 3 vuurt
17
Het netwerk blijft in state 4 (1,0,0) en neuron 2
vuurt
1
1
-2
-2
1
3
2
1
1
18
Het netwerk bevindt zich nu in state 6
(1,1,0) state 6 is een stable state welk neuron
ook vuurt, het netwerk blijft in state 6
1
1
-2
-2
1
3
2
1
1
19
de basins of attraction 4, 2, 0, 5, 7 ? 6 1,
2, 0, 5, 7 ? 3 basins of attraction
overlappen, waar je terecht komt is afhankelijk
van de volgorde waarin de neuronen
vuren nondeterminisme
20
overzicht
  • het idee 7.1 7.3
  • het netwerk 7.4, 7.9
  • de energie 7.4
  • het leren 7.5 7.7
  • het traveling sales person probleem 7.8

21
energie van verbindingen
hoge eij state verandert
lage eij state blijft gelijk
22
energie tabel bij xi , xj ? 0,1
wij positief
wij negatief
xi xj eij
0 0 0
0 1 0
1 0 0
1 1 -wij
xi xj eij
0 0 0
0 1 0
1 0 0
1 1 -wij
eij -wijxixj
23
energie tabel bij xi, xj ? -1,1
wij positief
wij negatief
xi xj eij
-1 -1 -wij
-1 1 wij
1 -1 wij
1 1 -wij
xi xj eij
-1 -1 -wij
-1 1 wij
1 -1 wij
1 1 -wij
eij -wijxixj
24
afleiding ?E
25
?E is in elke situatie negatief,true gradient
descent
ak 0 neuron k zal aan gaan of aan
blijven ?xk 0 (?xk is 0 of 2) ?E -?xkak
0 ak lt 0 neuron k zal uit gaan of uit
blijven ?xk 0 (?xk is 0 of -2) ?E -?xkak
0
26
(non)determinisme
  • asynchrone update gaat gepaard met
    nondeterminisme
  • bij elke update kiezen welk neuron vuurt
  • alternatief synchroon updaten, alle neuronen
    vuren tegelijk

27
effect van synchrone update
  • hogere ruimte complexiteit, de vorige en huidige
    globale state van het netwerk moeten worden
    opgeslagen
  • geen overlappende basins of attraction meer
  • eenduidige state transition diagrams, uit elk
    neuron vertrekt maar één pijl met probability 1
    fig. 7.11
  • in tegenstelling tot het nondeterministische
    transition diagram van fig. 7.6

28
overzicht
  • het idee 7.1 7.3
  • het netwerk 7.4, 7.9
  • de energie 7.4
  • het leren 7.5 7.7
  • het traveling sales person probleem 7.8

29
leren
  • one-shot-learning
  • schaling van 0, 1 naar -1, 1

30
de Hebb leer regel
  • Hebb (1949) When an axon of cell A is near
    enough to excite cell B and repeatedly or
    persistently firing it, some growth process or
    metabolic change takes place in one or both cells
    such that As efficiency as one of the cells
    firing B, is increased.
  • James (1892) When two elementary brain processes
    have been active together or in immediate
    succession, one of them recurring, tends to
    propagate its excitement to the other.
  • in ANNs Als twee cellen dezelfde waarde hebben,
    wordt de verbinding positiever, als ze
    verschillende waardes hebben wordt de verbinding
    negatiever.

31
Hebb algoritme
  • willekeurig training pattern aanbieden
  • voor elke verbinding pas lteq. 7.8gt toe
  • maak positieve weight change als twee cellen
    dezelfde waarde hebben
  • maak negatieve weight change als twee cellen
    verschillende waardes hebben

32
spurious stable states
  • inverse patronen, zijn niet echt spurious
    (arbitraire labels -1 en 1)
  • daarnaast zijn er andere spurious stable states
    mengsels van de opgeslagen patronen
  • de energie van de spurious stable states is
    altijd hoger of gelijk aan de opgeslagen patronen
    (en hun inversen), daar kan je gebruik van maken

33
de analoge versie
  • Hopfield (1984)
  • states N neuronen ? hoeken van een ND hyperkubus
  • sigmoid ipv. threshold niet alleen de hoeken,
    maar de hele kubus
  • leaky integrator dynamics
  • biologisch plausibel
  • hardware implementatie
  • opnieuw ontsnappen uit locale minima, dit keer
    dmv. sigmoid

34
overzicht
  • het idee 7.1 7.3
  • het netwerk 7.4, 7.9
  • de energie 7.4
  • het leren 7.5 7.7
  • het traveling sales person probleem 7.8

35
TSP
  • zoek de korste route door alle steden
  • TSP ? class of combinatorial problems
  • exponentiële worst-case-time-complexity
  • variant op TSP chip layout design

36
TSP oplossen met Hopfield net
  • applet

37
standaard Hopfield net
  • applet

38
NN vs ML
  • neurale netwerken zullen nooit hun doel verliezen
    als onderzoeksmiddel, maar het engineering doel
    is onzeker, NN verliest steeds vaker van ML en
    HMM, maar NN heeft één heel groot voordeel
  • leren kost veel tijd en computerkracht, maar het
    eindresultaat is een elegant programma van een
    paar kB dat binnen 0 seconden het antwoord geeft
  • de snelheid is vele malen hoger dan bij machine
    learning technieken

39
volgende college
  • Kohonen
  • boek H8
Write a Comment
User Comments (0)
About PowerShow.com