Possiamo identificare un neurone come una rete combinatoria a soglia, restituisce 1 o 0 se supera o meno la soglia.  I valori in input, inseriti tramite le sinapsi, sono numeri reali pesati;  Allo stesso modo sono pesati i dendriti, cioè le connessioni tra neuroni interne alla rete;  La soglia è data da una funzione matematica, solitamente un Sigmoide (squashing function) è continua, differenziabile e non lineare(così da creare una rete robusta in presenza di rumore). La forma della funzione influenza il processo di apprendimento che consiste nel calibrare i pesi di sinapsi e dendriti basandosi sui dati del training set. Nella Feed-Forward multi-layered Network troviamo di base 3 layer:

  • Input Layer (nutrito dagli Input tramite le sinapsi)
  • Hidden Layer (nutrito dall’input layer tramite dentriti)
  • Output Layer (nutrito dall’hidden layer)

g= sigmoidi (funzioni di trasferimento) Gli archi sono orientati (rete feed-forward) l’algoritmo di training:

nella rete vengono immessi tutti gli elementi del dataset e durante il processo i pesi vengono calibrati sulla base delle classi dai supervisori, ma la convergenza non è garantita.

Calcolo dell’errore

L’errore si calcola: la modifica in retroazione fatta vuole minimizzare l’errore E(w) seguendo il gradiente della funzione che si calcola dalle derivate parziali del sigmoide:

Sottrai la derivata per il parametro costante detto Learning Rate

PREVIOUS