Possiamo identificare un neurone come una rete combinatoria a soglia, restituisce 1 o 0 se supera o meno la soglia. I valori in input, inseriti tramite le sinapsi, sono numeri reali pesati; Allo stesso modo sono pesati i dendriti, cioè le connessioni tra neuroni interne alla rete; La soglia è data da una funzione matematica, solitamente un Sigmoide (squashing function) è continua, differenziabile e non lineare(così da creare una rete robusta in presenza di rumore). La forma della funzione influenza il processo di apprendimento che consiste nel calibrare i pesi di sinapsi e dendriti basandosi sui dati del training set. Nella Feed-Forward multi-layered Network troviamo di base 3 layer:
- Input Layer (nutrito dagli Input tramite le sinapsi)
- Hidden Layer (nutrito dall’input layer tramite dentriti)
- Output Layer (nutrito dall’hidden layer)
g= sigmoidi (funzioni di trasferimento) Gli archi sono orientati (rete feed-forward) l’algoritmo di training:
nella rete vengono immessi tutti gli elementi del dataset e durante il processo i pesi vengono calibrati sulla base delle classi dai supervisori, ma la convergenza non è garantita.
Calcolo dell’errore
L’errore si calcola: la modifica in retroazione fatta vuole minimizzare l’errore E(w) seguendo il gradiente della funzione che si calcola dalle derivate parziali del sigmoide:
Sottrai la derivata per il parametro costante detto Learning Rate