For faster navigation, this Iframe is preloading the Wikiwand page for Regola delta.

Regola delta

Da Wikipedia, l'enciclopedia libera.

La regola delta (delta rule) è una regola di discesa del gradiente per aggiornare i pesi dei segnali di input che giungono ad un percettrone.[1] Si tratta di un caso particolare del più generale algoritmo di retropropagazione.

Per un neurone con una funzione d'attivazione , la regola delta per l'-esimo peso è data da

,

dove

è una costante piccola chiamata tasso di apprendimento (learning rate)
è la funzione d'attivazione del neurone e la sua derivata
è l'output desiderato
è la somma pesata degli input al neurone
è l'output vero
è l'-esimo input.

Valgono: e .

La regola delta è spesso semplificata se la funzione d'attivazione è lineare come

mentre la regola delta è simile alla regola di aggiornamento del percettrone, come si ricava la regola è diverso. Il percettrone usa la funzione gradino di Heaviside come funzione d'attivazione , il che significa che non esiste in zero, e che è uguale a zero altrove, e ciò rende l'applicazione diretta della regola impossibile.

Derivazione della regola delta

[modifica | modifica wikitesto]

La regola delta si ricava a partire dalla minimizzazione dell'errore sull'output della rete neurale tramite la discesa del gradiente. L'errore per una rete neurale con output può essere misurato come

.

In questo caso, occorre muoversi nello "spazio dei pesi" del neurone (lo spazio di tutti i valori che possono assumere i pesi) in proporzione al gradiente della funzione d'errore rispetto a ogni peso. Per fare ciò, si calcola la derivata parziale dell'errore rispetto a ogni peso. Per l'-esimo peso, la derivata è

.

dove è stata omessa la sommatoria siccome la derivata è relativa al -esimo neurone.

Il calcolo procede con l'applicazione della regola della catena:

mentre la derivata rimanente si calcola ancora con la regola della catena, ma derivando rispetto all'intero input di , ovvero :

Si noti che l'output del -esimo neurone, , è semplicemente la funzione d'attivazione del neurone applicata al suo input . Si può quindi scrivere la derivata di rispetto a semplicemente come la derivata prima di :

A questo punto, si riscrive nell'ultimo termine come la somma su tutti i pesi di ogni peso moltiplicati per il loro input corrispondente :

Poiché interessa solamente l'-esimo peso, l'unico termine della sommatoria che è rilevante è . Chiaramente,

,

portando all'equazione finale per il gradiente:

Come evidenziato sopra, la discesa del gradiente dice che la variazione di ciascun peso deve essere proporzionale al gradiente La scelta di una costante di proporzionalità e l'eliminazione del segno meno (siccome si cerca la direzione che diminuisce il gradiente), permettono di arrivare all'equazione cercata:

.
  1. ^ The Delta Rule, su uhavax.hartford.edu. URL consultato il 20 luglio 2022 (archiviato dall'url originale il 4 marzo 2016).
  • Tom Mitchell, Machine Learning, McGraw Hill, 1997.
  • Ben Krose, Patrick van der Smagt, An Introduction to Neural Networks, The University of Amsterdam

Voci correlate

[modifica | modifica wikitesto]
  Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica
{{bottomLinkPreText}} {{bottomLinkText}}
Regola delta
Listen to this article

This browser is not supported by Wikiwand :(
Wikiwand requires a browser with modern capabilities in order to provide you with the best reading experience.
Please download and use one of the following browsers:

This article was just edited, click to reload
This article has been deleted on Wikipedia (Why?)

Back to homepage

Please click Add in the dialog above
Please click Allow in the top-left corner,
then click Install Now in the dialog
Please click Open in the download dialog,
then click Install
Please click the "Downloads" icon in the Safari toolbar, open the first download in the list,
then click Install
{{::$root.activation.text}}

Install Wikiwand

Install on Chrome Install on Firefox
Don't forget to rate us

Tell your friends about Wikiwand!

Gmail Facebook Twitter Link

Enjoying Wikiwand?

Tell your friends and spread the love:
Share on Gmail Share on Facebook Share on Twitter Share on Buffer

Our magic isn't perfect

You can help our automatic cover photo selection by reporting an unsuitable photo.

This photo is visually disturbing This photo is not a good choice

Thank you for helping!


Your input will affect cover photo selection, along with input from other users.

X

Get ready for Wikiwand 2.0 🎉! the new version arrives on September 1st! Don't want to wait?