Cosa c'è che non va nella propagazione all'indietro?

Cosa c'è che non va nella propagazione all'indietro?
Cosa c'è che non va nella propagazione all'indietro?
Anonim

In breve, non puoi eseguire la back-propagation se non hai una funzione obiettivo. Non puoi avere una funzione obiettivo se non hai una misura tra un valore previsto e un valore etichettato (dati effettivi o di addestramento). Quindi, per ottenere un "apprendimento non supervisionato", potresti aver abbandonato la capacità di calcolare un gradiente.

Quali sono i limiti della propagazione all'indietro?

Svantaggi dell'algoritmo di propagazione posteriore:

Si basa sull'input per eseguire un problema specifico. Sensibile a dati complessi/rumorosi. Ha bisogno dei derivati delle funzioni di attivazione per il tempo di progettazione della rete.

Come risolvi la propagazione indietro?

Processo di backpropagation nella rete neurale profonda

  1. Valori di input. X1=0,05. …
  2. Peso iniziale. W1=0,15 W5=0,40. …
  3. Valori di polarizzazione. b1=0,35 b2=0,60.
  4. Valori target. T1=0,01. …
  5. Passo in avanti. Per trovare il valore di H1 moltiplichiamo prima il valore di input dai pesi come. …
  6. Passo all'indietro al livello di output. …
  7. Passa all'indietro al livello nascosto.

La backpropagation è efficiente?

La backpropagation è efficiente, rendendo possibile addestrare reti multistrato contenenti molti neuroni aggiornando i pesi per ridurre al minimo la perdita.

Quale problema risolve la backpropagation quando si lavora con le reti neurali?

Nell'adattamento di una rete neurale, la backpropagation calcola il gradiente dila funzione di perdita rispetto ai pesi della rete per un singolo esempio di input-output, e lo fa in modo efficiente, a differenza di un ingenuo calcolo diretto del gradiente rispetto a ciascun peso individualmente.