En resumen, no puede hacer retropropagación si no tiene una función objetivo. No puede tener una función objetivo si no tiene una medida entre un valor predicho y un valor etiquetado (datos reales o de entrenamiento). Por lo tanto, para lograr el "aprendizaje no supervisado", es posible que haya abandonado la capacidad de calcular un gradiente.
¿Cuáles son las limitaciones de la retropropagación?
Desventajas del algoritmo de propagación hacia atrás:
Se basa en la entrada para realizar un problema específico. Sensible a datos complejos/ruidosos. Necesita las derivadas de las funciones de activación para el tiempo de diseño de la red.
¿Cómo solucionas la propagación hacia atrás?
Proceso de retropropagación en redes neuronales profundas
- Valores de entrada. X1=0,05. …
- Peso inicial. W1=0,15 w5=0,40. …
- Valores de sesgo. b1=0.35 b2=0.60.
- Valores objetivo. T1=0,01. …
- Pase hacia adelante. Para encontrar el valor de H1, primero multiplicamos el valor de entrada de los pesos como. …
- Paso hacia atrás en la capa de salida. …
- Pase hacia atrás en la capa oculta.
¿Es eficiente la retropropagación?
La retropropagación es eficiente, lo que permite entrenar redes multicapa que contienen muchas neuronas mientras se actualizan los pesos para minimizar la pérdida.
¿Qué problema resuelve la retropropagación cuando se trabaja con redes neuronales?
Al ajustar una red neuronal, la retropropagación calcula el gradiente dela función de pérdida con respecto a los pesos de la red para un solo ejemplo de entrada-salida, y lo hace de manera eficiente, a diferencia de un cálculo directo ingenuo del gradiente con respecto a cada peso individualmente.