Gradient Descent e Costo
- 24-07-2022
- chuong xuan
- 0 Comments
Perché la discesa graduale è importante nell'apprendimento automatico? L'algoritmo esegue iterativamente per ottimizzare la funzione di perdita. La funzione di perdita descrive le prestazioni del modello con numeri extra (pesi e distorsioni), la discesa del gradiente viene utilizzata per trovare il parametro migliore. Esempio di aggiornamento dei parametri per la regressione lineare o dei pesi nella rete neurale.
Mục lục
Cos'è la funzione di costo?
La funzione di costo (o funzione di perdita) aiuta a determinare il costo per misurare la prevedibilità dell'output sul test set. L'obiettivo è trovare pesi e pregiudizi che minimizzino i costi. E usa MSE (errore quadratico medio) per misurare la differenza tra il valore vero di y e il valore previsto. L'equazione di regressione è una retta della forma hθ( x ) = θ + θ1x, dove peso (θ1) e bias ( θ0 ) .
Ottimizzazione della funzione di costo.
Quasi l'obiettivo principale dei modelli di Machine Learning è aiutare a ottimizzare i costi.
L'idea è di portare i picchi rossi ai minimi blu. Per fare ciò, dobbiamo regolare i pesi θ0 e θ1.
Gradient Descent viene eseguito in modo iterativo per trovare i valori ottimali dei parametri corrispondenti per aiutare a ottimizzare la funzione di costo. Matematicamente, la derivata ci aiuta a minimizzare la funzione di costo e aiuta a determinare il punto minimo.