Cos’è la cross‑entropy?

È una misura di disallineamento tra due distribuzioni di probabilità. Nel machine learning serve a valutare quanto un modello si discosta dalla realtà.

Perché è così usata?

Il suo valore cresce quando le previsioni sono errate, penalizzando fortemente gli errori su campioni importanti. Questo spinge il modello a migliorare rapidamente.

Esempio pratico

Immagina una rete che classifica immagini di gatti e cani. Se la rete assegna 0,1 alla classe “gatto” quando l’immagine è davvero un gatto, la cross‑entropy sarà alta. L’algoritmo regola i pesi per ridurre quell’errore.

Calcolo con formule semplici

  • Per classificazione binaria: -[y·log(p)+(1-y)·log(1-p)]
  • Per multi‑classe: -∑yᵢ·log(pᵢ)

Dove y è la vera etichetta e p la probabilità predetta.

Strumento online

Con il nostro calcolatore puoi inserire i valori reali e le previsioni, ottenere immediatamente la loss e visualizzare grafici di convergenza. È ideale per studenti e data scientist in cerca di rapidità.