Calcolatore Cross-Entropy Loss

Strumento di analisi per valutare la divergenza tra distribuzioni di probabilità. Fondamentale per l'ottimizzazione delle Neural Networks e dei modelli di Machine Learning.

Configurazione Dati

Inserisci 3 valori separati da virgola (somma = 1)

Risultato Analisi

Pronto per il calcolo 0.000 Cross-Entropy Value (Natural Log)
Classe 1
Classe 2 (Target)
Classe 3

Cos'è?

La Cross Entropy è una funzione di perdita usata per misurare la differenza tra due distribuzioni di probabilità. In ML, confronta le predizioni del modello con i dati reali.

A cosa serve?

Maggiore è il valore dell'entropia, peggiore è la performance del modello. L'obiettivo della retropropagazione (Backpropagation) è minimizzare questo numero.

Formula

H(p, q) = - Σ p(x) log(q(x))

Dove p è la distribuzione vera e q quella predetta.