Skip to content
The loss curve

Entropie

Mesure d’étalement d’une distribution de probabilité. H = -Σ p log p. Une entropie basse veut dire concentrée sur peu de résultats ; haute, presque uniforme.