La entropía, en la teoría de la información, es una magnitud que mide la
información provista por una fuente de datos, es decir, lo que nos aporta sobre
un dato o hecho concreto.
Por ejemplo, que nos digan que las calles están mojadas, sabiendo que acaba de
llover, nos aporta poca información, porque es lo habitual. Pero si nos dicen
que las calles están mojadas y sabemos que no ha llovido, aporta mucha
información (porque no las riegan todos los días).
No hay comentarios.:
Publicar un comentario