- PÚBLICO: General
- INFORMES: (55) 9157 2800 ext. 4080
México, Ciudad de México
En el ámbito de la teoría de la información la entropía, también llamada entropía de la información y entropía de Shannon (en honor a Claude E. Shannon), mide la incertidumbre de una fuente de información, puede ser considerada como una medida de la incertidumbre y de la información necesaria para, en cualquier proceso, poder acotar, reducir o eliminar la incertidumbre. Resulta que el concepto de información y el de entropía están básicamente relacionados entre sí, aunque se necesitaron años de desarrollo de la mecánica estadística y de la teoría de la información antes de que esto fuera percibido.
Imparte: Felix Fernández Méndez
Eje 1 Norte Mosqueta S/N, Esquina con Aldama , C.P. 6350, Deleg. Cuauhtémoc México, Ciudad de México
¿Cómo llegar?