|
Somos el museo virtual más grande y mejor en español.
|
Es la rama de la teoría matemática de la probabilidad y estadística que se relaciona con los conceptos de información y entropía de la información, sistemas de comunicación, transmisión de datos, así como la teoría de la distorsión de la transferencia, criptografía, relaciones señal-ruido, compresión de datos y temas relacionados. Es de aceptación general que la disciplina de la teoría de la información comenzó con la publicación del artículo de Claude E. Shannon "La Teoría Matemática de la Comunicación" (The Mathematical Theory of Communication), en el Diario Técnico del Sistema Bell (Bell System Technical Journal) en Julio y Octubre de 1948. Este trabajo tuvo origen a partir de publicaciones anteriores de Harry Nyquist y Ralph Hartley. En el proceso de obtener una teoría de comunicaciones que pudiera ser aplicada por ingenieros eléctricos para diseñar mejores sistemas de telecomunicaciones. Claude E. Shannon es conocido como el padre de la teoría de la información. Su teoría considera la transmisión de la información como un fenómeno estadístico y ofrece a los ingenieros en comunicaciones una forma de determinar la capacidad de un canal de comunicación en términos comunes de medida llamados bits. La parte de la teoría que hace referencia a la transmisión no está relacionada con el contenido de información o el mensaje en sí mismo, aún cuando el lado complementario de la teoría de la información se preocupa con el contenido a través de la compresión con pérdida de los mensajes sujetos a un criterio de fidelidad. Estas dos ramas de la teoría de la información están unidas y justificadas mutuamente por los teoremas de transmisión de información, o los teoremas de separación de canal de origen que justifican el uso de bits como el formato universal de información en diversos contextos.
|