Teoria matematica de la informacion

Teoría del caos

Rama de la matemática aplicada y de la cibernética relacionada con la descripción matemática y la estimación de la calidad de la transmisión, conservación, extracción y clasificación de la información. El término “teoría de la información”, que surgió en la década de 1950, todavía (1988) no tiene una interpretación única y generalmente aceptada. En varias fuentes la serie de ramas incluidas en la teoría de la información se define de forma diferente, y en una interpretación lógica hay que incluir también en la teoría de la información ciertas partes de la ciencia que tradicionalmente no se incluyen. Una característica importante que unifica varias ramas de la ciencia relacionadas con la teoría de la información es el amplio uso de métodos estadísticos. Esto se debe a que el proceso de extracción de información está relacionado con la reducción de la indefinición en el conocimiento de algún objeto, y la medida numérica natural de la indefinición de un evento es su probabilidad.

La parte más importante de la teoría de la información en cualquier tratamiento es la teoría de la transmisión de la información (cf. Información, transmisión de). A menudo, especialmente en los trabajos de matemática pura, el término “teoría de la información” se utiliza como sinónimo de “teoría de la transmisión de la información” . La teoría de la transmisión de la información se ocupa de los métodos óptimos y casi óptimos de transmisión de la información a través de un canal de comunicación bajo el supuesto de que los métodos de codificación del mensaje en una señal de entrada y de decodificación de la salida en un mensaje pueden variar dentro de amplios rangos.

Leer más  Impuesto alquiler vivienda cataluña

Qué es la información

Cuando tenía 21 años y estudiaba un máster en el Instituto Tecnológico de Massachusetts (MIT), escribió su tesis demostrando que las aplicaciones eléctricas del álgebra de Boole podían construir cualquier relación numérica lógica[3] Shannon contribuyó al campo del criptoanálisis para la defensa nacional de Estados Unidos durante la Segunda Guerra Mundial, incluyendo su trabajo fundamental en el descifrado de códigos y las telecomunicaciones seguras.

La familia Shannon vivía en Gaylord, Michigan, y Claude nació en un hospital de la cercana localidad de Petoskey[1] Su padre, Claude Sr. (1862-1934), era un hombre de negocios y, durante un tiempo, juez de sucesiones en Gaylord. Su madre, Mabel Wolf Shannon (1890-1945), era profesora de idiomas y directora del instituto de Gaylord[4]. Claude padre era descendiente de colonos de Nueva Jersey, mientras que Mabel era hija de inmigrantes alemanes[1].

La mayor parte de los primeros 16 años de la vida de Shannon transcurrieron en Gaylord, donde asistió a la escuela pública y se graduó en el instituto de Gaylord en 1932. Shannon mostró una inclinación por la mecánica y la electricidad. Sus mejores asignaturas eran las ciencias y las matemáticas. En su casa construyó aparatos como modelos de aviones, un modelo de barco controlado por radio y un sistema de telégrafo de alambre de espino para la casa de un amigo a media milla de distancia[5] Mientras crecía, también trabajó como mensajero para la compañía Western Union.

La entropía de Shannon

La ciencia de la información cuántica es un campo joven, cuyos fundamentos aún están siendo establecidos por un gran número de investigadores [véase “Rules for a Complex Quantum World”, por Michael A. Nielsen; Scientific American, noviembre de 2002]. La ciencia de la información clásica, por el contrario, surgió hace unos 50 años, a partir del trabajo de un hombre notable: Claude E. Shannon. En un documento histórico escrito en los laboratorios Bell en 1948, Shannon definió en términos matemáticos qué es la información y cómo puede transmitirse frente al ruido. Lo que hasta entonces se consideraba como modos de comunicación muy distintos -el telégrafo, el teléfono, la radio y la televisión- se unificó en un único marco.

Leer más  Plan general de ordenación urbana

Shannon nació en 1916 en Petoskey (Michigan), hijo de un juez y una maestra. Entre otras invenciones, de joven construyó un telégrafo desde su casa hasta la de un amigo con alambre de esgrima. Se licenció en ingeniería eléctrica y matemáticas en la Universidad de Michigan en 1936 y fue al M.I.T., donde trabajó con el pionero de la informática Vannevar Bush en un ordenador analógico llamado analizador diferencial.

La teoría matemática de la comunicación

Cuando leo sobre la Teoría de la Información, por ejemplo en Wikipedia, nunca encuentro afirmaciones que digan si la Teoría de la Información es una Matemática “real” con axiomas subyacentes, una noción de “prueba más allá de toda duda” y cosas así.

Por un lado he leído que es un tema de ingeniería con un alto nivel de abstracción (Wikipedia en alemán) y que “entropía” es un término usado en termodinámica, pero por otro lado recuerdo haber leído pruebas cuando buscaba una respuesta a esta pregunta (aunque no entendía lo más mínimo) y parece que la Teoría de la Información es una rama de la teoría de la probabilidad (además, es parte de este sitio web sobre matemáticas), pero sigo confundido.

Entradas relacionadas