Timeline of information theory - Enciclopedia

Línea de tiempo de eventos relacionados con la teoría de la información, la teoría cuántica de la información y la física estadística, la compresión de datos, los códigos de corrección de errores y temas relacionados.

1872 – Ludwig Boltzmann presenta su teorema H, y con él la fórmula Σpi log pi para la entropía de una partícula de gas individual
1878 – J. Willard Gibbs define la entropía de Gibbs: ahora las probabilidades en la fórmula de entropía son tomadas como probabilidades del estado del sistema completo
1924 – Harry Nyquist discute la cuantificación de "inteligencia" y la velocidad a la que puede ser transmitida por un sistema de comunicación
1927 – John von Neumann define la entropía de von Neumann, extendiendo la entropía de Gibbs a la mecánica cuántica
1928 – Ralph Hartley introduce la información de Hartley como el logaritmo del número de posibles mensajes, y se considera que se transmite información cuando el receptor puede distinguir una secuencia de símbolos de cualquier otra (independientemente de cualquier significado asociado)
1929 – Leó Szilárd analiza al demonio de Maxwell, mostrando cómo un motor de Szilard puede transformar información en la extracción de trabajo útil
1940 – Alan Turing introduce el deciban como medida de información inferida sobre los ajustes del cifrado de la máquina Enigma alemana mediante el proceso de Banburismus
1944 – La teoría de la información de Claude Shannon está sustancialmente completa
1947 – Richard W. Hamming inventa códigos Hamming para detección y corrección de errores (para proteger derechos de patente, el resultado no se publica hasta 1950)
1948 – Claude E. Shannon publica "A Mathematical Theory of Communication"
1949 – Claude E. Shannon publica "Communication in the Presence of Noise – Nyquist–Shannon sampling theorem and Shannon–Hartley law"
1949 – La Teoría de la Comunicación de Secrecidad de Claude E. Shannon es desclasificada
1949 – Robert M. Fano publica "Transmission of Information. M.I.T. Press, Cambridge, Massachusetts – Shannon–Fano coding"
1949 – Leon G. Kraft descubre la desigualdad de Kraft, que muestra los límites de los códigos de prefijo
1949 – Marcel J. E. Golay introduce códigos Golay para corrección de errores forward
1951 – Solomon Kullback y Richard Leibler introducen la divergencia Kullback–Leibler
1951 – David A. Huffman inventa la codificación Huffman, un método para encontrar códigos de prefijo óptimos para la compresión de datos sin pérdida
1953 – August Albert Sardinas y George W. Patterson diseñan el algoritmo Sardinas–Patterson, un procedimiento para decidir si un código de longitud variable dado es únicomente decodificable
1954 – Irving S. Reed y David E. Muller proponen códigos Reed–Muller
1955 – Peter Elias introduce códigos convolucionales
1957 – Eugene Prange discute por primera vez los códigos cíclicos
1959 – Alexis Hocquenghem, y de manera independiente el siguiente año Raj Chandra Bose y Dwijendra Kumar Ray-Chaudhuri, descubren códigos BCH
1960 – Irving S. Reed y Gustave Solomon proponen códigos Reed–Solomon
1962 – Robert G. Gallager propone códigos de comprobación de paridad de baja densidad; no se utilizan durante 30 años debido a limitaciones técnicas
1965 – Dave Forney discute códigos concatenados
1966 – Fumitada Itakura (Universidad de Nagoya) y Shuzo Saito (Nippon Telegraph and Telephone) desarrollan la codificación predictiva lineal (LPC), una forma de codificación de voz
1967 – Andrew Viterbi revela el algoritmo Viterbi, haciendo posible la decodificación de códigos convolucionales
1968 – Elwyn Berlekamp inventa el algoritmo Berlekamp–Massey; su aplicación a la decodificación de códigos BCH y Reed–Solomon es señalada por James L. Massey el siguiente año
1968 – Chris Wallace y David M. Boulton publican el primer de muchos artículos sobre el Longitud Mínima del Mensaje (MML) y la inferencia estadística y inductiva
1970 – Valerii Denisovich Goppa introduce códigos Goppa
1972 – Jørn Justesen propone códigos Justesen, una mejora de los códigos Reed–Solomon
1972 – Nasir Ahmed propone la transformada de coseno discreta (DCT), que desarrolla con T. Natarajan y K. R. Rao en 1973; la DCT se convirtió más tarde en el algoritmo de compresión con pérdida más utilizado, la base de formatos multimedia como JPEG, MPEG y MP3
1973 – David Slepian y Jack Wolf descubren y prueban los límites de codificación Slepian–Wolf para la codificación de fuentes distribuidas
1976 – Gottfried Ungerboeck publica el primer artículo sobre modulación en arboleda; una exposición más detallada en 1982 lleva a un aumento de la velocidad de los modems analógicos POTS de 9.6 kbit/s a 33.6 kbit/s
1976 – Richard Pasco y Jorma J. Rissanen desarrollan técnicas de codificación aritmética efectivas
1977 – Abraham Lempel y Jacob Ziv desarrollan la compresión Lempel–Ziv (LZ77)
1982 – Valerii Denisovich Goppa introduce códigos de geometría algebraica
1989 – Phil Katz publica el formato .zip incluyendo DEFLATE (LZ77 + Huffman coding); más tarde se convierte en el contenedor de archivos más utilizado
1993 – Claude Berrou, Alain Glavieux y Punya Thitimajshima introducen códigos Turbo
1994 – Michael Burrows y David Wheeler publican la transformada Burrows–Wheeler, más tarde utilizada en bzip2
1995 – Benjamin Schumacher acuña el término qubit y demuestra el teorema de codificación inarmónica cuántica
2003 – David J. C. MacKay muestra la conexión entre la teoría de la información, la inferencia y el aprendizaje automático en su libro.
2006 – Jarosław Duda introduce la codificación de sistemas numéricos asimétricos: desde 2014 sustituto popular de Huffman y codificación aritmética en comprimidores como Facebook Zstandard, Apple LZFSE, CRAM o JPEG XL
2008 – Erdal Arıkan introduce códigos polares, la primera construcción práctica de códigos que alcanza la capacidad para una amplia variedad de canales


Referencias