Resumen:
|
Desde su origen, la teoría de la información ha tenido fuertes conexiones con la mecánica estadística: el mismo término entropía de la información fue elegido por Shannon a partir del término usado en termodinámica, bajo sugerencia de Von Neumann [5, 67, 82]. Tradicionalmente la teoría de la información estudia el almacenamiento (códigos) y la transmisión a través de canales con ruido (capacidad de comunicación). Al interpretar las interacciones físicas como canales de comunicación, ha sido posible aplicar las mismas técnicas e ideas para entender cómo un sistema mecánico compuesto de muchas (o infinitas) partes desarrolla un comportamiento colectivo a partir de las interacciones simples y limitadas entre sus componentes individuales. Esto ha permitido entender el mecanismo con el cual propiedades macroscópicas aparecen como efectos de interacciones microscópicas. La misma relación se ha desarrollado recientemente entre las correspondientes generalizaciones cuánticas de ambas teorías: la información cuántica (que estudia el almacenamiento y la manipulación de la información en sistemas cuánticos) y la física de muchos cuerpos. Las conexiones entre los dos campos aumentan cada día y van en las dos direcciones: herramientas e ideas de la información cuántica ayudan a solucionar problemas abiertos en teoría de la materia condensada, y nuevos modelos de muchos cuerpos se desarrollan para aplicaciones de la información cuántica. Almismo tiempo la implementación y el control experimental de pequeños sistemas cuánticos ha mejorado de forma espectacular, aumentando la posibilidad de que estos experimentos se puedan llevar a cabo a escala más grande. Experimentos más grandes significa estar cada vezmás cerca de aplicaciones prácticas, lo cual ha orientado hacia el campo el interés de importantes universidades y centros de investigación, así como agencias nacionales de financiación como el EPSRC y la NSF, empresas privadas con fuerte inversión en la investigación y el desarrollo como IBM, Microsoft y Google...
|