10/26/2008

Computación Cuántica. Por Alberto Virto

Sobre Computación Cuántica este lunes 27 de octubre en Zaragoza

Alberto Virto

Este lunes tenemos la oportunidad de conocer más al profesor Ignacio Cirac y sus investigaciones. Valga decir que es en estos momentos unos de los mejores físicos españoles, de proyección internacional y uno de los mayores expertos mundiales sobre computación cuántica y sus aplicaciones a la información, en lo que se denomina Teoría Cuántica de la Información. Además, tiene una característica que le hace más singular si cabe: en sus conferencias, sobre un campo realmente complicado, se le entiende...y eso en un científico es una prueba experimental de su excepcional dominio de la materia y de su interés por divulgar.

El profesor Cirac va a participar en el Ciclo “Conversaciones en la Aljafería” que cuenta con la colaboración del Programa “Ciencia Viva”, este próximo lunes 27 de octubre, a las 20 horas, en la Sala Goya del Palacio de la Aljafería. También participaran en estas “conversaciones” la periodista Dª Leticia Hernández y el Prof. Dr. José Vicente García Esteve del Dpto. de Física Teórica de la Universidad de Zaragoza.

Juan Ignacio Cirac (Manresa, 1965) se licenció en Física Teórica en la Universidad Complutense de Madrid y obtuvo el doctorado en 1991. Es miembro de la Sociedad Max Planck desde 2001, y es desde hace dos años director del Instituto Max Planck de Óptica Cuántica en Garching, Alemania.

Su trabajo ha sido objeto de numerosos galardones. El primero tuvo lugar en 1993 con el Premio Nacional de Investigadores Noveles de la Real Sociedad Española de Física y en 2003 su máxima distinción: la Medalla de Honor. En 2001 la Academia Austriaca de Ciencias le otorgó el Premio Felix Kuschenitz y en 2005 la Fundación Europea de Ciencia le concedió el Premio Quantum Electronics. Es también doctor honoris causa por varias universidades, miembro de las academias de Ciencias Española y Austriaca y de la Sociedad Americana de Física.

En el 2006 se le concedió el Premio Príncipe de Asturias de Investigación Científica y Técnica y en el 2007 el Premio Nacional de Investigación Blas Cabrera. Desde luego su nombre ya figura en una lista muy exclusiva...y quien sabe si puede llegar a ser nuestro primer Premio Nobel de Física.



Prof. Ignacio Cirac

La computación cuántica es un paradigma de computación distinto al de la computación clásica (que actualmente está en nuestros ordenadores domésticos y de trabajo). Se basa en el uso de qubits en lugar de bits lo que va a permitir abrir unos campos de actuación hasta ahora imposibles de abordar.

Un qbit es un bit cuántico. Y esta historia empezó en 1900....

Un poco de historia de computación y de física cuántica


Hay fechas de las denominadas “históricas” en el mundo informático y de las telecomunicaciones que merece la pena recordar.

El 23 de diciembre 1947, tres científicos de los Laboratorios Bell de USA, J. Bardeen, W. Brattain, y W. Shockley, inventaron el dispositivo básico de la era digital: el transistor. Este dispositivo electrónico, contracción de Transfer Resistor, forma ya parte de conmutadores electrónicos, puertas lógicas, memorias de ordenadores y muchos otros dispositivos. Sus trabajos fueron recompensados con el Premio Nobel de Física en 1956.

Otro laureado, Jack Kilby (Nobel de Física en 2000) presentó el 12 de septiembre de 1958 el primer circuito integrado. El 15 de noviembre de 1971 apareció en escena el intel 4004 (velocidad de 108 kHz) con 2.300 transistores, un bus de 4 bit y 0.06 MIPS que abrió el camino de la “loca carrera” por diseñar y construir chips más pequeños, más rápidos y más baratos. La saga de los pentium surgen un 22 de marzo de 1993, con un modelo a 60MHz y 3.100.000 transistores, y los más modernos superan ya los 40 millones de transistores a velocidades del GHz.

Y la secuencia, hasta ahora, parece imparable. Gordon Moore, cofundador de Intel, predijo en 1965 que más o menos cada dos años se duplicaría el número de transistores en los chips, convirtiendo su profecía en la ya famosa Ley de Moore. Aunque se predice la sustitución del silicio, se mejoran las técnicas de miniaturazación llegándose actualmente a límites del nanómetro. Las capas de los estratos de materiales con que se construye un chip tienen grosores de pocas decenas de …átomos y se piensa ya en chips con miles de millones de transistores (con tamaños 50 veces menor que el grosor de un cabello humano). Nada parece limitar el avance. Se habla de que para el 2017 estos dispositivos tendrán tamaño atómico o molecular, y los ordenadores “de casa” operarán a unos 40 GHz, con una memoria RAM de 160 Gb.

Pero hay un límite y lo impone la física debido a las características de la materia en la zona de lo microscópico. Este condicionante se presentó ante la Sociedad de Física Alemana por Max Planck (Nobel de Física en 1918) el 14 de diciembre de 1900. Supuso una ruptura con la física hasta entonces conocida, introduciendo el fin del determinismo y uno de los mayores cambios en toda la historia de la Ciencia. Todo surgió a partir de los estudios de Planck sobre la discretización de la energía entre átomos y radiación. Nació la Física Cuántica y los quanta que dan ahora nombre a la nueva forma de “discretización” de la información; los qubit (quanta bit).


De esta forma la nueva física que empezó en 1900 condiciona y mucho el funcionamiento de los ordenadores del futuro. Pasar de micro-procesadores a nano-procesadores tiene un elevado precio: viajar del mundo determinista al regido por la probabilidad. Este cambio nunca gustó a Einstein y que lo expresó en su famosísima frase “Dios no juega a los dados”, a lo que otro gran físico, Stephen Hawking, a la vista del éxito de la cuántica reconvirtió en “Dios no sólo juega a los dados. A veces también echa los dados donde no pueden ser vistos”.

0 comentarios: