Fisica Cuantica para Principiantes
Fisica Cuantica para Principiantes
Fisica Cuantica para Principiantes
CUÁNTICA PARA
PRINCIPIANTES:
Los conceptos más interesantes de la Física Cuántica
hechos simples y prácticos | Sin matemáticas difíciles
Tabla de contenido
Capítulo 1 UNA AGRADABLE SORPRESA
Capítulo 2 El comienzo
Capítulo 3 Lo que es la luz
Capítulo 4 SU MAESTREADO SR. PLANCK
Capítulo 5 Un incierto Heisenberg
Capítulo 6 Quantum
Capítulo 7 Einstein y Bohr
Capítulo 8 La física cuántica en los tiempos actuales
Capítulo 9 El tercer milenio
Capítulo 1
UNA AGRADABLE SORPRESA
Un factor de complicación
ntes de intentar comprender el vertiginoso universo cuántico, es necesario
A familiarizarse con algunos aspectos de las teorías científicas que lo
precedieron, es decir, con la llamada física clásica. Este conjunto de
conocimientos es la culminación de siglos de investigación, iniciados incluso
antes de la época de Galileo y completados por genios como Isaac Newton,
Michael Faraday, James Clerk Maxwell, Heinrich Hertz y muchos otros2. La
física clásica, que reinó sin cuestionamientos hasta principios del siglo XX, se
basa en la idea de un universo de relojería: ordenado, predecible, gobernado por
leyes causales.
Para tener un ejemplo de una idea contraria a la intuición, tomemos nuestra
Tierra, que desde nuestro típico punto de vista parece sólida, inmutable, eterna.
Somos capaces de equilibrar una bandeja llena de tazas de café sin derramar una
sola gota, y sin embargo nuestro planeta gira rápido sobre sí mismo. Todos los
objetos de su superficie, lejos de estar en reposo, giran con él como los pasajeros
de un colosal carrusel. En el Ecuador, la Tierra se mueve más rápido que un jet,
a más de 1600 kilómetros por hora; además, corre desenfrenadamente alrededor
del Sol a una increíble velocidad media de 108.000 kilómetros por hora. Y para
colmo, todo el sistema solar, incluyendo la Tierra, viaja alrededor de la galaxia a
velocidades aún mayores. Sin embargo, no lo notamos, no sentimos que estamos
corriendo. Vemos el Sol saliendo por el este y poniéndose por el oeste, y nada
más. ¿Cómo es posible? Escribir una carta mientras se monta a caballo o se
conduce un coche a cien millas por hora en la autopista es una tarea muy difícil,
pero todos hemos visto imágenes de astronautas haciendo trabajos de precisión
dentro de una estación orbital, lanzada alrededor de nuestro planeta a casi 30.000
millas por hora. Si no fuera por el globo azul que cambia de forma en el fondo,
esos hombres que flotan en el espacio parecen estar quietos.
La intuición generalmente no se da cuenta si lo que nos rodea se mueve a la
misma velocidad que nosotros, y si el movimiento es uniforme y no acelerado no
sentimos ninguna sensación de desplazamiento. Los griegos creían que había un
estado de reposo absoluto, relativo a la superficie de la Tierra. Galileo cuestionó
esta venerable idea aristotélica y la reemplazó por otra más científica: para la
física no hay diferencia entre quedarse quieto y moverse con dirección y
velocidad constantes (incluso aproximadas). Desde su punto de vista, los
astronautas están quietos; vistos desde la Tierra, nos están rodeando a una loca
velocidad de 28.800 kilómetros por hora.
El agudo ingenio de Galileo comprendió fácilmente que dos cuerpos de diferente
peso caen a la misma velocidad y llegan al suelo al mismo tiempo. Para casi
todos sus contemporáneos, sin embargo, estaba lejos de ser obvio, porque la
experiencia diaria parecía decir lo contrario. Pero el científico hizo los
experimentos correctos para probar su tesis, y también encontró una justificación
racional: era la resistencia del aire que barajaba las cartas. Para Galileo esto era
sólo un factor de complicación, que ocultaba la profunda simplicidad de las
leyes naturales. Sin aire entre los pies, todos los cuerpos caen con la misma
velocidad, desde la pluma hasta la roca colosal.
Se descubrió entonces que la atracción gravitatoria de la Tierra, que es una
fuerza, depende de la masa del objeto que cae, donde la masa es una medida de
la cantidad de materia contenida en el propio objeto.
El peso, por otro lado, es la fuerza ejercida por la gravedad sobre los cuerpos
dotados de masa (recordarán que el profesor de física en el instituto repetía: "Si
transportas un objeto a la Luna, su masa permanece igual, mientras que el peso
se reduce". Hoy en día todo esto está claro para nosotros gracias al trabajo de
hombres como Galileo). La fuerza de gravedad es directamente proporcional a la
masa: dobla la masa y también dobla la fuerza. Al mismo tiempo, sin embargo, a
medida que la masa crece, también lo hace la resistencia a cambiar el estado de
movimiento. Estos dos efectos iguales y opuestos se anulan mutuamente y así
sucede que todos los cuerpos caen al suelo a la misma velocidad - como de
costumbre descuidando ese factor de fricción que se complica.
Para los filósofos de la antigua Grecia el estado de descanso parecía obviamente
el más natural para los cuerpos, a los que todos tienden. Si pateamos una pelota,
tarde o temprano se detiene; si nos quedamos sin combustible en un auto,
también se detiene; lo mismo sucede con un disco que se desliza sobre una mesa.
Todo esto es perfectamente sensato y también perfectamente aristotélico (esto
del aristotelismo debe ser nuestro instinto innato).
Pero Galileo tenía ideas más profundas. Se dio cuenta, de hecho, de que si se
abisagraba la superficie de la mesa y se alisaba el disco, continuaría funcionando
durante mucho más tiempo; podemos verificarlo, por ejemplo, deslizando un
disco de hockey sobre un lago helado. Eliminemos toda la fricción y otros
factores complicados, y veamos que el disco sigue deslizándose
interminablemente a lo largo de una trayectoria recta a una velocidad uniforme.
Esto es lo que causa el final del movimiento, dijo Galileo: la fricción entre el
disco y la mesa (o entre el coche y la carretera), es un factor que complica.
Normalmente en los laboratorios de física hay una larga pista metálica con
numerosos pequeños agujeros por los que pasa el aire. De esta manera, un carro
colocado en el riel, el equivalente a nuestro disco, puede moverse flotando en un
cojinete de aire. En los extremos de la barandilla hay parachoques de goma.
Todo lo que se necesita es un pequeño empujón inicial y el carro comienza a
rebotar sin parar entre los dos extremos, de ida y vuelta, a veces durante toda la
hora. Parece animado con su propia vida, ¿cómo es posible? El espectáculo es
divertido porque va en contra del sentido común, pero en realidad es una
manifestación de un principio profundo de la física, que se manifiesta cuando
eliminamos la complicación de la fricción. Gracias a experimentos menos
tecnológicos pero igualmente esclarecedores, Galileo descubrió una nueva ley de
la naturaleza, que dice: "Un cuerpo aislado en movimiento mantiene su estado de
movimiento para siempre. Por "aislado" nos referimos a que la fricción, las
diversas fuerzas, o lo que sea, no actúan sobre él. Sólo la aplicación de una
fuerza puede cambiar un estado de movimiento.
Es contraintuitivo, ¿no? Sí, porque es muy difícil imaginar un cuerpo
verdaderamente aislado, una criatura mitológica que no se encuentra en casa, en
el parque o en cualquier otro lugar de la Tierra. Sólo podemos acercarnos a esta
situación ideal en un laboratorio, con equipos diseñados según las necesidades.
Pero después de presenciar alguna otra versión del experimento de la pista de
aire, los estudiantes de física de primer año suelen dar por sentado el principio.
El método científico implica una cuidadosa observación del mundo. Una de las
piedras angulares de su éxito en los últimos cuatro siglos es su capacidad para
crear modelos abstractos, para referirse a un universo ideal en nuestras mentes,
desprovisto de las complicaciones del real, donde podemos buscar las leyes de la
naturaleza. Después de haber logrado un resultado en este mundo, podemos ir al
ataque del otro, el más complicado, después de haber cuantificado los factores de
complicación como la fricción.
Pasemos a otro ejemplo importante. El sistema solar es realmente intrincado.
Hay una gran estrella en el centro, el Sol, y hay nueve (o más bien ocho, después
de la degradación de Plutón) cuerpos más pequeños de varias masas que giran a
su alrededor; los planetas a su vez pueden tener satélites. Todos estos cuerpos se
atraen entre sí y se mueven según una compleja coreografía. Para simplificar la
situación, Newton redujo todo a un modelo ideal: una estrella y un solo planeta.
¿Cómo se comportarían estos dos cuerpos?
Este método de investigación se llama "reduccionista". Tomemos un sistema
complejo (ocho planetas y el Sol) y consideremos un subconjunto más
manejable del mismo (un planeta y el Sol). Ahora quizás el problema pueda ser
abordado (en este caso sí). Resuélvelo y trata de entender qué características de
la solución se conservan en el retorno al sistema complejo de partida (en este
caso vemos que cada planeta se comporta prácticamente como si estuviera solo,
con mínimas correcciones debido a la atracción entre los propios planetas).
El reduccionismo no siempre es aplicable y no siempre funciona. Por eso todavía
no tenemos una descripción precisa de objetos como los tornados o el flujo
turbulento de un fluido, sin mencionar los complejos fenómenos a nivel de
moléculas y organismos vivos. El método resulta útil cuando el modelo ideal no
se desvía demasiado de su versión fea y caótica, en la que vivimos. En el caso
del sistema solar, la masa de la estrella es tan grande que es posible pasar por
alto la atracción de Marte, Venus, Júpiter y la compañía cuando estudiamos los
movimientos de la Tierra: el sistema estrella + planeta proporciona una
descripción aceptable de los movimientos de la Tierra. Y a medida que nos
familiarizamos con este método, podemos volver al mundo real y hacer un
esfuerzo extra para tratar de tener en cuenta el siguiente factor de complicación
en orden de importancia.
La parábola y el péndulo
La física clásica, o física precuántica, se basa en dos piedras angulares. La
primera es la mecánica galileo-newtoniana, inventada en el siglo XVII. La
segunda está dada por las leyes de la electricidad, el magnetismo y la óptica,
descubiertas en el siglo XIX por un grupo de científicos cuyos nombres, quién
sabe por qué, todos recuerdan algunas unidades de cantidad física: Coulomb,
Ørsted, Ohm, Ampère, Faraday y Maxwell. Comencemos con la obra maestra de
Newton, la continuación de la obra de nuestro héroe Galileo.
Los cuerpos salieron en caída libre, con una velocidad que aumenta a medida
que pasa el tiempo según un valor fijo (la tasa de variación de la velocidad se
llama aceleración). Una bala, una pelota de tenis, una bala de cañón, todas
describen en su movimiento un arco de suprema elegancia matemática, trazando
una curva llamada parábola. Un péndulo, es decir, un cuerpo atado a un cable
colgante (como un columpio hecho por un neumático atado a una rama, o un
viejo reloj), oscila con una regularidad notable, de modo que (precisamente) se
puede ajustar el reloj. El Sol y la Luna atraen las aguas de los mares terrestres y
crean mareas. Estos y otros fenómenos pueden ser explicados racionalmente por
las leyes de movimiento de Newton.
Su explosión creativa, que tiene pocos iguales en la historia del pensamiento
humano, lo llevó en poco tiempo a dos grandes descubrimientos. Para
describirlos con precisión y comparar sus predicciones con los datos, utilizó un
lenguaje matemático particular llamado cálculo infinitesimal, que tuvo que
inventar en su mayor parte desde cero. El primer descubrimiento, normalmente
denominado "las tres leyes del movimiento", se utiliza para calcular los
movimientos de los cuerpos una vez conocidas las fuerzas que actúan sobre ellos
(Newton podría haber presumido así: "Dame las fuerzas y un ordenador lo
suficientemente potente y te diré lo que ocurrirá en el futuro". Pero parece que
nunca lo dijo).
Las fuerzas que actúan sobre un cuerpo pueden ejercerse de mil maneras: a
través de cuerdas, palos, músculos humanos, viento, presión del agua, imanes y
así sucesivamente. Una fuerza natural particular, la gravedad, fue el centro del
segundo gran descubrimiento de Newton. Describiendo el fenómeno con una
ecuación de asombrosa sencillez, estableció que todos los objetos dotados de
masa se atraen entre sí y que el valor de la fuerza de atracción disminuye a
medida que aumenta la distancia entre los objetos, de esta manera: si la distancia
se duplica, la fuerza se reduce en una cuarta parte; si se triplica, en una novena
parte; y así sucesivamente. Es la famosa "ley de la inversa del cuadrado", gracias
a la cual sabemos que podemos hacer que el valor de la fuerza de gravedad sea
pequeño a voluntad, simplemente alejándonos lo suficiente. Por ejemplo, la
atracción ejercida sobre un ser humano por Alfa Centauri, una de las estrellas
más cercanas (a sólo cuatro años luz), es igual a una diez milésima de una
milmillonésima, o 10-13, de la ejercida por la Tierra. Por el contrario, si nos
acercáramos a un objeto de gran masa, como una estrella de neutrones, la fuerza
de gravedad resultante nos aplastaría hasta el tamaño de un núcleo atómico. Las
leyes de Newton describen la acción de la gravedad sobre todo: manzanas que
caen de los árboles, balas, péndulos y otros objetos situados en la superficie de la
Tierra, donde casi todos pasamos nuestra existencia. Pero también se aplican a la
inmensidad del espacio, por ejemplo entre la Tierra y el Sol, que están en
promedio a 150 millones de kilómetros de distancia.
¿Estamos seguros, sin embargo, de que estas leyes todavía se aplican fuera de
nuestro planeta? Una teoría es válida si proporciona valores de acuerdo con los
datos experimentales (teniendo en cuenta los inevitables errores de medición).
Piensa: la evidencia muestra que las leyes de Newton funcionan bien en el
sistema solar. Con muy buena aproximación, los planetas individuales pueden
ser estudiados gracias a la simplificación vista anteriormente, es decir,
descuidando los efectos de los demás y sólo teniendo en cuenta el Sol. La teoría
newtoniana predice que los planetas giran alrededor de nuestra estrella siguiendo
órbitas perfectamente elípticas. Pero si examinamos bien los datos, nos damos
cuenta de que hay pequeñas discrepancias en el caso de Marte, cuya órbita no es
exactamente la predicha por la aproximación de "dos cuerpos".
Al estudiar el sistema Sol-Marte, pasamos por alto los (relativamente pequeños)
efectos en el planeta rojo de cuerpos como la Tierra, Venus, Júpiter y así
sucesivamente. Este último, en particular, es muy grande y le da a Marte un buen
golpe cada vez que se acerca a sus órbitas. A largo plazo, estos efectos se suman.
No es imposible que dentro de unos pocos miles de millones de años Marte sea
expulsado del sistema solar como un concursante de un reality show. Así que
vemos que el problema de los movimientos planetarios se vuelve más complejo
si consideramos los largos intervalos de tiempo. Pero gracias a los ordenadores
modernos podemos hacer frente a estas pequeñas (y no tan pequeñas)
perturbaciones - incluyendo las debidas a la teoría de la relatividad general de
Einstein, que es la versión moderna de la gravitación newtoniana. Con las
correcciones correctas, vemos que la teoría siempre está en perfecto acuerdo con
los datos experimentales. Sin embargo, ¿qué podemos decir cuando entran en
juego distancias aún mayores, como las que hay entre las estrellas? Las
mediciones astronómicas más modernas nos dicen que la fuerza de gravedad está
presente en todo el cosmos y, por lo que sabemos, se aplica en todas partes.
Tomemos un momento para contemplar una lista de fenómenos que tienen lugar
según la ley de Newton. Las manzanas caen de los árboles, en realidad se dirigen
hacia el centro de la Tierra. Las balas de artillería siembran la destrucción
después de los arcos de parábola. La Luna se asoma a sólo 384.000 kilómetros
de nosotros y causa mareas y languidez romántica. Los planetas giran alrededor
del Sol en órbitas ligeramente elípticas, casi circulares. Los cometas, por otro
lado, siguen trayectorias muy elípticas y tardan cientos o miles de años en dar un
giro y volver a mostrarse. Desde el más pequeño al más grande, los ingredientes
del universo se comportan de manera perfectamente predecible, siguiendo las
leyes descubiertas por Sir Isaac.
Capítulo 3
Lo que es la luz
A ntes de dejar atrás la física clásica, tenemos que pasar unos minutos
hablando sobre la luz y jugando con ella, porque será la protagonista de
muchas cuestiones importantes (y al principio desconcertantes) cuando
empecemos a entrar en el mundo cuántico. Así que ahora haremos una mirada
histórica a la teoría de la luz en el mundo clásico.1
La luz es una forma de energía. Puede producirse de diversas maneras, ya sea
transformando la energía eléctrica (como se ve, por ejemplo, en una bombilla, o
en el enrojecimiento de las resistencias de las tostadoras) o la energía química
(como en las velas y los procesos de combustión en general). La luz solar,
consecuencia de las altas temperaturas presentes en la superficie de nuestra
estrella, proviene de procesos de fusión nuclear que tienen lugar en su interior. E
incluso las partículas radiactivas producidas por un reactor nuclear aquí en la
Tierra emiten una luz azul cuando entran en el agua (que se ionizan, es decir,
arrancan electrones de los átomos).
Todo lo que se necesita es una pequeña cantidad de energía inyectada en
cualquier sustancia para calentarla. A pequeña escala, esto puede sentirse como
un aumento moderado de la temperatura (como saben los que disfrutan del
bricolaje los fines de semana, los clavos se calientan después de una serie de
martillazos, o si se arrancan de la madera con unas pinzas). Si suministramos
suficiente energía a un trozo de hierro, éste comienza a emitir radiación
luminosa; inicialmente es de color rojizo, luego a medida que aumenta la
temperatura vemos aparecer en orden los tonos naranja, amarillo, verde y azul.
Al final, si el calor es lo suficientemente alto, la luz emitida se convierte en
blanca, el resultado de la suma de todos los colores.
La mayoría de los cuerpos que nos rodean, sin embargo, son visibles no porque
emitan luz, sino porque la reflejan. Excluyendo el caso de los espejos, la
reflexión es siempre imperfecta, no total: un objeto rojo se nos aparece como tal
porque refleja sólo este componente de la luz y absorbe naranja, verde, violeta y
así sucesivamente. Los pigmentos de pintura son sustancias químicas que tienen
la propiedad de reflejar con precisión ciertos colores, con un mecanismo
selectivo. Los objetos blancos, en cambio, reflejan todos los componentes de la
luz, mientras que los negros los absorben todos: por eso el asfalto oscuro de un
aparcamiento se calienta en los días de verano, y por eso en los trópicos es mejor
vestirse con ropas de colores claros. Estos fenómenos de absorción, reflexión y
calentamiento, en relación con los diversos colores, tienen propiedades que
pueden ser medidas y cuantificadas por diversos instrumentos científicos.
La luz está llena de rarezas. Aquí estás, te vemos porque los rayos de luz
reflejados por tu cuerpo llegan a nuestros ojos. ¡Qué interesante! Nuestro amigo
mutuo Edward está observando el piano en su lugar: los rayos de la interacción
entre tú y nosotros (normalmente invisibles, excepto cuando estamos en una
habitación polvorienta o llena de humo) se cruzan con los de la interacción entre
Edwar y el piano sin ninguna interferencia aparente. Pero si concentramos en un
objeto los rayos producidos por dos linternas, nos damos cuenta de que la
intensidad de la iluminación se duplica, por lo que hay una interacción entre los
rayos de luz.
Examinemos ahora la pecera. Apagamos la luz de la habitación y encendemos
una linterna. Ayudándonos con el polvo suspendido en el aire, tal vez producido
por el golpeteo de dos borradores de pizarrón o un trapo de polvo, vemos que los
rayos de luz se doblan cuando golpean el agua (y también que el pobre pececillo
nos observa perplejo, esperando con esperanza el alimento). Este fenómeno por
el cual las sustancias transparentes como el vidrio desvían la luz se denomina
refracción. Cuando los Boy Scouts encienden un fuego concentrando los rayos
del sol en un trozo de madera seca a través de una lente, aprovechan esta
propiedad: la lente curva todos los rayos de luz haciendo que se concentren en
un punto llamado "fuego", y esto aumenta la cantidad de energía hasta el punto
en que desencadena la combustión.
Un prisma de vidrio es capaz de descomponer la luz en sus componentes, el
llamado "espectro". Estos corresponden a los colores del arco iris: rojo, naranja,
amarillo, verde, azul, índigo y violeta (para memorizar la orden recuerde las
iniciales RAGVAIV). Nuestros ojos reaccionan a este tipo de luz, llamada
"visible", pero sabemos que también hay tipos invisibles. En un lado del espectro
se encuentra el llamado rango de onda larga "infrarrojo" (de este tipo, por
ejemplo, es la radiación producida por ciertos calentadores, por resistencias
tostadoras o por las brasas de un fuego moribundo); en el otro lado están los
rayos "ultravioleta", de onda corta (un ejemplo de esto es la radiación emitida
por una máquina de soldadura de arco, y por eso quienes la usan deben usar
gafas protectoras). La luz blanca, por lo tanto, es una mezcla de varios colores en
partes iguales. Con instrumentos especiales podemos cuantificar las
características de cada banda de color, más adecuadamente su longitud de onda,
y reportar los resultados en un gráfico. Al someter cualquier fuente de luz a esta
medición, encontramos que el gráfico asume una forma de campana (véase la
fig. 4.1), cuyo pico se encuentra a una cierta longitud de onda (es decir, de
color). A bajas temperaturas, el pico corresponde a las ondas largas, es decir, a la
luz roja. A medida que el calor aumenta, el máximo de la curva se desplaza
hacia la derecha, donde se encuentran las ondas cortas, es decir, la luz violeta,
pero hasta ciertos valores de temperatura la cantidad de otros colores es
suficiente para asegurar que la luz emitida permanezca blanca. Después de estos
umbrales, los objetos emiten un brillo azul. Si miramos el cielo en una noche
clara, notaremos que las estrellas brillan con colores ligeramente diferentes: las
que tienden a ser rojizas son más frías que las blancas, que a su vez son más frías
que las azules. Estos tonos corresponden a diferentes etapas de la evolución en la
vida de las estrellas a medida que consumen su combustible nuclear. Este simple
documento de identidad de la luz fue el punto de partida de la teoría cuántica,
como veremos con más detalle en un momento.
¿A qué velocidad viaja la luz?
El hecho de que la luz sea una entidad que "viaja" por el espacio, por ejemplo de
una bombilla a nuestra retina, no es del todo intuitivo. En los ojos de un niño, la
luz es algo que brilla, no que se mueve. Pero eso es exactamente lo que es.
Galileo fue uno de los primeros en tratar de medir su velocidad, con la ayuda de
dos asistentes colocados en la cima de dos colinas cercanas que pasaron la noche
cubriendo y descubriendo dos linternas a horas predeterminadas. Cuando veían
la otra luz, tenían que comunicarla en voz alta a un observador externo (el propio
Galileo), que tomaba sus medidas moviéndose a varias distancias de las dos
fuentes. Esta es una excelente manera de medir la velocidad del sonido, de
acuerdo con el mismo principio de que hay una cierta cantidad de tiempo entre
ver un rayo y escuchar un trueno. El sonido no es muy rápido, va a unos 1200
por hora (o 330 metros por segundo), por lo que el efecto es perceptible a simple
vista: por ejemplo, se tarda 3 segundos antes de que el rayo venga de un
relámpago que cae a un kilómetro de distancia. Pero el simple experimento de
Galileo no era adecuado para medir la velocidad de la luz, que es enormemente
mayor.
En 1676 un astrónomo danés llamado Ole Römer, que en ese momento trabajaba
en el Observatorio de París, apuntó con su telescopio a los entonces conocidos
satélites de Júpiter (llamados "galileos" o "Médicis" porque habían sido
descubiertos por el habitual Galileo menos de un siglo antes y dedicados por él a
Cosme de' Médicis). 2 Se concentró en sus eclipses y notó un retraso con el que
las lunas desaparecían y reaparecían detrás del gran planeta; este pequeño
intervalo de tiempo dependía misteriosamente de la distancia entre la Tierra y
Júpiter, que cambia durante el año (por ejemplo, Ganímedes parecía estar a
principios de diciembre y a finales de julio). Römer entendió que el efecto se
debía a la velocidad finita de la luz, según un principio similar al del retardo
entre el trueno y el relámpago.
En 1685 se dispuso de los primeros datos fiables sobre la distancia entre los dos
planetas, que combinados con las precisas observaciones de Römer permitieron
calcular la velocidad de la luz: dio como resultado un impresionante valor de
300.000 kilómetros por segundo, inmensamente superior al del sonido. En 1850
Armand Fizeau y Jean Foucault, dos hábiles experimentadores franceses en
feroz competencia entre sí, fueron los primeros en calcular esta velocidad usando
métodos directos, en la Tierra, sin recurrir a mediciones astronómicas. Fue el
comienzo de una carrera de persecución entre varios científicos en busca del
valor más preciso posible, que continúa hasta hoy. El valor más acreditado hoy
en día, que en la física se indica con la letra c, es de 299792,45 kilómetros por
segundo. Observamos incidentalmente que esta c es la misma que aparece en la
famosa fórmula E=mc2. Lo encontraremos varias veces, porque es una de las
piezas principales de ese gran rompecabezas llamado universo.
cambiado.
Thomas Young
En ese año un médico inglés con muchos intereses, incluyendo la física, realizó
un experimento que pasaría a la historia. Thomas Young (1773-129) fue un niño
prodigio: aprendió a leer a los dos años, y a los seis ya había leído la Biblia
entera dos veces y había empezado a estudiar latín3 . Pronto se enfrentó a la
filosofía, la historia natural y el análisis matemático inventado por Newton;
también aprendió a construir microscopios y telescopios. Antes de los veinte
años aprendió hebreo, caldeo, arameo, la variante samaritana del hebreo bíblico,
turco, parsis y amárico. De 1792 a 1799 estudió medicina en Londres,
Edimburgo y Göttingen, donde, olvidando su educación cuáquera, también se
interesó por la música, la danza y el teatro. Se jactaba de que nunca había estado
ocioso un día. Obsesionado con el antiguo Egipto, este extraordinario caballero,
aficionado y autodidacta, fue uno de los primeros en traducir jeroglíficos. La
compilación del diccionario de las antiguas lenguas egipcias fue una hazaña que
lo mantuvo literalmente ocupado hasta el día de su muerte.
Su carrera como médico fue mucho menos afortunada, quizás porque no
infundía confianza a los enfermos o porque carecía del je ne sais quoi que
necesitaba en sus relaciones con los pacientes. La falta de asistencia a su clínica
de Londres, sin embargo, le permitió tomar tiempo para asistir a las reuniones de
la Royal Society y discutir con las principales figuras científicas de la época. Por
lo que nos interesa aquí, sus mayores descubrimientos fueron en el campo de la
óptica. Empezó a investigar el tema en 1800 y en siete años estableció una
extraordinaria serie de experimentos que parecían confirmar la teoría ondulatoria
de la luz con creciente confianza. Pero antes de llegar a la más famosa, tenemos
que echar un vistazo a las olas y su comportamiento.
Tomemos por ejemplo los del mar, tan amados por los surfistas y los poetas
románticos. Veámoslos en la costa, libres para viajar. La distancia entre dos
crestas consecutivas (o entre dos vientres) se denomina longitud de onda,
mientras que la altura de la cresta en relación con la superficie del mar en calma
se denomina amplitud. Las ondas se mueven a una cierta velocidad, que en el
caso de la luz, como ya hemos visto, se indica con c. Fijémoslo en un punto: el
período entre el paso de una cresta y la siguiente es un ciclo. La frecuencia es la
velocidad a la que se repiten los ciclos; si, por ejemplo, vemos pasar tres crestas
en un minuto, digamos que la frecuencia de esa onda es de 3 ciclos/minuto.
Tenemos que la longitud de onda multiplicada por la frecuencia es igual a la
velocidad de la onda misma; por ejemplo, si la onda de 3 ciclos/minuto tiene una
longitud de onda de 30 metros, esto significa que se está moviendo a 90 metros
por minuto, lo que equivale a 5,4 kilómetros por hora.
Ahora vemos un tipo de ondas muy familiares, esas ondas de sonido. Vienen en
varias frecuencias. Los audibles para el oído humano van desde 30
ciclos/segundo de los sonidos más bajos hasta 17000 ciclos/segundo de los de
arriba. La nota "la centrale", o la3, está fijada en 440 ciclos/segundo. La
velocidad del sonido en el aire, como ya hemos visto, es de unos 1200 km/h.
Gracias a simples cálculos y recordando que la longitud de onda es igual a la
velocidad dividida por la frecuencia, deducimos que la longitud de onda de la3
es (330 metros/segundo): (440 ciclos/segundo) = 0,75 metros. Las longitudes de
onda audibles por los humanos varían de (330 metros/segundo) : (440
ciclos/segundo) = 0,75 metros: (17 000 ciclos/segundo) = 2 centímetros a (330
metros/segundo) : (30 ciclos/segundo) = 11 metros. Es este parámetro, junto con
la velocidad del sonido, el que determina lo que ocurre con las ondas sonoras
cuando resuenan en un desfiladero, o se propagan en un gran espacio abierto
como un estadio, o llegan al público en un teatro.
En la naturaleza hay muchos tipos de ondas: además de las ondas marinas y
sonoras, recordamos, por ejemplo, las vibraciones de las cuerdas y las ondas
sísmicas que sacuden la tierra bajo nuestros pies. Todos ellos pueden describirse
bien con la física clásica (no cuántica). Las amplitudes se refieren de vez en
cuando a diferentes cantidades mensurables: la altura de la ola sobre el nivel del
mar, la intensidad de las ondas sonoras, el desplazamiento de la cuerda desde el
estado de reposo o la compresión de un resorte. En cualquier caso, siempre
estamos en presencia de una perturbación, una desviación de la norma dentro de
un medio de transmisión que antes era tranquilo. La perturbación, que podemos
visualizar como el pellizco dado a una cuerda, se propaga en forma de onda. En
el reino de la física clásica, la energía transportada por este proceso está
determinada por la amplitud de la onda.
Sentado en su barquito en medio de un lago, un pescador lanzó su línea. En la
superficie se puede ver un flotador, que sirve tanto para evitar que el anzuelo
llegue al fondo como para señalar que algo ha picado el cebo. El agua se ondula,
y el flotador sube y baja siguiendo las olas. Su posición cambia regularmente:
del nivel cero a una cresta, luego de vuelta al nivel cero, luego de vuelta a un
vientre, luego de vuelta al nivel cero y así sucesivamente. Este movimiento
cíclico está dado por una onda llamada armónica o sinusoidal. Aquí lo
llamaremos simplemente una ola.
Problemas abiertos
La teoría, en ese momento, no podía responder satisfactoriamente a varias
preguntas: ¿cuál es exactamente el mecanismo por el cual se genera la luz?
¿cómo tiene lugar la absorción y por qué los objetos de color absorben sólo
ciertas longitudes de onda precisas, es decir, los colores? ¿qué misteriosa
operación en el interior de la retina nos permite "ver"? Todas las preguntas que
tenían que ver con la interacción entre la luz y la materia. En este sentido, ¿cuál
es la forma en que la luz se propaga en el espacio vacío, como entre el Sol y la
Tierra? La analogía con las ondas sonoras y materiales nos llevaría a pensar que
existe un medio a través del cual se produce la perturbación, una misteriosa
sustancia transparente e ingrávida que impregna el espacio profundo. En el siglo
XIX se planteó la hipótesis de que esta sustancia existía realmente y se la llamó
éter.
Entonces todavía hay un misterio sobre nuestra estrella. Este colosal generador
de luz produce tanto luz visible como invisible, entendiéndose por "luz invisible"
la luz con una longitud de onda demasiado larga (desde el infrarrojo) o
demasiado corta (desde el ultravioleta hacia abajo) para ser observada. La
atmósfera de la Tierra, principalmente la capa de ozono de la estratosfera
superior, bloquea gran parte de los rayos ultravioletas y ondas aún más cortas,
como los rayos X. Ahora imaginemos que hemos inventado un dispositivo que
nos permite sin demasiadas complicaciones absorber la luz selectivamente, sólo
en ciertas frecuencias, y medir su energía.
Este dispositivo existe (incluso está presente en los laboratorios mejor equipados
de las escuelas secundarias) y se llama espectrómetro. Es la evolución del prisma
newtoniano, capaz de descomponer la luz en varios colores desviando
selectivamente sus componentes según varios ángulos. Si insertamos un
mecanismo que permita una medición cuantitativa de estos ángulos, también
podemos determinar las respectivas longitudes de onda (que dependen
directamente de los propios ángulos).
Concentrémonos ahora en el punto donde el rojo oscuro se desvanece en negro,
es decir, en el borde de la luz visible. La escala del espectrómetro nos dice que
estamos en 7500 Å, donde la letra "Å" es el símbolo del angstrom, una unidad de
longitud nombrada en honor al físico sueco Anders Jonas Ångström, uno de los
pioneros de la espectroscopia. Un angstrom es de 10-8 centímetros, que es una
cienmillonésima parte de un centímetro. Por lo tanto, hemos descubierto que
entre dos crestas de ondas de luz en el borde de la pista visible corren 7500 Å, o
7,5 milésimas de centímetro. Para longitudes mayores necesitamos instrumentos
sensibles a los infrarrojos y a las ondas largas. Si, por otro lado, vamos al otro
lado del espectro visible, en el lado violeta, vemos que la longitud de onda
correspondiente es de unos 3500 Å. Por debajo de este valor los ojos no vienen
en nuestra ayuda y necesitamos usar otros instrumentos.
Hasta ahora todo bien, sólo estamos aclarando los resultados obtenidos por
Newton sobre la descomposición de la luz. En 1802, sin embargo, el químico
inglés William Wollaston apuntó un espectrómetro en la dirección de la luz solar
y descubrió que además del espectro de colores ordenados de rojo a violeta había
muchas líneas oscuras y delgadas. ¿Qué era esto?
En este punto entra en escena Joseph Fraunhofer (1787-1826), un bávaro con
gran talento y poca educación formal, hábil fabricante de lentes y experto en
óptica10 . Después de la muerte de su padre, el enfermizo encontró un empleo
no cualificado como aprendiz en una fábrica de vidrio y espejos en Munich. En
1806 logró unirse a una compañía de instrumentos ópticos en la misma ciudad,
donde con la ayuda de un astrónomo y un hábil artesano aprendió los secretos de
la óptica a la perfección y desarrolló una cultura matemática. Frustrado por la
mala calidad del vidrio que tenía a su disposición, el perfeccionista Fraunhofer
rompió un contrato que le permitía espiar los secretos industriales celosamente
guardados de una famosa cristalería suiza, que recientemente había trasladado
sus actividades a Munich. Esta colaboración dio como resultado lentes
técnicamente avanzadas y sobre todo, por lo que nos interesa aquí, un
descubrimiento fundamental que aseguraría a Fraunhofer un lugar en la historia
de la ciencia.
En su búsqueda de la lente perfecta, se le ocurrió la idea de usar el espectrómetro
para medir la capacidad de refracción de varios tipos de vidrio. Al examinar la
descomposición de la luz solar, notó que las líneas negras descubiertas por
Wollaston eran realmente muchas, alrededor de seiscientas. Empezó a
catalogarlas sistemáticamente por longitud de onda, y para 1815 ya las había
examinado casi todas. Las más obvias estaban etiquetadas con las letras
mayúsculas de la A a la I, donde la A era una línea negra en la zona roja y yo
estaba en el límite extremo del violeta. ¿Por qué fueron causadas? Fraunhofer
conocía el fenómeno por el cual ciertos metales o sales emitían luz de colores
precisos cuando se exponían al fuego; midió estos rayos con el espectrómetro y
vio aparecer muchas líneas claras en la región de las longitudes de onda
correspondientes al color emitido.
Lo interesante fue que su estructura era idéntica a la de las líneas negras del
espectro solar. La sal de mesa, por ejemplo, tenía muchas líneas claras en la
región que Fraunhofer había marcado con la letra D. Un modelo explicativo del
fenómeno tuvo que esperar un poco más. Como sabemos, cada longitud de onda
bien definida corresponde únicamente a una frecuencia igualmente definida.
Tenía que haber un mecanismo en funcionamiento que hiciera vibrar la materia,
presumiblemente a nivel atómico, de acuerdo con ciertas frecuencias
establecidas. Los átomos (cuya existencia aún no había sido probada en la época
de Fraunhofer) dejaron huellas macroscópicas.
Las huellas de los átomos
Como hemos visto arriba, un diapasón ajustado para "dar la señal" vibra a una
frecuencia de 440 ciclos por segundo. En el ámbito microscópico de los átomos
las frecuencias son inmensamente más altas, pero ya en la época de Fraunhofer
era posible imaginar un mecanismo por el cual las misteriosas partículas estaban
equipadas con muchos equivalentes de diapasón muy pequeños, cada uno con su
propia frecuencia característica y capaces de vibrar y emitir luz con una longitud
de onda correspondiente a la propia frecuencia.
¿Y por qué entonces aparecen las líneas negras? Si los átomos de sodio
excitados por el calor de la llama vibran con frecuencias que emiten luz entre
5911 y 5962 Å (valores que corresponden a tonos de amarillo), es probable que,
a la inversa, prefieran absorber la luz con las mismas longitudes de onda. La
superficie al rojo vivo del Sol emite luz de todo tipo, pero luego pasa a través de
la "corona", es decir, los gases menos calientes de la atmósfera solar. Aquí es
donde se produce la absorción selectiva por parte de los átomos, cada uno de los
cuales retiene la luz de la longitud de onda que le conviene; este mecanismo es
responsable de las extrañas líneas negras observadas por Fraunhofer. Una pieza a
la vez, las investigaciones posteriores han revelado que cada elemento, cuando
es excitado por el calor, emite una serie característica de líneas espectrales,
algunas agudas y nítidas (como las líneas de neón de color rojo brillante), otras
débiles (como el azul de las lámparas de vapor de mercurio). Estas líneas son las
huellas dactilares de los elementos, y su descubrimiento fue una primera
indicación de la existencia de mecanismos similares a los "diapasones" que se
ven arriba (o alguna otra diablura) dentro de los átomos.
Las líneas espectrales están muy bien definidas, por lo que es posible calibrar el
espectrómetro para obtener resultados muy precisos, distinguiendo por ejemplo
una luz con una longitud de onda de 6503,2 Å (rojo oscuro) de otra de 6122,7 Å
(rojo claro). A finales del siglo XIX, se publicaron gruesos tomos que
enumeraban los espectros de todos los elementos entonces conocidos, gracias a
los cuales los más expertos en espectroscopia pudieron determinar la
composición química de compuestos desconocidos y reconocer hasta la más
mínima contaminación. Sin embargo, nadie tenía idea de cuál era el mecanismo
responsable de producir mensajes tan claros. Cómo funcionaba el átomo seguía
siendo un misterio.
Otro éxito de la espectroscopia fue de una naturaleza más profunda. En la huella
del Sol, increíblemente, se podían leer muchos elementos en la Tierra:
hidrógeno, helio, litio, etc. Cuando la luz de estrellas y galaxias distantes
comenzó a ser analizada, el resultado fue similar. El universo está compuesto de
los mismos elementos en todas partes, siguiendo las mismas leyes de la
naturaleza, lo que sugiere que todo tuvo un origen único gracias a un misterioso
proceso físico de creación.
Al mismo tiempo, entre los siglos XVII y XIX, la ciencia intentaba resolver otro
problema: ¿cómo transmiten las fuerzas, y en particular la gravedad, su acción a
grandes distancias? Si unimos un carruaje a un caballo, vemos que la fuerza
utilizada por el animal para tirar del vehículo se transmite directamente, a través
de los arneses y las barras. ¿Pero cómo "siente" la Tierra al Sol, que está a 150
millones de kilómetros de distancia? ¿Cómo atrae un imán a un clavo a cierta
distancia? En estos casos no hay conexiones visibles, por lo que se debe asumir
una misteriosa "acción a distancia". Según la formulación de Newton, la
gravedad actúa a distancia, pero no se sabe cuál es la "varilla" que conecta dos
cuerpos como la Tierra y el Sol. Después de haber luchado en vano con este
problema, incluso el gran físico inglés tuvo que rendirse y dejar que la
posteridad se ocupara de la materia.
¿Qué es un cuerpo negro y por qué estamos tan interesados en él?
Todos los cuerpos emiten energía y la absorben de sus alrededores. Aquí por
"cuerpo" nos referimos a un objeto grande, o macroscópico, compuesto de
muchos miles de millones de átomos. Cuanto más alta es su temperatura, más
energía emite.
Los cuerpos calientes, en todas sus partes (que podemos considerar a su vez
como cuerpos), tienden a alcanzar un equilibrio entre el valor de la energía dada
al ambiente externo y la absorbida. Si, por ejemplo, tomas un huevo de la nevera
y lo sumerges en una olla llena de agua hirviendo, el huevo se calienta y la
temperatura del agua disminuye. Por el contrario, si se tira un huevo caliente en
agua fría, la transferencia de calor se produce en la dirección opuesta. Si no se
proporciona más energía, después de un tiempo el huevo y el agua estarán a la
misma temperatura. Este es un experimento casero fácil de hacer, que ilustra
claramente el comportamiento de los cuerpos con respecto al calor. El estado
final en el que las temperaturas del huevo y del agua son iguales se llama
equilibrio térmico, y es un fenómeno universal: un objeto caliente sumergido en
un ambiente frío se enfría, y viceversa. En el equilibrio térmico, todas las partes
del cuerpo están a la misma temperatura, por lo que emiten y absorben energía
de la misma manera.
Cuando se está tumbado en una playa en un día hermoso, el cuerpo está
emitiendo y absorbiendo radiación electromagnética: por un lado se absorbe la
energía producida por el radiador primitivo, el Sol, y por otro lado se emite una
cierta cantidad de calor porque el cuerpo tiene mecanismos de regulación que le
permiten mantener la temperatura interna correcta1 . Las diversas partes del
cuerpo, desde el hígado hasta el cerebro, desde el corazón hasta las puntas de los
dedos, se mantienen en equilibrio térmico, de modo que los procesos
bioquímicos se desarrollan sin problemas. Si el ambiente es muy frío, el
organismo debe producir más energía, o al menos no dispersarla, si quiere
mantener la temperatura ideal. El flujo sanguíneo, que es responsable de la
transferencia de calor a la superficie del cuerpo, se reduce por lo tanto para que
los órganos internos no pierdan calor, por lo que sentimos frío en los dedos y la
nariz. Por el contrario, cuando el ambiente es muy caliente, el cuerpo tiene que
aumentar la energía dispersa, lo que sucede gracias al sudor: la evaporación de
este líquido caliente sobre la piel implica el uso de una cantidad adicional de
energía del cuerpo (una especie de efecto de acondicionamiento del aire), que
luego se dispersa hacia el exterior. El hecho de que el cuerpo humano irradia
calor es evidente en las habitaciones cerradas y abarrotadas: treinta personas
apiladas en una sala de reuniones producen 3 kilovatios, que son capaces de
calentar el ambiente rápidamente. Por el contrario, en la Antártida esos mismos
colegas aburridos podrían salvarle la vida si los abraza con fuerza, como hacen
los pingüinos emperadores para proteger sus frágiles huevos de los rigores del
largo invierno.
Los humanos, los pingüinos e incluso las tostadoras son sistemas complejos que
producen energía desde el interior. En nuestro caso, el combustible es dado por
la comida o la grasa almacenada en el cuerpo; una tostadora en cambio tiene
como fuente de energía las colisiones de los electrones de la corriente eléctrica
con los átomos de metales pesados de los cuales se hace la resistencia. La
radiación electromagnética emitida, en ambos casos, se dispersa en el ambiente
externo a través de la superficie en contacto con el aire, en nuestro caso la piel.
Esta radiación suele tener un color que es la huella de determinadas "transiciones
atómicas", es decir, es hija de la química. Los fuegos artificiales, por ejemplo,
cuando explotan están ciertamente calientes y la luz que emiten depende de la
naturaleza de los compuestos que contienen (cloruro de estroncio, cloruro de
bario y otros),2 gracias a cuya oxidación brillan con colores brillantes y
espectaculares.
Estos casos particulares son fascinantes, pero la radiación electromagnética se
comporta siempre de la misma manera, en cualquier sistema, en el caso más
simple: aquel en el que todos los efectos cromáticos debidos a los distintos
átomos se mezclan y se borran, dando vida a lo que los físicos llaman radiación
térmica. El objeto ideal que lo produce se llama cuerpo negro. Por lo tanto, es un
cuerpo que por definición sólo produce radiación térmica cuando se calienta, sin
que prevalezca ningún color en particular, y sin los efectos especiales de los
fuegos artificiales. Aunque es un concepto abstracto, hay objetos cotidianos que
se pueden aproximar bastante bien a un cuerpo negro ideal. Por ejemplo, el Sol
emite luz con un espectro bien definido (las líneas de Fraunhofer), debido a la
presencia de varios tipos de átomos en la corona gaseosa circundante; pero si
consideramos la radiación en su conjunto vemos que es muy similar a la de un
cuerpo negro (muy caliente). Lo mismo puede decirse de las brasas calientes, las
resistencias de las tostadoras, la atmósfera de la Tierra, el hongo de una
explosión nuclear y el universo primordial: todas aproximaciones razonables de
un cuerpo negro.
Un muy buen modelo lo da una caldera de carbón anticuada, como la que se
encuentra en los trenes de vapor, que, al aumentar la temperatura, produce en su
interior una radiación térmica prácticamente pura. De hecho, este fue el modelo
utilizado por los físicos a finales del siglo XIX para el estudio del cuerpo negro.
Para tener una fuente de radiación térmica pura, debe estar aislada de alguna
manera de la fuente de calor, en este caso el carbón en combustión. Para ello
construimos un robusto contenedor de paredes gruesas, digamos de hierro, en el
que hacemos un agujero para observar lo que ocurre en su interior y tomar
medidas. Pongámoslo en la caldera, dejémoslo calentar y asomarse por el
agujero. Detectamos radiación de calor puro, que llena toda la nave. Esto se
emite desde las paredes calientes y rebota de un extremo al otro; una pequeña
parte sale del agujero de observación.
Con la ayuda de unos pocos instrumentos podemos estudiar la radiación térmica
y comprobar en qué medida están presentes los distintos colores (es decir, las
distintas longitudes de onda). También podemos medir cómo cambia la
composición cuando cambia la temperatura de la caldera, es decir, estudiar la
radiación en equilibrio térmico.
Al principio el agujero emite sólo la radiación infrarroja cálida e invisible.
Cuando subimos la calefacción vemos una luz roja oscura que se parece a la luz
visible dentro de la tostadora. A medida que la temperatura aumenta más, el rojo
se vuelve más brillante, hasta que se vuelve amarillo. Con una máquina
especialmente potente, como el convertidor Bessemer en las acerías (donde se
inyecta el oxígeno), podemos alcanzar temperaturas muy altas y ver cómo la
radiación se vuelve prácticamente blanca. Si pudiéramos usar una fuente de calor
aún más fuerte (por lo tanto no una caldera clásica, que se derretiría),
observaríamos una luz brillante y azulada saliendo del agujero a muy alta
temperatura. Hemos alcanzado el nivel de explosiones nucleares o estrellas
brillantes como Rigel, la supergigante azul de la constelación de Orión que es la
fuente de energía más alta de radiación térmica en nuestra vecindad galáctica.3
El estudio de las radiaciones térmicas era un importante campo de investigación,
en aquel momento completamente nuevo, que combinaba dos temas diferentes:
el estudio del calor y el equilibrio térmico, es decir, la termodinámica, y la
radiación electromagnética. Los datos recogidos parecían completamente
inofensivos y daban la posibilidad de hacer investigaciones interesantes. Nadie
podía sospechar que eran pistas importantes en lo que pronto se convertiría en el
amarillo científico del milenio: las propiedades cuánticas de la luz y los átomos
(que al final son los que hacen todo el trabajo).
Capítulo 4
SU MAESTREADO SR. PLANCK
C omo hemos visto en varias ocasiones durante el curso del libro, la ciencia
cuántica, a pesar de su extraña idea de la realidad, funciona muy bien, a un
nivel casi milagroso. Sus éxitos son extraordinarios, profundos y de gran
peso. Gracias a la física cuántica tenemos una verdadera comprensión de lo que
ocurre a nivel molecular, atómico, nuclear y subnuclear: conocemos las fuerzas
y leyes que gobiernan el micromundo. La profundidad intelectual de sus
fundadores, a principios del siglo XX, nos ha permitido utilizar una poderosa
herramienta teórica que conduce a aplicaciones sorprendentes, las que están
revolucionando nuestra forma de vida.
De su cilindro, el mago cuántico ha sacado tecnologías de alcance inimaginable,
desde los láseres hasta los microscopios de efecto túnel. Sin embargo, algunos de
los genios que ayudaron a crear esta ciencia, escribieron los textos de referencia
y diseñaron muchos inventos milagrosos están todavía en la garra de una gran
angustia. En sus corazones, enterrados en un rincón, todavía existe la sospecha
de que Einstein no se equivocó y que la mecánica cuántica, en toda su gloria, no
es la teoría final de la física. Vamos, ¿cómo es posible que la probabilidad sea
realmente parte de los principios básicos que rigen la naturaleza? Debe haber
algo que se nos escapa. La gravedad, por ejemplo, que ha sido descuidada por la
nueva física durante mucho tiempo; el sueño de llegar a una teoría sólida que
unificara la relatividad general de Einstein y la mecánica cuántica ha llevado a
algunos temerarios a explorar los abismos de los fundamentos, donde sólo las
matemáticas más abstractas proporcionan una luz débil, y a concebir la teoría de
las cuerdas. Pero ¿hay quizás algo más profundo, un componente que falta en los
fundamentos lógicos de la física cuántica? ¿Estamos tratando de completar un
rompecabezas en el que falta una pieza?
Algunas personas esperan con impaciencia llegar pronto a una superteoría que se
reduzca a la mecánica cuántica en ciertas áreas, como sucede con la relatividad
que engloba la mecánica clásica newtoniana y devuelve valor sólo en ciertas
áreas, es decir, cuando los cuerpos en juego se mueven lentamente. Esto
significaría que la física cuántica moderna no es el final de la línea, porque allí,
escondida en lo profundo de la mente de la Naturaleza, existe una teoría
definitiva, mejor, capaz de describir el universo completamente. Esta teoría
podría abordar las fronteras de la física de alta energía, pero también los
mecanismos íntimos de la biología molecular y la teoría de la complejidad.
También podría llevarnos a descubrir fenómenos completamente nuevos que
hasta ahora han escapado al ojo de la ciencia. Después de todo, nuestra especie
se caracteriza por la curiosidad y no puede resistir la tentación de explorar este
excitante y sorprendente micromundo como un planeta que orbita una estrella
distante. Y la investigación también es un gran negocio, si es cierto que el 60%
del PIB americano depende de tecnologías que tienen que ver con la física
cuántica. Así que hay muy buenas razones para continuar explorando los bloques
de construcción sobre los que construimos nuestra comprensión del mundo.
"Los fenómenos cuánticos desafían nuestra comprensión primitiva de la
realidad; nos obligan a reexaminar la idea misma de la existencia", escribe Euan
Squires en el prefacio de su libro El Misterio del Mundo Cuántico. "Estos son
hechos importantes, porque nuestras creencias sobre "lo que existe" ciertamente
influyen en la forma en que concebimos nuestro lugar en el mundo. Por otra
parte, lo que creemos que somos influye en última instancia en nuestra
existencia y en nuestros actos "1. El difunto Heinz Pagels, en su ensayo El
código cósmico, habla de una situación similar a la de un consumidor que tiene
que elegir una variante de la "realidad" entre las muchas que se ofrecen en unos
grandes almacenes2.
En los capítulos anteriores hemos cuestionado la concepción común de la
"realidad" al tratar el teorema de Bell y sus consecuencias experimentales, es
decir, hemos considerado la posibilidad de los efectos no locales: la transferencia
instantánea de información entre dos lugares situados a distancias arbitrarias.
Según el modo de pensar clásico, la medición realizada en un punto "influye" en
las observaciones del otro; pero en realidad el vínculo entre estos dos lugares
viene dado por una propiedad de las dos partículas (fotones, electrones,
neutrones o lo que sea) que nacieron juntas en un estado enmarañado. A su
llegada a los puntos donde se encuentran los dos detectores, si el aparato 1
registra la propiedad A para la partícula receptora, es necesario que el aparato 2
registre la propiedad B, o viceversa. Desde el punto de vista de las funciones de
onda, el acto de medir por el aparato 2 hace que el estado cuántico "colapse"
simultáneamente en cada punto del espacio. Einstein odiaba esto, porque creía
firmemente en la ubicación y la prohibición de exceder la velocidad de la luz.
Gracias a varios experimentos hemos excluido la posibilidad de que los dos
detectores intercambien señales; la existencia de enredo es en cambio un hecho
bien conocido y ampliamente confirmado, por lo que una vez más la física
cuántica es correcta a nivel fundamental. El problema radica en nuestra reacción
a este fenómeno aparentemente paradójico. Un físico teórico escribió que
deberíamos encontrar una forma de "coexistencia pacífica" con la mecánica
cuántica.
El quid de la cuestión es entonces: ¿es la paradoja EPR una ilusión, tal vez
concebida para parecer deliberadamente anti-intuitiva? Incluso el gran Feynman
se sintió desafiado por el teorema de Bell y trató de llegar a una representación
de la mecánica cuántica que lo hiciera más digerible, gracias a su idea de la suma
en los caminos. Como hemos visto, a partir de ciertas ideas de Paul Dirac
inventó una nueva forma de pensar sobre los acontecimientos. En su marco,
cuando una partícula radioactiva decae y da vida a un par de otras partículas, una
con spin up y otra con spin down, tenemos que examinar las dos "vías" que se
determinan. Una, que llamaremos A, lleva la partícula con spin hacia arriba al
detector 1 y la que tiene spin hacia abajo al detector 2; la otra, la ruta B, hace lo
contrario. A y B tienen cuantitativamente dos "amplitudes de probabilidad", que
podemos sumar. Cuando hacemos una medición, también averiguamos cuál de
los dos caminos ha tomado realmente el sistema, si A o B; así, por ejemplo, si
encontramos la partícula con spin up en el punto 1, sabemos que ha pasado por
A. En todo esto, sólo podemos calcular la probabilidad de los distintos caminos.
Con esta nueva concepción del espacio-tiempo, la posibilidad de que la
información se propague instantáneamente incluso a grandes distancias
desaparece. El cuadro general se acerca más al clásico: recordarán el ejemplo en
el que nuestro amigo nos envía a nosotros en la Tierra y a un colega en Rigel 3
una pelota de color, que puede ser roja o azul; si al abrir el paquete vemos la
pelota azul, sabemos en ese mismo instante que el otro recibió la roja. Sin
embargo, nada cambia en el universo. Tal vez este modelo calme nuestros
temores filosóficos sobre la paradoja EPR, pero hay que decir que incluso la
suma de los caminos tiene algunos aspectos realmente desconcertantes. Las
matemáticas que hay detrás funcionan tan bien que el modelo descarta la
presencia de señales que viajan más rápido que la luz. Esto está estrechamente
relacionado con hechos como la existencia de la antimateria y la teoría cuántica
de campos. Por lo tanto, vemos que el universo es concebible como un conjunto
infinito de caminos posibles que gobiernan su evolución en el tiempo. Es como
si hubiera un gigantesco frente de onda de probabilidad en avance. De vez en
cuando tomamos una medida, seleccionamos un camino para un determinado
evento en el espacio-tiempo, pero después de eso la gran ola se sacude y
continúa su carrera hacia el futuro.
Generaciones de físicos han sentido la frustración de no saber qué teoría cuántica
estaban usando realmente. Incluso hoy en día el conflicto entre la intuición, los
experimentos y la realidad cuántica todavía puede ser profundo.
Criptografía cuántica
El problema de la transmisión segura de información no es nuevo. Desde la
antigüedad, el espionaje militar ha usado a menudo códigos secretos, que el
contraespionaje ha tratado de romper. En tiempos de Isabel, el desciframiento de
un mensaje codificado fue la base de la sentencia de muerte de María Estuardo.
Según muchos historiadores, uno de los cruces fundamentales de la Segunda
Guerra Mundial ocurrió cuando en 1942 los aliados derrotaron a Enigma, el
código secreto de los alemanes considerado "invencible ".
Hoy en día, como cualquiera que se mantenga informado sabe, la criptografía ya
no es un asunto de espías y militares. Al introducir la información de su tarjeta
de crédito en eBay o en el sitio web de Amazon, usted asume que la
comunicación está protegida. Pero las compañías de hackers y terroristas de la
información nos hacen darnos cuenta de que la seguridad del comercio, desde el
correo electrónico hasta la banca en línea, pende de un frágil hilo. El gobierno de
EE.UU. se toma en serio el problema, gastando miles de millones de dólares en
él.
La solución más inmediata es introducir una "clave" criptográfica que pueda ser
utilizada tanto por el emisor como por el receptor. La forma estándar de hacer
segura la información confidencial es esconderla en una larga lista de números
aleatorios. Pero sabemos que los espías, hackers y tipos extraños vestidos de
negro con un corazón de piedra y un buen conocimiento del mundo informático
son capaces de entender cómo distinguir la información del ruido.
Aquí es donde entra en juego la mecánica cuántica, que puede ofrecer a la
criptografía los servicios de su especial forma de aleatoriedad, tan extraña y
maravillosa que constituye una barrera infranqueable, y por si fuera poco, es
capaz de informar inmediatamente de cualquier intento de intrusión! Como la
historia de la criptografía está llena de códigos "impenetrables" que en cierto
punto son penetrados por una tecnología superior, está justificado si se toma esta
afirmación con la cantidad adecuada de escepticismo (el caso más famoso es el
ya mencionado de Enigma, la máquina que en la Segunda Guerra Mundial
encriptaba las transmisiones nazis y que se consideraba imbatible: los Aliados
lograron desencriptarla sin que el enemigo se diera cuenta).
Veamos un poco más en detalle cómo funciona la criptografía. La unidad
mínima de información que puede transmitirse es el bit, una abreviatura de
dígito binario, es decir, "número binario". Un poco es simplemente cero o uno.
Si por ejemplo lanzamos una moneda y decidimos que 0 representa la cabeza y 1
la cola, el resultado de cada lanzamiento es un bit y una serie de lanzamientos
puede escribirse de la siguiente manera: 1011000101110100101010111.
Esto es en lo que respecta a la física clásica. En el mundo cuántico hay un
equivalente del bit que ha sido bautizado como qubit (si piensas que tiene algo
que ver con el "codo", una unidad de medida tradicional que también aparece en
la Biblia, estás fuera del camino). También está dada por una variable que puede
asumir dos valores alternativos, en este caso el espín del electrón, igual a arriba o
abajo, que ocupan el lugar de 0 y 1 del bit clásico. Hasta ahora nada nuevo.
Pero un qubit es un estado cuántico, por lo que también puede existir tanto en
forma "mixta" como "pura". Un estado puro no se ve afectado por la
observación. Si medimos el espín de un electrón a lo largo del eje z, será
necesariamente hacia arriba o hacia abajo, dependiendo de su dirección. Si el
electrón se toma al azar, cada uno de estos valores puede presentarse con una
cierta probabilidad. Si, por el contrario, la partícula ha sido emitida de tal manera
que asume necesariamente un cierto spin, la medición sólo la registra sin
cambiar su estado.
En principio podemos, por lo tanto, transmitir la información en forma de código
binario utilizando una colección de electrones (o fotones) con un espín
predeterminado igual a arriba o abajo en el eje z; como todos ellos han sido
"puros", un detector orientado a lo largo del mismo eje los leerá sin perturbarlos.
Pero el eje z debe ser definido, no es una característica intrínseca del espacio.
Aquí, entonces, hay una información secreta que podemos enviar al destinatario
del mensaje: cómo se orienta el eje a lo largo del cual se mide el giro.
Si alguien intenta interceptar la señal con un detector no perfectamente paralelo
a nuestro z, con su medición perturba los estados electrónicos y por lo tanto
obtiene un conjunto de datos sin sentido (sin darse cuenta). Nuestros receptores
que leen el mensaje se dan cuenta en cambio de que algo ha interferido con los
electrones y por lo tanto que ha habido un intento de intrusión: sabemos que hay
un espía escuchando y podemos tomar contramedidas. Y viceversa, si el mensaje
llega sin problemas, podemos estar seguros de que la transmisión se ha realizado
de forma segura. El punto clave de la historia es que el intento de intrusión causa
cambios en el estado de los qubits, de los que tanto el emisor como el receptor
son conscientes.
La transmisión de los estados cuánticos también puede utilizarse para transmitir
con seguridad una "clave", es decir, un número muy grande generado
causalmente, que se utiliza para decodificar la información en ciertos sistemas de
comunicación cifrada. Gracias a los qubits, sabemos si la llave está segura o
comprometida y por lo tanto podemos tomar contramedidas. La criptografía
cuántica ha sido probada hasta ahora en mensajes transmitidos a unos pocos
kilómetros de distancia. Aún pasará algún tiempo antes de que pueda utilizarse
en la práctica, ya que esto requiere una gran inversión en la última generación de
láseres. Pero un día podremos hacer desaparecer para siempre la molestia de
tener que impugnar una compra cargada en nuestra tarjeta de crédito en algún
país lejano donde nunca antes habíamos estado.
Computadoras cuánticas
Sin embargo, hay una amenaza a la seguridad de la criptografía cuántica, y es la
computadora cuántica, el candidato número uno para convertirse en la
supercomputadora del siglo XXI. Según la ley empírica enunciada por Gordon
Moore, "el número de transistores en una ficha se duplica cada veinticuatro
meses "10. Como ha calculado algún bromista, si la tecnología automotriz
hubiera progresado al mismo ritmo que la informática en los últimos treinta
años, ahora tendríamos coches de sesenta gramos que cuestan cuarenta dólares,
con un maletero de un kilómetro cúbico y medio, que no consumen casi nada y
que alcanzan velocidades de hasta un millón y medio de kilómetros por hora11.
En el campo de la informática, hemos pasado de los tubos de vacío a los
transistores y circuitos integrados en menos tiempo que la vida humana. Sin
embargo, la física en la que se basan estas herramientas, incluyendo las mejores
disponibles hoy en día, es clásica. Usando la mecánica cuántica, en teoría,
deberíamos construir nuevas e incluso más poderosas máquinas. Aún no han
aparecido en la oficina de diseño de IBM o en los planes de negocio de las
empresas más audaces de Silicon Valley (al menos hasta donde sabemos), pero
los ordenadores cuánticos harían que el más rápido de los clásicos pareciera
poco más que un ábaco en las manos de una persona mutilada.
La teoría de la computación cuántica hace uso de los ya mencionados qubits y
adapta a la física no clásica la teoría clásica de la información. Los conceptos
fundamentales de esta nueva ciencia fueron establecidos por Richard Feynman y
otros a principios de la década de 1980 y recibieron un impulso decisivo por la
obra de David Deutsch en 1985. Hoy en día es una disciplina en expansión. La
piedra angular ha sido el diseño de "puertas lógicas" (equivalentes informáticos
de los interruptores) que explotan la interferencia y el enredo cuántico para crear
una forma potencialmente mucho más rápida de hacer ciertos cálculos12
La interferencia, explicada por experimentos de doble rendija, es uno de los
fenómenos más extraños del mundo cuántico. Sabemos que sólo dos rendijas en
una pantalla cambian el comportamiento de un fotón que pasa a través de ella de
una manera extraña. La explicación que da la nueva física pone en duda las
amplitudes de probabilidad de los diversos caminos que la partícula puede
seguir, que, si se suman adecuadamente, dan la probabilidad de que termine en
una determinada región del detector. Si en lugar de dos rendijas hubiera mil, el
principio básico no cambiaría y para calcular la probabilidad de que la luz llegue
a tal o cual punto deberíamos tener en cuenta todos los caminos posibles. La
complejidad de la situación aumenta aún más si tomamos dos fotones y no sólo
uno, cada uno de los cuales tiene miles de opciones, lo que eleva el número de
estados totales al orden de los millones. Con tres fotones los estados se
convierten en el orden de los billones, y así sucesivamente. La complejidad
aumenta exponencialmente a medida que aumenta la entrada.
El resultado final es quizás muy simple y predecible, pero hacer todas estas
cuentas es muy poco práctico, con una calculadora clásica. La gran idea de
Feynman fue proponer una calculadora analógica que explotara la física
cuántica: usemos fotones reales y realicemos el experimento, dejando que la
naturaleza complete ese monstruoso cálculo de forma rápida y eficiente. El
ordenador cuántico ideal debería ser capaz de elegir por sí mismo el tipo de
mediciones y experimentos que corresponden al cálculo requerido, y al final de
las operaciones traducir el resultado físico en el resultado numérico. Todo esto
implica el uso de una versión ligeramente más complicada del sistema de doble
rendija.
Los increíbles ordenadores del futuro
Para darnos una idea de lo poderosas que son estas técnicas de cálculo, tomemos
un ejemplo simple y comparemos una situación clásica con la correspondiente
situación cuántica. Partamos de un "registro de 3 bits", es decir, un dispositivo
que en cada instante es capaz de asumir una de estas ocho configuraciones
posibles: 000, 001, 010, 011, 100, 101, 110, 111, correspondientes a los números
0, 1, 2, 3, 4, 5, 6, 7. Un ordenador clásico registra esta información con tres
interruptores que pueden estar abiertos (valor 0) o cerrados (valor 1). Es fácil ver
por analogía que un registro de 4 bits puede codificar dieciséis números, y así
sucesivamente.
Sin embargo, si el registro no es un sistema mecánico o electrónico sino un
átomo, puede existir en un estado mixto, superponiendo el fundamental (que
hacemos corresponder a 0) y el excitado (igual a 1). En otras palabras, es un
qubit. Por lo tanto, un registro de 3 qubits expresa ocho números al mismo
tiempo, un registro de 4 qubits expresa dieciséis y en general un registro de N
qubits contiene 2N.
En los ordenadores clásicos, el bit suele venir dado por la carga eléctrica de un
pequeño condensador, que puede estar cargado (1) o no cargado (0). Ajustando
el flujo de corriente podemos cambiar el valor del bit. En los ordenadores
cuánticos, en cambio, para cambiar un qubit utilizamos un rayo de luz para
poner el átomo en un estado excitado o fundamental. Esto implica que en cada
instante, en cada paso del cálculo, el qubit puede asumir los valores 0 y 1 al
mismo tiempo. Estamos comenzando a realizar un gran potencial.
Con un qubit de 10 registros podemos representar en cada instante todos los
primeros 1024 números. Con dos de ellos, acoplados de forma coincidente,
podemos asegurarnos de tener una tabla de 1024 × 1024 multiplicaciones. Una
computadora tradicional, aunque muy rápida, debería realizar en secuencia más
de un millón de cálculos para obtener todos esos datos, mientras que una
computadora cuántica es capaz de explorar todas las posibilidades
simultáneamente y llegar al resultado correcto en un solo paso, sin esfuerzo.
Esta y otras consideraciones teóricas han llevado a la creencia de que, en algunos
casos, una computadora cuántica resolvería un problema en un año que la más
rápida de las máquinas clásicas no terminaría antes de unos pocos miles de
millones de años. Su poder proviene de la capacidad de operar simultáneamente
en todos los estados y de realizar muchos cálculos en paralelo en una sola unidad
operativa. Pero hay un pero (suspenso: aquí cabría también el Sprach Zarathustra
de Richard Strauss). Antes de invertir todos sus ahorros en una puesta en marcha
de Cupertino, debe saber que varios expertos son escépticos sobre las
aplicaciones informáticas cuánticas (aunque todos están de acuerdo en que los
debates teóricos sobre el tema son valiosos para comprender ciertos fenómenos
cuánticos fundamentales).
Es cierto que algunos problemas importantes pueden ser resueltos de muy buena
manera, pero seguimos hablando de máquinas muy diferentes, diseñadas para
situaciones muy específicas, que difícilmente sustituirán a las actuales. El mundo
clásico es otro tipo de mundo, por lo que no llevamos la máquina rota a la
mecánica cuántica. Una de las mayores dificultades es que estos dispositivos son
muy sensibles a las interferencias con el mundo exterior: si un solo rayo cósmico
hace un estado de cambio de qubits, todo el cálculo se va al infierno. También
son máquinas analógicas, diseñadas para simular un cálculo particular con un
proceso particular, y por lo tanto carecen de la universalidad típica de nuestros
ordenadores, en los que se ejecutan programas de varios tipos que nos hacen
calcular todo lo que queremos. También es muy difícil construirlos en la
práctica. Para que los ordenadores cuánticos se hagan realidad y para que valga
la pena invertir tiempo y dinero en ellos, tendremos que resolver complejos
problemas de fiabilidad y encontrar algoritmos utilizables.
Uno de estos algoritmos potencialmente efectivos es la factorización de grandes
números (en el sentido de descomponerlos en factores primos, como 21=3×7).
Desde el punto de vista clásico, es relativamente fácil multiplicar los números
entre sí, pero en general es muy difícil hacer la operación inversa, es decir,
encontrar los factores de un coloso como:
3 204 637 196 245 567 128 917 346 493 902 297 904 681 379
Este problema tiene importantes aplicaciones en el campo de la criptografía y es
candidato a ser la punta de lanza de la computación cuántica, porque no es
solucionable con las calculadoras clásicas.
Mencionemos también la extraña teoría del matemático inglés Roger Penrose
que concierne a nuestra conciencia. Un ser humano es capaz de realizar ciertos
tipos de cálculos a la velocidad del rayo, como una calculadora, pero lo hace con
métodos muy diferentes. Cuando jugamos al ajedrez contra una computadora,
por ejemplo, asimilamos una gran cantidad de datos sensoriales y los integramos
rápidamente con la experiencia para contrarrestar una máquina que funciona de
manera algorítmica y sistemática. La computadora siempre da resultados
correctos, el cerebro humano a veces no: somos eficientes pero inexactos.
Hemos sacrificado la precisión para aumentar la velocidad.
Según Penrose, la sensación de ser consciente es la suma coherente de muchas
posibilidades, es decir, es un fenómeno cuántico. Por lo tanto, según él, somos a
todos los efectos computadoras cuánticas. Las funciones de onda que usamos
para producir resultados a nivel computacional están quizás distribuidas no sólo
en el cerebro sino en todo el cuerpo. En su ensayo "Sombras de la mente",
Penrose tiene la hipótesis de que las funciones de onda de la conciencia residen
en los misteriosos microtúbulos de las neuronas. Interesante, por decir lo menos,
pero todavía falta una verdadera teoría de la conciencia.
Sea como fuere, la computación cuántica podría encontrar su razón de ser
arrojando luz sobre el papel de la información en la física básica. Tal vez
tengamos éxito tanto en la construcción de nuevas y poderosas máquinas como
en alcanzar una nueva forma de entender el mundo cuántico, tal vez más en
sintonía con nuestras percepciones cambiantes, menos extrañas, fantasmales,
perturbadoras. Si esto realmente sucede, será uno de los raros momentos en la
historia de la ciencia en que otra disciplina (en este caso la teoría de la
información, o tal vez de la conciencia) se fusiona con la física para arrojar luz
sobre su estructura básica.
Gran final
Concluyamos nuestra historia resumiendo las muchas preguntas filosóficas que
esperan respuesta: ¿cómo puede la luz ser tanto una partícula como una onda?
¿hay muchos mundos o sólo uno? ¿hay un código secreto verdaderamente
impenetrable? ¿qué es la realidad a nivel fundamental? ¿están las leyes de la
física reguladas por muchos lanzamientos de dados? ¿tienen sentido estas
preguntas? la respuesta es quizás "tenemos que acostumbrarnos a estas rarezas"?
¿dónde y cuándo tendrá lugar el próximo gran salto científico?
Empezamos con el golpe fatal de Galileo a la física aristotélica. Hemos entrado
en la armonía de relojería del universo clásico de Newton, con sus leyes
deterministas. Podríamos habernos detenido allí, en un sentido real y metafórico,
en esa reconfortante realidad (aunque sin teléfonos móviles). Pero no lo hicimos.
Hemos penetrado en los misterios de la electricidad y el magnetismo, fuerzas
que sólo en el siglo XIX se unieron y tejieron en el tejido de la física clásica,
gracias a Faraday y Maxwell. Nuestros conocimientos parecían entonces tan
completos que a finales de siglo hubo quienes predijeron el fin de la física.
Todos los problemas que valía la pena resolver parecían estar resueltos: bastaba
con añadir algunos detalles, que sin duda entrarían en el marco de las teorías
clásicas. Al final de la línea, abajo vamos; los físicos pueden abrigarse e irse a
casa.
Pero todavía había algún fenómeno incomprensible aquí y allá. Las brasas
ardientes son rojas, mientras que según los cálculos deberían ser azules. ¿Y por
qué no hay rastros de éter? ¿Por qué no podemos ir más rápido que un rayo de
luz? Tal vez la última palabra no se ha dicho todavía. Pronto, el universo sería
revolucionado por una nueva y extraordinaria generación de científicos:
Einstein, Bohr, Schrödinger, Heisenberg, Pauli, Dirac y otros, todos entusiastas
de la idea.
Por supuesto, la vieja y querida mecánica newtoniana sigue funcionando bien en
muchos casos, como el movimiento de los planetas, cohetes, bolas y máquinas
de vapor. Incluso en el siglo veintisiete, una bola lanzada al aire seguirá la
elegante parábola clásica. Pero después de 1900, o más bien 1920, o mejor aún
1930, aquellos que quieren saber cómo funciona realmente el mundo atómico y
subatómico se ven obligados a cambiar de idea y entrar en el reino de la física
cuántica y su intrínseca naturaleza probabilística. Un reino que Einstein nunca
aceptó completamente.
Sabemos que el viaje no ha sido fácil. El omnipresente experimento de la doble
rendija puede causar migrañas. Pero fue sólo el comienzo, porque después
vinieron las vertiginosas alturas de la función de onda de Schrödinger, la
incertidumbre de Heisenberg y la interpretación de Copenhague, así como varias
teorías perturbadoras. Nos encontramos con gatos vivos y muertos al mismo
tiempo, rayos de luz que se comportan como ondas y partículas, sistemas físicos
vinculados al observador, debates sobre el papel de Dios como el jugador de
dados supremo... Y cuando todo parecía tener sentido, aquí vienen otros
rompecabezas: el principio de exclusión de Pauli, la paradoja EPR, el teorema de
Bell. No es material para conversaciones agradables en fiestas, incluso para
adeptos de la Nueva Era que a menudo formulan una versión equivocada de la
misma. Pero nos hemos hecho fuertes y no nos hemos rendido, incluso ante
alguna ecuación inevitable.
Fuimos aventureros y le dimos al público ideas tan extrañas que podían ser
títulos de episodios de Star Trek: "Muchos mundos", "Copenhague" (que en
realidad también es una obra de teatro), "Las cuerdas y la teoría M", "El paisaje
cósmico" y así sucesivamente. Esperamos que hayan disfrutado del viaje y que
ahora, como nosotros, tengan una idea de lo maravilloso y profundamente
misterioso que es nuestro mundo.
En el nuevo siglo se avecina el problema de la conciencia humana. Tal vez
pueda explicarse por los estados cuánticos. Aunque no son pocos los que piensan
así, no es necesariamente así - si dos fenómenos son desconocidos para nosotros,
no están necesariamente conectados.
La mente humana juega un papel en la mecánica cuántica, como recordarán, es
decir, cuando la medición entra en juego. El observador (su mente) interfiere con
el sistema, lo que podría implicar un papel de la conciencia en el mundo físico.
¿La dualidad mente-cuerpo tiene algo que ver con la mecánica cuántica? A pesar
de todo lo que hemos descubierto recientemente sobre cómo el cerebro codifica
y manipula la información para controlar nuestro comportamiento, sigue siendo
un gran misterio: ¿cómo es posible que estas acciones neuroquímicas conduzcan
al "yo", a la "vida interior"? ¿Cómo se genera la sensación de ser quienes
somos?
No faltan críticos de esta correlación entre lo cuántico y la mente, entre ellos el
descubridor de ADN Francis Crick, quien en su ensayo Science and the Soul
escribe: "El yo, mis alegrías y tristezas, mis recuerdos y ambiciones, mi sentido
de la identidad personal y el libre albedrío, no son más que el resultado de la
actividad de un número colosal de neuronas y neurotransmisores".
Esperamos que este sea sólo el comienzo de su viaje y que continúe explorando
las maravillas y aparentes paradojas de nuestro universo cuántico.