0% encontró este documento útil (0 votos)
84 vistas113 páginas

Fisica Cuantica para Principiantes

Descargar como pdf o txt
Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1/ 113

FÍSICA

CUÁNTICA PARA
PRINCIPIANTES:
Los conceptos más interesantes de la Física Cuántica
hechos simples y prácticos | Sin matemáticas difíciles
Tabla de contenido
Capítulo 1 UNA AGRADABLE SORPRESA
Capítulo 2 El comienzo
Capítulo 3 Lo que es la luz
Capítulo 4 SU MAESTREADO SR. PLANCK
Capítulo 5 Un incierto Heisenberg
Capítulo 6 Quantum
Capítulo 7 Einstein y Bohr
Capítulo 8 La física cuántica en los tiempos actuales
Capítulo 9 El tercer milenio
Capítulo 1
UNA AGRADABLE SORPRESA

A ntes de la era cuántica, la ciencia vivía de pronunciamientos decisivos sobre


las causas y efectos de los movimientos: objetos bien definidos se movían a
lo largo de trayectorias precisas, en respuesta a la acción de varias fuerzas.
Pero la ciencia que ahora llamamos clásica, que surgió de las nieblas de una
larga historia y duró hasta finales del siglo XIX, pasó por alto el hecho de que
cada objeto estaba realmente compuesto por un número gigantesco de átomos.
En un grano de arena, por ejemplo, hay varios miles de millones de ellos.
Antes de la era cuántica, cualquiera que observara un fenómeno era como un
extraterrestre del espacio, mirando a la Tierra desde arriba y sólo notando los
movimientos de grandes multitudes de miles y miles de personas. Tal vez los
vieron marchando en filas compactas, o aplaudiendo, o apurando el trabajo, o
dispersándose por las calles. Pero nada de lo que observaron podría prepararlos
para lo que verían al centrar su atención en los individuos. A nivel individual, los
humanos mostraron un comportamiento que no podía ser deducido del de las
multitudes - cosas como la risa, el afecto, la compasión y la creatividad. Los
extraterrestres, tal vez las sondas robóticas o los insectos evolucionados, pueden
no haber tenido las palabras adecuadas para describir lo que vieron cuando nos
observaron de cerca. Por otro lado, incluso nosotros hoy, con toda la literatura y
la poesía acumulada a lo largo de milenios, a veces no podemos comprender
plenamente las experiencias individuales de otros seres humanos.
A principios del siglo XX ocurrió algo similar. El complejo edificio de la física,
con sus predicciones exactas sobre el comportamiento de los objetos, es decir,
las multitudes de átomos, se derrumbó de repente. Gracias a nuevos y
sofisticados experimentos, realizados con gran habilidad, fue posible estudiar las
propiedades no sólo de los átomos individuales, sino también de las partículas
más pequeñas de las que estaban hechas. Era como pasar de escuchar un
conjunto orquestal a cuartetos, tríos y solos. Y los átomos parecían comportarse
de manera desconcertante a los ojos de los más grandes físicos de la época, que
despertaban del sueño de la época clásica. Fueron exploradores de un mundo sin
precedentes, el equivalente a la vanguardia poética, artística y musical de la
época. Entre ellos se encontraban los más famosos: Heinrich Hertz, Ernest
Rutherford, J. J. Thomson, Niels Bohr, Marie Curie, Werner Heisenberg, Erwin
Schrödinger, Paul Dirac, Louis-Victor de Broglie, Albert Einstein, Max Born,
Max Planck y Wolfgang Pauli. La conmoción que sintieron después de hurgar en
el interior de los átomos fue igual a la que la tripulación de la Enterprise debió
experimentar en su primer encuentro con una civilización alienígena encontrada
en la inmensidad del cosmos. La confusión producida por el examen de los
nuevos datos estimuló gradualmente los primeros intentos desesperados de los
físicos de restaurar cierto orden y lógica en su ciencia. A finales de la década de
1920 se podía decir que la estructura fundamental del átomo era ampliamente
conocida, y se podía aplicar a la química y la física de la materia ordinaria. La
humanidad había comenzado a entender realmente lo que estaba sucediendo en
el nuevo y extraño mundo cuántico.
Pero mientras que la tripulación de la Enterprise siempre podía ser
teletransportada lejos de los mundos más hostiles, los físicos de principios del
siglo XX no retrocedieron: se dieron cuenta de que las extrañas leyes que
estaban descubriendo eran fundamentales y subyacentes al comportamiento de
toda la materia del universo. Dado que todo, incluidos los humanos, está hecho
de átomos, es imposible escapar a las consecuencias de lo que ocurre a nivel
atómico. Descubrimos un mundo alienígena, y ese mundo está dentro de
nosotros!
Las impactantes consecuencias de sus descubrimientos molestaron a no pocos
científicos de la época. Un poco como las ideologías revolucionarias, la física
cuántica consumió a muchos de sus profetas. En este caso la ruina no vino de
maquinaciones políticas o conspiraciones de los adversarios, sino de
desconcertantes y profundos problemas filosóficos que tenían que ver con la idea
de la realidad. Cuando, hacia finales de la década de 1920, quedó claro para
todos que se había producido una verdadera revolución en la física, muchos de
los que le habían dado el empujón inicial, incluida una figura del calibre de
Albert Einstein, se arrepintieron y dieron la espalda a la teoría que habían
contribuido significativamente a crear. Sin embargo, hoy, bien entrado el siglo
XXI, usamos la física cuántica y la aplicamos a mil situaciones. Gracias a
ustedes, por ejemplo, hemos inventado los transistores, los láseres, la energía
atómica y un sinfín de cosas más. Algunos físicos, incluso físicos destacados,
continúan usando toda su fuerza para encontrar una versión más suave de la
mecánica cuántica para nuestro sentido común, menos destructiva que la idea
común de la realidad. Pero sería bueno contar con la ciencia, no con algún
paliativo.
Antes de la era cuántica, la física había logrado muy bien describir los
fenómenos que ocurren ante nuestros ojos, resolver problemas en un mundo de
escaleras firmemente apoyadas en las paredes, flechas y balas de cañón lanzadas
según trayectorias precisas, planetas que orbitan y giran sobre sí mismos,
cometas que regresan al tiempo esperado, máquinas de vapor que hacen su
trabajo útil, telégrafos y motores eléctricos. En resumen, a principios del siglo
XX casi todos los fenómenos macroscópicos observables y medibles habían
encontrado una explicación coherente dentro de la llamada física clásica. Pero el
intento de aplicar las mismas leyes al extraño mundo microscópico de los
átomos resultó increíblemente difícil, con profundas implicaciones filosóficas.
La teoría que parecía surgir, la teoría cuántica, iba completamente en contra del
sentido común.
Nuestra intuición se basa en experiencias pasadas, por lo que podemos decir que
incluso la ciencia clásica, en este sentido, fue a veces contraintuitiva, al menos
para la gente de la época. Cuando Galileo descubrió las leyes del movimiento
ideal en ausencia de fricción, sus ideas se consideraron extremadamente
atrevidas (en un mundo en el que nadie o casi nadie había pensado en descuidar
los efectos de la fricción)2. Pero la física clásica que surgió de sus intuiciones
logró redefinir el sentido común durante tres siglos, hasta el siglo XX. Parecía
ser una teoría sólida, resistente a los cambios radicales - hasta que la física
cuántica irrumpió en escena, llevando a un choque existencial como nunca antes.
Para entender realmente el comportamiento de los átomos, para crear una teoría
que estuviera de acuerdo con los datos aparentemente contradictorios que
salieron de los laboratorios en los años 30, era necesario actuar de manera
radical, con una nueva audacia. Las ecuaciones, que hasta entonces calculaban
con precisión la dinámica de los acontecimientos, se convirtieron en
instrumentos para obtener abanicos de posibilidades, cada una de las cuales
podía ocurrir con una probabilidad determinada. Las leyes de Newton, con sus
certezas (de ahí el término "determinismo clásico") fueron sustituidas por las
ecuaciones de Schrödinger y las desconcertantes construcciones matemáticas de
Heisenberg, que hablaban el lenguaje de la indeterminación y el matiz.
¿Cómo se manifiesta esta incertidumbre en la naturaleza, a nivel atómico? En
varias áreas, de las cuales podemos dar un primer y simple ejemplo aquí. La
física atómica nos dice que dada una cierta cantidad de material radiactivo,
digamos uranio, la mitad se transformará por un proceso llamado "decadencia" y
desaparecerá antes de un período fijo de tiempo, llamado "vida media" o "vida
media". Después de otro intervalo de tiempo igual a la vida media, los átomos
restantes se reducirán de nuevo a la mitad (así, después de un tiempo hasta dos
vidas medias, la cantidad de uranio presente al principio se reducirá a un cuarto
del original; después de tres vidas medias, a un octavo; y así sucesivamente).
Gracias a la mecánica cuántica y a algunas ecuaciones complicadas, somos
capaces de calcular en principio el valor de la vida media del uranio, y de
muchas otras partículas fundamentales. Podemos poner a trabajar a equipos de
físicos teóricos y obtener muchos resultados interesantes. Sin embargo, somos
absolutamente incapaces de predecir cuando un átomo de uranio en particular se
descompondrá.
Este es un resultado asombroso. Si los átomos de uranio siguieran las leyes de la
física clásica newtoniana, habría algún mecanismo en funcionamiento que,
siempre que hagamos los cálculos con precisión, nos permitiría predecir
exactamente cuándo decaerá un determinado átomo. Las leyes cuánticas no
ofrecen mecanismos deterministas y nos proporcionan probabilidades y datos
borrosos no por simple desconocimiento del problema, sino por razones más
profundas: según la teoría, la probabilidad de que el decaimiento de ese átomo se
produzca en un determinado período es todo lo que podemos conocer.
Pasemos a otro ejemplo. Consideremos dos fotones idénticos (las partículas de
las que está hecha la luz) y disparémoslos en dirección a una ventana. Hay varias
alternativas: ambos rebotan en el vidrio, ambos lo cruzan, uno rebota y el otro lo
cruza. Bueno, la física cuántica no es capaz de predecir cómo se comportarán los
fotones individuales, cuyo futuro ni siquiera conocemos en principio. Sólo
podemos calcular la probabilidad con la que las diversas alternativas sucederán -
por ejemplo, que el fotón sea rechazado en un 10% y aumente al 90%, pero nada
más. La física cuántica puede parecer vaga e imprecisa en este punto, pero en
realidad proporciona los procedimientos correctos (los únicos procedimientos
correctos, para ser precisos) que nos permiten comprender cómo funciona la
materia. También es la única manera de entender el mundo atómico, la estructura
y el comportamiento de las partículas, la formación de las moléculas, el
mecanismo de la radiación (la luz que vemos proviene de los átomos). Gracias a
ella pudimos, en un segundo tiempo, penetrar en el núcleo, entender cómo los
quarks que forman protones y neutrones se unen, cómo el Sol obtiene su
gigantesca energía, y más.
Pero ¿cómo es posible que la física de Galileo y Newton, tan trágicamente
inadecuada para describir los movimientos atómicos, pueda predecir con unas
pocas y elegantes ecuaciones los movimientos de los cuerpos celestes,
fenómenos como los eclipses o el regreso del cometa Halley en 2061 (un jueves
por la tarde) y las trayectorias de las naves espaciales? Gracias a la física clásica
podemos diseñar las alas de aviones, rascacielos y puentes capaces de soportar
fuertes vientos y terremotos, o robots capaces de realizar cirugías de alta
precisión. ¿Por qué todo funciona tan bien, si la mecánica cuántica nos muestra
tan claramente que el mundo no funciona en absoluto como pensábamos?
Esto es lo que sucede: cuando enormes cantidades de átomos se unen para
formar objetos macroscópicos, como en los ejemplos que acabamos de hacer
(aviones, puentes y robots), los inquietantes y contra-intuitivos fenómenos
cuánticos, con su carga de incertidumbre, parecen anularse entre sí y devuelven
los fenómenos a los cimientos de la precisa previsibilidad de la física
newtoniana. La razón por la que esto sucede, en el dinero, es de naturaleza
estadística. Cuando leemos que el promedio de miembros de las familias
americanas es igual a 2.637 individuos nos enfrentamos a un dato preciso y
determinístico. Lástima, sin embargo, que ninguna familia tenga exactamente
2.637 miembros.
En el siglo XXI la mecánica cuántica se ha convertido en la columna vertebral
de todas las investigaciones en el mundo atómico y subatómico, así como de
amplios sectores de las ciencias de los materiales y la cosmología. Los frutos de
la nueva física generan miles de miles de millones de dólares cada año, gracias a
la industria electrónica, y otros tantos se derivan de las mejoras en la eficiencia y
la productividad que son posibles gracias al uso sistemático de las leyes
cuánticas. Sin embargo, algunos físicos algo rebeldes, impulsados por los vítores
de cierto tipo de filósofos, siguen buscando un significado más profundo, un
principio oculto dentro de la mecánica cuántica en el que se encuentra el
determinismo. Pero es una minoría.
¿Por qué la física cuántica es perturbadora desde el punto de vista psicológico?
En un famoso pasaje de una carta a Max Born, Einstein escribió: "Usted cree que
Dios juega a los dados con el mundo, yo creo en cambio que todo obedece a una
ley, en un mundo de realidad objetiva que trato de captar por medios
furiosamente especulativos [...] Ni siquiera el gran éxito inicial de la teoría
cuántica logra convencerme de que en la base de todo hay azar, aunque sé que
los colegas más jóvenes consideran esta actitud como un efecto de la esclerosis.
3 Erwin Schrödinger pensaba de manera similar: "Si hubiera sabido que mi
ecuación de onda se usaría de esta manera, habría quemado el artículo antes de
publicarlo [...] No me gusta y me arrepiento de haber tenido algo que ver con
ello".4 ¿Qué perturbó a estas eminentes figuras, tanto que se vieron obligadas a
negar su hermosa creación? Entremos en un pequeño detalle sobre estas
lamentaciones, en la protesta de Einstein contra un Dios que "juega a los dados".
El punto de inflexión de la teoría cuántica moderna se remonta a 1925,
precisamente a las solitarias vacaciones que el joven físico alemán Werner
Heisenberg pasó en Helgoland, una pequeña isla del Mar del Norte donde se
había retirado para encontrar alivio a la fiebre del heno. Allí tuvo una idea
revolucionaria.
La comunidad científica apoyó cada vez más la hipótesis de que los átomos
estaban compuestos por un núcleo central más denso rodeado por una nube de
electrones, similar a los planetas que orbitan el Sol. Heisenberg examinó el
comportamiento de estos electrones y se dio cuenta de que para sus cálculos no
era necesario conocer sus trayectorias precisas alrededor del núcleo. Las
partículas parecían saltar misteriosamente de una órbita a otra y en cada salto los
átomos emitían luz de un cierto color (los colores reflejan la frecuencia de las
ondas de luz). Desde un punto de vista matemático, Heisenberg había logrado
encontrar una descripción sensata de estos fenómenos, pero involucraba un
modelo de átomo diferente al de un diminuto sistema solar, con los planetas
confinados en órbitas inmutables. Al final abandonó el cálculo de la trayectoria
de un electrón que se mueve de la posición observada A a B, porque se dio
cuenta de que cualquier medida de la partícula en ese tiempo interferiría
necesariamente con su comportamiento. Así que Heisenberg elaboró una teoría
que tomaba en cuenta los colores de la luz emitida, pero sin requerir el
conocimiento de la trayectoria precisa seguida por el electrón. Al final sólo
importaba que un determinado evento fuera posible y que sucediera con una
cierta probabilidad. La incertidumbre se convirtió en una característica intrínseca
del sistema: nació la nueva realidad de la física cuántica.
La revolucionaria solución de Heisenberg a los problemas planteados por una
serie de desconcertantes datos experimentales desató la imaginación de su
mentor, Niels Bohr, padre, abuelo y obstetra de la nueva teoría. Bohr llevó las
ideas del joven colega al extremo, tanto que el propio Heisenberg se vio
inicialmente perturbado. Finalmente cambió de opinión y se convirtió al nuevo
verbo, lo que muchos de sus eminentes colegas se negaron a hacer. Bohr había
razonado de esta manera: si conocer el camino que ha recorrido un determinado
electrón no es relevante para el cálculo de los fenómenos atómicos, entonces la
idea misma de "órbita", de una trayectoria establecida como la de un planeta
alrededor de una estrella, debe ser abandonada por carecer de sentido. Todo se
reduce a la observación y a la medición: el acto de medir obliga al sistema a
elegir entre las distintas posibilidades. En otras palabras, no es la incertidumbre
de la medición lo que oculta la realidad; por el contrario, es la realidad misma la
que nunca proporciona certeza en el sentido clásico-galileo del término, cuando
se examinan los fenómenos a escala atómica.
En la física cuántica parece haber un vínculo mágico entre el estado físico de un
sistema y su percepción consciente por parte de un observador sensible. Pero es
el mismo acto de medir, es decir, la llegada de otro sistema a la escena, lo que
restablece todas las posibilidades menos una, haciendo que el estado cuántico
"colapse", como se dice, en una de las muchas alternativas. Veremos cuán
inquietante puede ser esto más adelante, cuando nos encontremos con electrones
que pasan de uno en uno a través de dos rendijas en una pantalla y que forman
configuraciones que dependen del conocimiento de la rendija precisa por la que
pasaron, es decir, si alguien o algo ha hecho una medición en el sistema. Parece
que un solo electrón, como por arte de magia, pasa por las dos rendijas al mismo
tiempo si nadie lo está observando, mientras que elige un posible camino si
alguien o algo lo está observando! Esto es posible porque los electrones no son
ni partículas ni ondas: son algo más, completamente nuevo. Han sido cuánticos.6
No es de extrañar que muchos de los pioneros de la nueva física, que habían
participado en la creación de la ciencia atómica, fueran reacios a aceptar estas
extrañas consecuencias. La mejor manera de dorar la píldora y hacer que las tesis
de Heisenberg y Bohr sean aceptadas es la llamada "interpretación de
Copenhague". Según esta versión de los hechos, cuando medimos un sistema a
escala atómica introducimos en el propio sistema una importante interferencia,
dada por los instrumentos de medición. Pero cualquiera que sea la interpretación
que demos, la física cuántica no corresponde a nuestras ideas intuitivas de la
realidad. Debemos aprender a vivir con ella, a jugar con ella, a verificar su
bondad con experimentos, a imaginar problemas teóricos que ejemplifiquen
diversas situaciones, a hacerla cada vez más familiar. De esta manera podríamos
desarrollar una nueva "intuición cuántica", por muy contraria al sentido común
que pueda parecer en un principio.
En 1925, independientemente de las ideas de Heisenberg, otro físico teórico
tenía otra idea fundamental, también mientras estaba de vacaciones (aunque no
solo). Fue el vienés Erwin Schrödinger, quien había formado un vínculo de
amistad y colaboración científica con su colega Hermann Weyl. Este último fue
un matemático de gran valor, que desempeñó un papel decisivo en el desarrollo
de la teoría de la relatividad y la versión relativista de la teoría del electrón.
Weyl ayudó a Schrödinger con los cálculos y como compensación pudo dormir
con su esposa Anny. No sabemos qué pensaba la mujer sobre el asunto, pero
experimentos sociales de este tipo no eran infrecuentes en el crepúsculo de la
sociedad intelectual vienesa. Este acuerdo también incluía la posibilidad de que
Schrödinger se embarcara en mil aventuras extramatrimoniales, una de las cuales
condujo (en cierto sentido) a un gran descubrimiento en el campo cuántico7.
En diciembre de 1925, Schrödinger se fue de vacaciones durante veinte días a
Arosa, un pueblo de los Alpes suizos. Dejando a Anny en casa, fue acompañado
por una vieja llama vienesa. También puso un artículo científico de su colega
francés Louis de Broglie y tapones para los oídos en su maleta. Mientras se
concentraba en su escritura, al abrigo de ruidos molestos (y quién sabe qué hacía
la señora mientras tanto), se le ocurrió la idea de la llamada "mecánica de las
olas". Era una forma nueva y diferente de formalizar la naciente teoría cuántica
en términos matemáticamente más sencillos, gracias a ecuaciones que eran
generalmente bien conocidas por los principales físicos de la época. Esta
revolucionaria idea fue un gran apoyo para la entonces frágil teoría cuántica, que
llegó a ser conocida por un número mucho mayor de personas . La nueva
ecuación, que en honor a su descubridor se llama "ecuación de Schrödinger", por
un lado, aceleró el camino de la mecánica cuántica, pero por otro, volvió loco a
su inventor por la forma en que fue interpretada. Es sorprendente leer el
arrepentimiento de Schrödinger, debido a la revolución científica y filosófica
provocada por sus ideas.
La idea era esta: describir el electrón con las herramientas matemáticas utilizadas
para las ondas. Esta partícula, que antes se pensaba que estaba modelada como
una bola microscópica, a veces se comporta como una onda. La física de las
ondas (fenómenos que se encuentran en muchas áreas, desde el agua hasta el
sonido, desde la luz hasta la radio, etc.) era entonces bien conocida. Schrödinger
estaba muy convencido de que una partícula como el electrón era realmente una
onda de un nuevo tipo, una "onda de materia", por así decirlo. Parecía una
hipótesis de bizcocho, pero la ecuación resultante era útil en los cálculos y
proporcionaba resultados concretos de manera relativamente sencilla. La
mecánica ondulatoria de Schrödinger dio consuelo a aquellos sectores de la
comunidad científica cuyos miembros tenían grandes dificultades para
comprender la aparentemente imparable teoría cuántica y que encontraban la
versión de Heisenberg demasiado abstracta para su gusto.
El punto central de la idea de Schrödinger es el tipo de solución de la ecuación
que describe la onda. Está escrito por convención con la letra griega mayúscula
psi, Ψ - la llamada "función de onda". Ψ es una función en las variables espacio
y tiempo que contiene toda la información sobre el electrón. La ecuación de
Schrödinger, por lo tanto, nos dice cómo varía la función de la onda a medida
que cambia el espacio y el tiempo.
Aplicada al átomo de hidrógeno, la ecuación de Schrödinger permitió descubrir
el comportamiento del electrón alrededor del núcleo. Las ondas electrónicas
determinadas por Ψ se asemejaban a las ondas sonoras producidas por una
campana o algún otro instrumento musical. Es como tocar las cuerdas de un
violín o una guitarra: el resultado son vibraciones que corresponden de manera
precisa y observable a varios niveles de energía. La ecuación de Schrödinger
proporcionó los valores correctos de estos niveles correspondientes a las
oscilaciones del electrón. Los datos en el caso del átomo de hidrógeno ya habían
sido determinados por Bohr en su primer intento de arreglo teórico (que hoy en
día se denomina con cierta suficiencia "vieja teoría cuántica"). El átomo emite
luz con niveles de energía bien definidos (las llamadas "líneas espectrales") que
gracias a la mecánica cuántica hoy sabemos que están conectadas a los saltos del
electrón, que pasa de un estado de movimiento asociado a la onda digamos Ψ2 al
asociado a la onda Ψ1.
La ecuación de Schrödinger demostró ser una herramienta poderosa, gracias a la
cual las funciones de onda pueden ser determinadas a través de métodos
puramente matemáticos. La misma idea podría aplicarse no sólo a los electrones,
sino a cualquier fenómeno que requiriera un tratamiento a nivel cuántico:
sistemas compuestos por varios electrones, átomos enteros, moléculas, cristales,
metales conductores, protones y neutrones en el núcleo. Hoy hemos extendido el
método a todas las partículas compuestas por quarks, los bloques de
construcción fundamentales de la materia nuclear.
Para Schrödinger, los electrones eran ondas puras y simples, similares a las
ondas marinas o de sonido, y su naturaleza de partículas podía ser pasada por
alto como ilusoria. Ψ representaba ondas de un nuevo tipo, las de la materia.
Pero al final, esta interpretación suya resultó ser errónea. ¿Qué era realmente Ψ?
Después de todo, los electrones siguieron comportándose como si fueran
partículas puntuales, que se podían ver cuando chocaban con una pantalla
fluorescente, por ejemplo. ¿Cómo se reconcilió este comportamiento con la
naturaleza ondulatoria?
Otro físico alemán, Max Born (quien, por cierto, fue un antepasado de la
cantante Olivia Newton-John), propuso una nueva interpretación de la ecuación
de Schrödinger, que sigue siendo una piedra angular de la física actual. Según él,
la onda asociada con el electrón era la llamada "onda de probabilidad "10 . Para
ser precisos, el cuadrado de Ψ(x, t), es decir, Ψ2(x, t), era la probabilidad de
encontrar el electrón en el punto x en el tiempo t. Cuando el valor de Ψ2 es alto,
hay una fuerte probabilidad de encontrar el electrón. Donde Ψ2=0, por otro lado,
no hay ninguna posibilidad. Fue una propuesta impactante, similar a la de
Heisenberg, pero tuvo el mérito de ser más fácil de entender, porque fue
formulada dentro del terreno más familiar de la ecuación de Schrödinger. Casi
todo el mundo estaba convencido y el asunto parecía cerrado.
La hipótesis de Born establece claramente que no sabemos y nunca podremos
saber dónde está el electrón. ¿Está ahí? Bueno, hay un 85% de probabilidades de
que así sea. ¿Está en el otro lado? No podemos descartarlo, hay un 15% de
posibilidades. La interpretación de Born también define sin vacilación lo que
puede o no puede predecirse en los experimentos, y no excluye el caso de que
dos pruebas aparentemente idénticas den resultados muy diferentes. Parece que
las partículas pueden permitirse el lujo de estar donde están en un momento
determinado sin tener que obedecer las estrictas reglas de causalidad que suelen
asociarse a la física clásica. La teoría cuántica parece como si Dios estuviera
jugando a los dados con el universo.
Schrödinger no estaba contento de haber sido protagonista de esa inquietante
revolución. Junto con Einstein, quien irónicamente escribió un artículo en 1911
que dio a Born la inspiración para su idea, permaneció en el campo de los
disidentes toda su vida. Otro "transeúnte" fue el gran Max Planck, quien
escribió: "La interpretación probabilística propuesta por el grupo de Copenhague
debe ser condenada sin falta, por alta traición contra nuestro querido físico".
Planck era uno de los más grandes físicos teóricos activos a principios de siglo, y
a él tampoco le gustaba el pliegue que había tomado la teoría cuántica. Era la
paradoja suprema, ya que él había sido el verdadero progenitor de la nueva
física, además de haber acuñado el término "cuántico" ya a finales del siglo XIX.
Tal vez podamos entender al científico que habla de "traición" con respecto a la
entrada de la probabilidad en las leyes de la física en lugar de certezas sólidas de
causa y efecto. Imaginemos que tenemos una pelota de tenis normal y la
hacemos rebotar contra un muro de hormigón liso. No nos movemos del punto
donde lo lanzamos y seguimos golpeándolo con la misma fuerza y apuntando en
la misma dirección. Bajo las mismas condiciones de límite (como el viento), un
buen jugador de tenis debe ser capaz de llevar la pelota exactamente al mismo
lugar, tiro tras tiro, hasta que se canse o la pelota (o la pared) se rompa. Un
campeón como André Agassi contaba con estas características del mundo físico
para desarrollar en el entrenamiento las habilidades que le permitieron ganar
Wimbledon. ¿Pero qué pasaría si el rebote no fuera predecible? ¿O si en alguna
ocasión la bola pudo incluso cruzar la pared? ¿Y si sólo se conoce la
probabilidad del fenómeno? Por ejemplo, cincuenta y cinco veces de cada cien la
pelota regresa, las otras cuarenta y cinco pasan a través de la pared. Y así
sucesivamente, para todo: también hay una probabilidad de que pase a través de
la barrera formada por la raqueta. Sabemos que esto nunca sucede en el mundo
macroscópico y newtoniano de los torneos de tenis. Pero a nivel atómico todo
cambia. Un electrón disparado contra el equivalente de una pared de partículas
tiene una probabilidad diferente de cero de atravesarla, gracias a una propiedad
conocida como "efecto túnel". Imagine el tipo de dificultad y frustración que un
jugador de tenis encontraría en el mundo subatómico.
Sin embargo, hay casos en los que se observa un comportamiento no
determinante en la realidad cotidiana, especialmente en la de los fotones. Miras a
través del escaparate de una tienda llena de ropa interior sexy, y te das cuenta de
que se ha formado una imagen descolorida de ti mismo en los zapatos del
maniquí. ¿Por qué? El fenómeno se debe a la naturaleza de la luz, una corriente
de partículas (fotones) con extrañas propiedades cuánticas. Los fotones, que
suponemos que vienen del Sol, en su mayoría rebotan en tu cara, atraviesan el
cristal y muestran una imagen clara de ti (pero no eres malo) a la persona que
está dentro de la tienda (tal vez el escaparatista que está vistiendo el maniquí).
Pero una pequeña parte de los fotones se refleja en el vidrio y proporciona a los
ojos el tenue retrato de su rostro perdido en la contemplación de esas ropas
microscópicas. ¿Pero cómo es posible, ya que todos los fotones son idénticos?
Incluso con los experimentos más sofisticados, no hay manera de predecir lo que
pasará con los fotones. Sólo conocemos la probabilidad del evento: aplicando la
ecuación de Schrödinger, podemos calcular que las partículas luminosas pasan a
través de la ventana 96 veces de cada 100 y rebotan las 4 veces restantes.
¿Somos capaces de saber lo que hace el fotón único? No, de ninguna manera, ni
siquiera con los mejores instrumentos imaginables. Dios tira los dados cada vez
para decidir por dónde pasar la partícula, o al menos eso es lo que nos dice la
física cuántica (tal vez prefiere la ruleta... lo que sea, está claro que juega con
probabilidades).
Para replicar la situación de la vitrina en un contexto experimental (y mucho más
costoso), disparamos electrones contra una barrera formada por una red de
cables conductores dentro de un contenedor al vacío, conectados al polo
negativo de una batería con un voltaje igual, por ejemplo, a 10 voltios. Un
electrón con una energía equivalente a un potencial de 9 voltios debe ser
reflejado, porque no puede contrarrestar la fuerza de repulsión de la barrera. Pero
la ecuación de Schrödinger nos dice que una parte de la onda asociada con el
electrón todavía se las arregla para pasar a través de ella, tal como lo hizo con
los fotones con el vidrio. Pero en nuestra experiencia no hay "fracciones" de
fotón o electrón: estas partículas no están hechas de plastilina y no se pueden
desprender pedazos de ellas a voluntad. Así que el resultado final siempre debe
ser uno, es decir, la reflexión o el cruce. Si los cálculos nos dicen que la primera
eventualidad ocurre en el 20 por ciento de los casos, esto significa que todo el
electrón o fotón se refleja con una probabilidad del 20 por ciento. Lo sabemos
gracias a la ecuación de Schrödinger, que nos da el resultado en términos de Ψ2.
Fue precisamente con la ayuda de experimentos análogos que los físicos
abandonaron la interpretación original de Schrödinger, que preveía electrones de
"plastilina", es decir, ondas de materia, para llegar a la mucho menos intuitiva
probabilística, según la cual una cierta función matemática, Ψ2, proporcionaba la
probabilidad de encontrar partículas en una determinada posición en un instante
dado. Si disparamos mil electrones contra una pantalla y comprobamos con un
contador Geiger cuántos de ellos pasan por ella, podemos encontrar que 568 han
pasado y 432 se han reflejado. ¿A cuál de ellos le afectó esto? No hay forma de
saberlo, ni ahora ni nunca. Esta es la frustrante realidad de la física cuántica.
Todo lo que podemos hacer es calcular la probabilidad del evento, Ψ2.
Schrödinger tenía un gatito...
Al examinar las paradojas filosóficas que aporta la teoría cuántica no podemos
pasar por alto el ya famoso caso del gato de Schrödinger, en el que el divertido
mundo microscópico con sus leyes probabilísticas está ligado al macroscópico
con sus precisos pronunciamientos newtonianos. Al igual que Einstein, Podolsky
y Rosen, Schrödinger no quería aceptar el hecho de que la realidad objetiva no
existía antes de la observación, sino que se encontraba en una maraña de estados
posibles. Su paradoja del gato fue originalmente pensada como una forma de
burlarse de una visión del mundo que era insostenible para él, pero ha
demostrado ser una de las pesadillas más tenaces de la ciencia moderna hasta el
día de hoy. Esto también, como el EPR, es un experimento mental o conceptual,
diseñado para hacer que los efectos cuánticos se manifiesten de manera
resonante incluso en el campo macroscópico. Y también hace uso de la
radiactividad, un fenómeno que implica el decaimiento de la materia según una
tasa predecible, pero sin saber exactamente cuándo se desintegrará la única
partícula (es decir, como hemos visto anteriormente, podemos decir cuántas
partículas decaerán en una hora, por ejemplo, pero no cuándo lo hará una de
ellas).
Esta es la situación imaginada por Schrödinger. Encerramos un gato dentro de
una caja junto con un frasco que contiene un gas venenoso. Por otro lado,
ponemos una pequeña y bien sellada cantidad de material radioactivo para tener
un 50% de posibilidades de ver una sola descomposición en el espacio de una
hora. Inventemos algún tipo de dispositivo que conecte el contador Geiger que
detecta la descomposición a un interruptor, que a su vez activa un martillo, que a
su vez golpea el vial, liberando así el gas y matando al gato (por supuesto estos
intelectuales vieneses de principios del siglo XX eran muy extraños...).
Dejemos pasar una hora y preguntémonos: ¿el gato está vivo o muerto? Si
describimos el sistema con una función de onda, obtenemos un estado "mixto
"15 como el que se ha visto anteriormente, en el que el gato es "embadurnado"
(pedimos disculpas a los amantes de los gatos) a partes iguales entre la vida y la
muerte. En los símbolos podríamos escribir Ψgatto-vivo + Ψgatto-morto. A nivel
macroscópico, sólo podemos calcular la probabilidad de encontrar al gato vivo,
igual a (Ψgatto-live)2, y la de encontrarlo muerto, igual a (Ψgatto-dead)2.
Pero aquí está el dilema: ¿el colapso del estado cuántico inicial en el "gato vivo"
o en el "gato muerto" está determinado por el momento en que alguien (o algo)
se asoma a la caja? ¿No podría ser el propio gato, angustiado al mirar el contador
Geiger, la entidad capaz de tomar la medida? O, si queremos una crisis de
identidad más profunda: la desintegración radiactiva podría ser monitoreada por
una computadora, que en cualquier momento es capaz de imprimir el estado del
gato en una hoja de papel dentro de la caja. Cuando la computadora registra la
llegada de la partícula, ¿el gato está definitivamente vivo o muerto? ¿O es
cuando la impresión del estado está terminada? ¿O cuando un observador
humano lo lee? ¿O cuando el flujo de electrones producido por la
descomposición se encuentra con un sensor dentro del contador Geiger que lo
activa, es decir, cuando pasamos del mundo subatómico al macroscópico? La
paradoja del gato de Schrödinger, como la del EPR, parece a primera vista una
fuerte refutación de los principios fundamentales de la física cuántica. Está claro
que el gato no puede estar en un estado "mixto", mitad vivo y mitad muerto. ¿O
puede?
Como veremos mejor más adelante, algunos experimentos han demostrado que
el gato visible de Schrödinger, que representa a todos los sistemas
macroscópicos, puede estar realmente en un estado mixto; en otras palabras, la
teoría cuántica implica la existencia de estas situaciones también a nivel
macroscópico. Otra victoria para la nueva física.
Los efectos cuánticos, de hecho, pueden ocurrir a varias escalas, desde el más
pequeño de los átomos hasta el más grande de los sistemas. Un ejemplo de ello
es la llamada "superconductividad", por la que a muy bajas temperaturas ciertos
materiales no tienen resistencia eléctrica y permiten que la corriente circule
infinitamente sin la ayuda de baterías, y que los imanes permanezcan
suspendidos sobre los circuitos para siempre. Lo mismo ocurre con la
"superfluidez", un estado de la materia en el que, por ejemplo, un flujo de helio
líquido puede subir por las paredes de un tubo de ensayo o alimentar fuentes
perpetuas, sin consumir energía. Y lo mismo ocurre con el misterioso fenómeno
gracias al cual todas las partículas adquieren masa, el llamado "mecanismo de
Higgs". No hay forma de escapar de la mecánica cuántica: al final, todos somos
gatos encerrados en alguna caja.
No hay matemáticas, lo prometo, pero sólo unos pocos números...
Con este libro queremos dar una idea de las herramientas que la física ha
desarrollado para intentar comprender el extraño mundo microscópico habitado
por los átomos y las moléculas. Pedimos a los lectores sólo dos pequeños
esfuerzos: tener un sano sentido de la curiosidad por el mundo y dominar las
técnicas avanzadas de resolución de ecuaciones diferenciales con derivadas
parciales. Muy bien, bromeamos. Después de años de dar cursos de física
elemental a estudiantes de facultades no científicas, sabemos lo extendido que
está el terror a las matemáticas entre la población. No hay fórmulas, entonces, o
al menos el mínimo, unas pocas y dispersas aquí y allá.
La visión científica del mundo debería ser enseñada a todo el mundo. La
mecánica cuántica, en particular, es el cambio de perspectiva más radical que se
ha producido en el pensamiento humano desde que los antiguos griegos
comenzaron a abandonar el mito en favor de la búsqueda de principios
racionales en el universo. Gracias a la nueva teoría, nuestra comprensión del
mundo se ha ampliado enormemente. El precio pagado por la ciencia moderna
por esta ampliación de los horizontes intelectuales ha sido la aceptación de
muchas ideas aparentemente contrarias a la intuición. Pero recuerden que la
culpa de esto recae principalmente en nuestro viejo lenguaje newtoniano, que es
incapaz de describir con precisión el mundo atómico. Como científicos,
prometemos hacer lo mejor posible.
Como estamos a punto de entrar en el reino de lo infinitamente pequeño, es
mejor que usemos la conveniente notación de los "poderes de diez". No se asuste
por esta taquigrafía científica que a veces usaremos en el libro: es sólo un
método para registrar sin esfuerzo números muy grandes o muy pequeños. Si ves
escrito por ejemplo 104 ("diez elevado a la cuarta potencia", o "diez a la
cuarta"), todo lo que tienes que hacer es traducirlo como "uno seguido de cuatro
ceros": 104=10000. Por el contrario, 10-4 indica "uno precedido de cuatro
ceros", uno de los cuales debe estar obviamente antes de la coma: 10-4=0,0001,
es decir, 1/10000, una diezmilésima.
Usando este simple lenguaje, veamos cómo expresar las escalas en las que
ocurren varios fenómenos naturales, en orden descendente.
- 100 m=1 m, es decir un metro: es la típica escala humana, igual a la altura de
un niño, la longitud de un brazo o un escalón;
- 10-2 m=1 cm, es decir un centímetro: es el ancho de una pulgada, el largo de
una abeja o una avellana.
- 10-4 m, un décimo de milímetro: es el grosor de un alfiler o de las patas de una
hormiga; hasta ahora siempre estamos en el dominio de aplicación de la física
clásica newtoniana.
- 10-6 m, una micra o millonésima de metro: estamos al nivel de las mayores
moléculas que se encuentran en las células de los organismos, como el ADN;
también estamos en la longitud de onda de la luz visible; aquí empezamos a
sentir los efectos cuánticos.
- 10-9 m, un nanómetro o una milmillonésima parte de un metro: este es el
diámetro de un átomo de oro; el más pequeño de los átomos, el átomo de
hidrógeno, tiene un diámetro de 10-10 m.
- 10-15 m: estamos en las partes del núcleo atómico; los protones y los neutrones
tienen un diámetro de 10-16 m, y por debajo de esta longitud encontramos los
quarks.
- 10-19 m: es la escala más pequeña que se puede observar con el acelerador de
partículas más potente del mundo, el LHC del CERN en Ginebra.
- 10-35 m: es la escala más pequeña que creemos que existe, bajo la cual la
misma idea de "distancia" pierde su significado debido a los efectos cuánticos.
Los datos experimentales nos dicen que la mecánica cuántica es válida y
fundamental para la comprensión de los fenómenos de 10-9 a 10-15 metros, es
decir, de los átomos a los núcleos (en palabras: de una milmillonésima a una
millonésima de una milmillonésima de metro). En algunas investigaciones
recientes, gracias al Tevatrón del Fermilab, hemos podido investigar distancias
del orden de 10-18 metros y no hemos visto nada que nos convenza del fracaso a
esa escala de la mecánica cuántica. Pronto penetraremos en territorios más
pequeños por un factor de diez, gracias al colosal LHC, el acelerador del CERN
que está a punto de empezar a funcionar.* La exploración de estos nuevos
mundos no es similar a la geográfica, al descubrimiento de un nuevo continente
hasta ahora desconocido. Es más bien una investigación dentro de nuestro
mundo, porque el universo se compone de la colección de todos los habitantes
del dominio microscópico. De sus propiedades, y sus consecuencias, depende
nuestro futuro.
¿Por qué necesitamos una "teoría"?
Algunos de ustedes se preguntarán si una simple teoría vale la pena. Bueno, hay
teorías y teorías, y es culpa de nosotros los científicos que usamos la misma
palabra para indicar contextos muy diferentes. En sí misma, una "teoría" no está
ni siquiera científicamente bien definida.
Tomemos un ejemplo un tanto trivial. Una población que vive a orillas del
Océano Atlántico nota que el Sol sale en el horizonte todas las mañanas a las 5
a.m. y se pone en dirección opuesta todas las tardes a las 7 p.m. Para explicar
este fenómeno, un venerable sabio propone una teoría: hay un número infinito de
soles ocultos bajo el horizonte, que aparecen cada 24 horas. Sin embargo, hay
una hipótesis que requiere menos recursos: todo lo que se necesita es un solo Sol
girando alrededor de la Tierra, supuestamente esférico, en 24 horas. Una tercera
teoría, la más extraña y contraria a la intuición, argumenta en cambio que el Sol
se queda quieto y la Tierra gira sobre sí misma en 24 horas. Así que tenemos tres
ideas contradictorias. En este caso la palabra "teoría" implica la presencia de una
hipótesis que explica de manera racional y sistemática por qué ocurre lo que
observamos.
La primera teoría es fácilmente refutada, por muchas buenas razones (o
simplemente porque es idiota). Es más difícil deshacerse del segundo; por
ejemplo, se podría observar que los otros planetas del cielo giran sobre sí
mismos, así que por analogía la Tierra debería hacer lo mismo. Sea como fuere,
al final, gracias a precisas mediciones experimentales, comprobamos que es
nuestro mundo el que gira. Así que sólo una teoría sobrevive, que llamaremos
rotación axial o RA.
Sin embargo, hay un problema: en toda la discusión anterior nunca hablamos de
"verdades" o "hechos", sólo de "teorías". Sabemos muy bien que la RA tiene
siglos de antigüedad, y sin embargo todavía la llamamos "teoría copernicana",
aunque estamos seguros de que es verdad, que es un hecho establecido. En
realidad, queremos subrayar el hecho de que la hipótesis de la AR es la mejor, en
el sentido de que encaja mejor con las observaciones y pruebas, que son muy
diferentes e incluso realizadas en circunstancias extremas. Hasta que tengamos
una mejor explicación, nos quedaremos con ésta. Sin embargo, seguimos
llamándolo teoría. Tal vez porque hemos visto en el pasado que las ideas dadas
por sentadas en algunas áreas han requerido cambios en el cambio a diferentes
áreas.
Así que hoy en día hablamos de "teoría de la relatividad", "teoría cuántica",
"teoría del electromagnetismo", "teoría darwiniana de la evolución" y así
sucesivamente, aunque sabemos que todas ellas han alcanzado un mayor grado
de credibilidad y aceptación científica. Sus explicaciones de los diversos
fenómenos son válidas y se consideran "verdades objetivas" en sus respectivos
ámbitos de aplicación. También hay teorías propuestas pero no verificadas,
como la de las cuerdas, que parecen excelentes intentos, pero que podrían ser
aceptadas como rechazadas. Y hay teorías que se abandonan definitivamente,
como la del flogisto (un misterioso fluido responsable de la combustión) y la
calórica (un fluido igualmente misterioso responsable de la transmisión del
calor). Sin embargo, hoy en día, la teoría cuántica es la mejor verificada de todas
las teorías científicas jamás propuestas. Aceptémoslo como un hecho: es un
hecho.
Basta con lo intuitivo, hurra por lo contrario.
A medida que nos acercamos a los nuevos territorios atómicos, todo lo que la
intuición sugiere se vuelve sospechoso y la información acumulada hasta ahora
puede ya no sernos útil. La vida cotidiana tiene lugar dentro de una gama muy
limitada de experiencias. No sabemos, por ejemplo, lo que se siente al viajar un
millón de veces más rápido que una bala, o al soportar temperaturas de miles de
millones de grados; tampoco hemos bailado nunca en la luna llena con un átomo
o un núcleo. La ciencia, sin embargo, ha compensado nuestra limitada
experiencia directa con la naturaleza y nos ha hecho conscientes de lo grande y
lleno de cosas diferentes que es el mundo ahí fuera. Para usar la metáfora
querida por un colega nuestro, somos como embriones de gallina que se
alimentan de lo que encuentran en el huevo hasta que se acaba la comida, y
parece que nuestro mundo también debe acabar; pero entonces intentamos darle
un pico a la cáscara, salir y descubrir un universo inmensamente más grande e
interesante.
Entre las diversas intuiciones típicas de un ser humano adulto está la de que los
objetos que nos rodean, ya sean sillas, lámparas o gatos, existen
independientemente de nosotros y tienen ciertas propiedades objetivas. También
creemos, basándonos en lo que estudiamos en la escuela, que si repetimos un
experimento en varias ocasiones (por ejemplo, si dejamos que dos coches
diferentes circulen por una rampa) deberíamos obtener siempre los mismos
resultados. También es obvio, intuitivo, que una pelota de tenis que pasa de una
mitad de la cancha a otra tiene una posición y velocidad definidas en todo
momento. Basta con filmar el evento, es decir, obtener una colección de
instantáneas, conocer la situación en varios momentos y reconstruir la
trayectoria general del balón.
Estas intuiciones siguen ayudándonos en el mundo macroscópico, entre
máquinas y bolas, pero como ya hemos visto (y volveremos a ver en el curso del
libro), si bajamos al nivel atómico vemos que ocurren cosas extrañas, que nos
obligan a abandonar los preconceptos que nos son tan queridos: prepárense para
dejar sus intuiciones en la entrada, queridos lectores. La historia de la ciencia es
una historia de revoluciones, pero no tiran todo el conocimiento previo. El
trabajo de Newton, por ejemplo, comprendió y amplió (sin destruirlos) las
investigaciones previas de Galileo, Kepler y Copérnico. James Clerk Maxwell,
inventor de la teoría del electromagnetismo en el siglo XIX17 , tomó los
resultados de Newton y los usó para extender ciertos aspectos de la teoría a otros
campos. La relatividad einsteniana incorporó la física de Newton y amplió su
dominio hasta incluir casos en los que la velocidad es muy alta o el espacio muy
extendido, campos en los que las nuevas ecuaciones son válidas (mientras que
las antiguas siguen siendo válidas en los demás casos). La mecánica cuántica
partió de Newton y Maxwell para llegar a una teoría coherente de los fenómenos
atómicos. En todos estos casos, el paso a las nuevas teorías se hizo, al menos al
principio, utilizando el lenguaje de las antiguas; pero con la mecánica cuántica
vemos el fracaso del lenguaje clásico de la física anterior, así como de los
lenguajes humanos naturales.
Einstein y sus colegas disidentes se enfrentaron a nuestra propia dificultad, es
decir, entender la nueva física atómica a través del vocabulario y la filosofía de
los objetos macroscópicos. Tenemos que aprender a entender que el mundo de
Newton y Maxwell se encuentra como consecuencia de la nueva teoría, que se
expresa en el lenguaje cuántico. Si fuéramos también tan grandes como los
átomos, habríamos crecido rodeados de fenómenos que nos serían familiares; y
tal vez un día un alienígena tan grande como un quark nos preguntaría, "¿Qué
clase de mundo crees que obtenemos si juntamos 1023 átomos y formamos un
objeto que yo llamo una "bola"?
Tal vez sean los conceptos de probabilidad e indeterminación los que desafían
nuestras habilidades lingüísticas. Este no es un pequeño problema que
permanece en nuestros días y frustra incluso a las grandes mentes. Se dice que el
famoso físico teórico Richard Feynman se negó a responder a un periodista que,
durante una entrevista, le pidió que explicara al público qué fuerza actuaba entre
dos imanes, alegando que era una tarea imposible. Más tarde, cuando se le pidió
una aclaración, dijo que era debido a preconceptos intuitivos. El periodista y una
gran parte de la audiencia entienden la "fuerza" como lo que sentimos si
recompensamos
la palma de tu mano contra la mesa. Este es su mundo, y su lenguaje. Pero en
realidad el acto de poner la mano contra la mesa implica fuerzas
electromagnéticas, la cohesión de la materia, la mecánica cuántica, es muy
complicado. No fue posible explicar la fuerza magnética pura en términos
familiares a los habitantes del "viejo mundo".
Como veremos, para entender la teoría cuántica debemos entrar en un nuevo
mundo. Es ciertamente el fruto más importante de las exploraciones científicas
del siglo XX, y será esencial a lo largo del nuevo siglo. No está bien dejar que
sólo los profesionales lo disfruten.
Incluso hoy, a principios de la segunda década del siglo XXI, algunos científicos
ilustres siguen buscando con gran esfuerzo una versión más "amistosa" de la
mecánica cuántica que perturbe menos nuestro sentido común. Pero estos
esfuerzos hasta ahora parecen no llevar a ninguna parte. Otros científicos
simplemente aprenden las reglas del mundo cuántico y hacen progresos, incluso
importantes, por ejemplo adaptándolas a nuevos principios de simetría,
utilizándolas para formular hipótesis sobre un mundo en el que las cuerdas y las
membranas sustituyen a las partículas elementales, o imaginando lo que ocurre a
escalas miles de millones de veces más pequeñas que las que hemos alcanzado
hasta ahora con nuestros instrumentos. Esta última línea de investigación parece
la más prometedora y podría darnos una idea de lo que podría unificar las
diversas fuerzas y la propia estructura del espacio y el tiempo.
Nuestro objetivo es hacerles apreciar la inquietante rareza de la teoría cuántica,
pero sobre todo las profundas consecuencias que tiene en nuestra comprensión
del mundo. Por nuestra parte, creemos que el malestar se debe principalmente a
nuestros prejuicios. La naturaleza habla en un idioma diferente, que debemos
aprender, así como sería bueno leer a Camus en el francés original y no en una
traducción llena de argot americano. Si unos pocos pasos nos hacen pasar un mal
rato, tomemos unas buenas vacaciones en Provenza y respiremos el aire de
Francia, en lugar de quedarnos en nuestra casa de los suburbios y tratar de
adaptar el lenguaje que usamos cada día a ese mundo tan diferente. En los
próximos capítulos intentaremos transportarle a un lugar que es parte de nuestro
universo y que al mismo tiempo va más allá de la imaginación, y en los
próximos capítulos también le enseñaremos el lenguaje para entender el nuevo
mundo.
Capítulo 2
El comienzo

Un factor de complicación
ntes de intentar comprender el vertiginoso universo cuántico, es necesario
A familiarizarse con algunos aspectos de las teorías científicas que lo
precedieron, es decir, con la llamada física clásica. Este conjunto de
conocimientos es la culminación de siglos de investigación, iniciados incluso
antes de la época de Galileo y completados por genios como Isaac Newton,
Michael Faraday, James Clerk Maxwell, Heinrich Hertz y muchos otros2. La
física clásica, que reinó sin cuestionamientos hasta principios del siglo XX, se
basa en la idea de un universo de relojería: ordenado, predecible, gobernado por
leyes causales.
Para tener un ejemplo de una idea contraria a la intuición, tomemos nuestra
Tierra, que desde nuestro típico punto de vista parece sólida, inmutable, eterna.
Somos capaces de equilibrar una bandeja llena de tazas de café sin derramar una
sola gota, y sin embargo nuestro planeta gira rápido sobre sí mismo. Todos los
objetos de su superficie, lejos de estar en reposo, giran con él como los pasajeros
de un colosal carrusel. En el Ecuador, la Tierra se mueve más rápido que un jet,
a más de 1600 kilómetros por hora; además, corre desenfrenadamente alrededor
del Sol a una increíble velocidad media de 108.000 kilómetros por hora. Y para
colmo, todo el sistema solar, incluyendo la Tierra, viaja alrededor de la galaxia a
velocidades aún mayores. Sin embargo, no lo notamos, no sentimos que estamos
corriendo. Vemos el Sol saliendo por el este y poniéndose por el oeste, y nada
más. ¿Cómo es posible? Escribir una carta mientras se monta a caballo o se
conduce un coche a cien millas por hora en la autopista es una tarea muy difícil,
pero todos hemos visto imágenes de astronautas haciendo trabajos de precisión
dentro de una estación orbital, lanzada alrededor de nuestro planeta a casi 30.000
millas por hora. Si no fuera por el globo azul que cambia de forma en el fondo,
esos hombres que flotan en el espacio parecen estar quietos.
La intuición generalmente no se da cuenta si lo que nos rodea se mueve a la
misma velocidad que nosotros, y si el movimiento es uniforme y no acelerado no
sentimos ninguna sensación de desplazamiento. Los griegos creían que había un
estado de reposo absoluto, relativo a la superficie de la Tierra. Galileo cuestionó
esta venerable idea aristotélica y la reemplazó por otra más científica: para la
física no hay diferencia entre quedarse quieto y moverse con dirección y
velocidad constantes (incluso aproximadas). Desde su punto de vista, los
astronautas están quietos; vistos desde la Tierra, nos están rodeando a una loca
velocidad de 28.800 kilómetros por hora.
El agudo ingenio de Galileo comprendió fácilmente que dos cuerpos de diferente
peso caen a la misma velocidad y llegan al suelo al mismo tiempo. Para casi
todos sus contemporáneos, sin embargo, estaba lejos de ser obvio, porque la
experiencia diaria parecía decir lo contrario. Pero el científico hizo los
experimentos correctos para probar su tesis, y también encontró una justificación
racional: era la resistencia del aire que barajaba las cartas. Para Galileo esto era
sólo un factor de complicación, que ocultaba la profunda simplicidad de las
leyes naturales. Sin aire entre los pies, todos los cuerpos caen con la misma
velocidad, desde la pluma hasta la roca colosal.
Se descubrió entonces que la atracción gravitatoria de la Tierra, que es una
fuerza, depende de la masa del objeto que cae, donde la masa es una medida de
la cantidad de materia contenida en el propio objeto.
El peso, por otro lado, es la fuerza ejercida por la gravedad sobre los cuerpos
dotados de masa (recordarán que el profesor de física en el instituto repetía: "Si
transportas un objeto a la Luna, su masa permanece igual, mientras que el peso
se reduce". Hoy en día todo esto está claro para nosotros gracias al trabajo de
hombres como Galileo). La fuerza de gravedad es directamente proporcional a la
masa: dobla la masa y también dobla la fuerza. Al mismo tiempo, sin embargo, a
medida que la masa crece, también lo hace la resistencia a cambiar el estado de
movimiento. Estos dos efectos iguales y opuestos se anulan mutuamente y así
sucede que todos los cuerpos caen al suelo a la misma velocidad - como de
costumbre descuidando ese factor de fricción que se complica.
Para los filósofos de la antigua Grecia el estado de descanso parecía obviamente
el más natural para los cuerpos, a los que todos tienden. Si pateamos una pelota,
tarde o temprano se detiene; si nos quedamos sin combustible en un auto,
también se detiene; lo mismo sucede con un disco que se desliza sobre una mesa.
Todo esto es perfectamente sensato y también perfectamente aristotélico (esto
del aristotelismo debe ser nuestro instinto innato).
Pero Galileo tenía ideas más profundas. Se dio cuenta, de hecho, de que si se
abisagraba la superficie de la mesa y se alisaba el disco, continuaría funcionando
durante mucho más tiempo; podemos verificarlo, por ejemplo, deslizando un
disco de hockey sobre un lago helado. Eliminemos toda la fricción y otros
factores complicados, y veamos que el disco sigue deslizándose
interminablemente a lo largo de una trayectoria recta a una velocidad uniforme.
Esto es lo que causa el final del movimiento, dijo Galileo: la fricción entre el
disco y la mesa (o entre el coche y la carretera), es un factor que complica.
Normalmente en los laboratorios de física hay una larga pista metálica con
numerosos pequeños agujeros por los que pasa el aire. De esta manera, un carro
colocado en el riel, el equivalente a nuestro disco, puede moverse flotando en un
cojinete de aire. En los extremos de la barandilla hay parachoques de goma.
Todo lo que se necesita es un pequeño empujón inicial y el carro comienza a
rebotar sin parar entre los dos extremos, de ida y vuelta, a veces durante toda la
hora. Parece animado con su propia vida, ¿cómo es posible? El espectáculo es
divertido porque va en contra del sentido común, pero en realidad es una
manifestación de un principio profundo de la física, que se manifiesta cuando
eliminamos la complicación de la fricción. Gracias a experimentos menos
tecnológicos pero igualmente esclarecedores, Galileo descubrió una nueva ley de
la naturaleza, que dice: "Un cuerpo aislado en movimiento mantiene su estado de
movimiento para siempre. Por "aislado" nos referimos a que la fricción, las
diversas fuerzas, o lo que sea, no actúan sobre él. Sólo la aplicación de una
fuerza puede cambiar un estado de movimiento.
Es contraintuitivo, ¿no? Sí, porque es muy difícil imaginar un cuerpo
verdaderamente aislado, una criatura mitológica que no se encuentra en casa, en
el parque o en cualquier otro lugar de la Tierra. Sólo podemos acercarnos a esta
situación ideal en un laboratorio, con equipos diseñados según las necesidades.
Pero después de presenciar alguna otra versión del experimento de la pista de
aire, los estudiantes de física de primer año suelen dar por sentado el principio.
El método científico implica una cuidadosa observación del mundo. Una de las
piedras angulares de su éxito en los últimos cuatro siglos es su capacidad para
crear modelos abstractos, para referirse a un universo ideal en nuestras mentes,
desprovisto de las complicaciones del real, donde podemos buscar las leyes de la
naturaleza. Después de haber logrado un resultado en este mundo, podemos ir al
ataque del otro, el más complicado, después de haber cuantificado los factores de
complicación como la fricción.
Pasemos a otro ejemplo importante. El sistema solar es realmente intrincado.
Hay una gran estrella en el centro, el Sol, y hay nueve (o más bien ocho, después
de la degradación de Plutón) cuerpos más pequeños de varias masas que giran a
su alrededor; los planetas a su vez pueden tener satélites. Todos estos cuerpos se
atraen entre sí y se mueven según una compleja coreografía. Para simplificar la
situación, Newton redujo todo a un modelo ideal: una estrella y un solo planeta.
¿Cómo se comportarían estos dos cuerpos?
Este método de investigación se llama "reduccionista". Tomemos un sistema
complejo (ocho planetas y el Sol) y consideremos un subconjunto más
manejable del mismo (un planeta y el Sol). Ahora quizás el problema pueda ser
abordado (en este caso sí). Resuélvelo y trata de entender qué características de
la solución se conservan en el retorno al sistema complejo de partida (en este
caso vemos que cada planeta se comporta prácticamente como si estuviera solo,
con mínimas correcciones debido a la atracción entre los propios planetas).
El reduccionismo no siempre es aplicable y no siempre funciona. Por eso todavía
no tenemos una descripción precisa de objetos como los tornados o el flujo
turbulento de un fluido, sin mencionar los complejos fenómenos a nivel de
moléculas y organismos vivos. El método resulta útil cuando el modelo ideal no
se desvía demasiado de su versión fea y caótica, en la que vivimos. En el caso
del sistema solar, la masa de la estrella es tan grande que es posible pasar por
alto la atracción de Marte, Venus, Júpiter y la compañía cuando estudiamos los
movimientos de la Tierra: el sistema estrella + planeta proporciona una
descripción aceptable de los movimientos de la Tierra. Y a medida que nos
familiarizamos con este método, podemos volver al mundo real y hacer un
esfuerzo extra para tratar de tener en cuenta el siguiente factor de complicación
en orden de importancia.
La parábola y el péndulo
La física clásica, o física precuántica, se basa en dos piedras angulares. La
primera es la mecánica galileo-newtoniana, inventada en el siglo XVII. La
segunda está dada por las leyes de la electricidad, el magnetismo y la óptica,
descubiertas en el siglo XIX por un grupo de científicos cuyos nombres, quién
sabe por qué, todos recuerdan algunas unidades de cantidad física: Coulomb,
Ørsted, Ohm, Ampère, Faraday y Maxwell. Comencemos con la obra maestra de
Newton, la continuación de la obra de nuestro héroe Galileo.
Los cuerpos salieron en caída libre, con una velocidad que aumenta a medida
que pasa el tiempo según un valor fijo (la tasa de variación de la velocidad se
llama aceleración). Una bala, una pelota de tenis, una bala de cañón, todas
describen en su movimiento un arco de suprema elegancia matemática, trazando
una curva llamada parábola. Un péndulo, es decir, un cuerpo atado a un cable
colgante (como un columpio hecho por un neumático atado a una rama, o un
viejo reloj), oscila con una regularidad notable, de modo que (precisamente) se
puede ajustar el reloj. El Sol y la Luna atraen las aguas de los mares terrestres y
crean mareas. Estos y otros fenómenos pueden ser explicados racionalmente por
las leyes de movimiento de Newton.
Su explosión creativa, que tiene pocos iguales en la historia del pensamiento
humano, lo llevó en poco tiempo a dos grandes descubrimientos. Para
describirlos con precisión y comparar sus predicciones con los datos, utilizó un
lenguaje matemático particular llamado cálculo infinitesimal, que tuvo que
inventar en su mayor parte desde cero. El primer descubrimiento, normalmente
denominado "las tres leyes del movimiento", se utiliza para calcular los
movimientos de los cuerpos una vez conocidas las fuerzas que actúan sobre ellos
(Newton podría haber presumido así: "Dame las fuerzas y un ordenador lo
suficientemente potente y te diré lo que ocurrirá en el futuro". Pero parece que
nunca lo dijo).
Las fuerzas que actúan sobre un cuerpo pueden ejercerse de mil maneras: a
través de cuerdas, palos, músculos humanos, viento, presión del agua, imanes y
así sucesivamente. Una fuerza natural particular, la gravedad, fue el centro del
segundo gran descubrimiento de Newton. Describiendo el fenómeno con una
ecuación de asombrosa sencillez, estableció que todos los objetos dotados de
masa se atraen entre sí y que el valor de la fuerza de atracción disminuye a
medida que aumenta la distancia entre los objetos, de esta manera: si la distancia
se duplica, la fuerza se reduce en una cuarta parte; si se triplica, en una novena
parte; y así sucesivamente. Es la famosa "ley de la inversa del cuadrado", gracias
a la cual sabemos que podemos hacer que el valor de la fuerza de gravedad sea
pequeño a voluntad, simplemente alejándonos lo suficiente. Por ejemplo, la
atracción ejercida sobre un ser humano por Alfa Centauri, una de las estrellas
más cercanas (a sólo cuatro años luz), es igual a una diez milésima de una
milmillonésima, o 10-13, de la ejercida por la Tierra. Por el contrario, si nos
acercáramos a un objeto de gran masa, como una estrella de neutrones, la fuerza
de gravedad resultante nos aplastaría hasta el tamaño de un núcleo atómico. Las
leyes de Newton describen la acción de la gravedad sobre todo: manzanas que
caen de los árboles, balas, péndulos y otros objetos situados en la superficie de la
Tierra, donde casi todos pasamos nuestra existencia. Pero también se aplican a la
inmensidad del espacio, por ejemplo entre la Tierra y el Sol, que están en
promedio a 150 millones de kilómetros de distancia.
¿Estamos seguros, sin embargo, de que estas leyes todavía se aplican fuera de
nuestro planeta? Una teoría es válida si proporciona valores de acuerdo con los
datos experimentales (teniendo en cuenta los inevitables errores de medición).
Piensa: la evidencia muestra que las leyes de Newton funcionan bien en el
sistema solar. Con muy buena aproximación, los planetas individuales pueden
ser estudiados gracias a la simplificación vista anteriormente, es decir,
descuidando los efectos de los demás y sólo teniendo en cuenta el Sol. La teoría
newtoniana predice que los planetas giran alrededor de nuestra estrella siguiendo
órbitas perfectamente elípticas. Pero si examinamos bien los datos, nos damos
cuenta de que hay pequeñas discrepancias en el caso de Marte, cuya órbita no es
exactamente la predicha por la aproximación de "dos cuerpos".
Al estudiar el sistema Sol-Marte, pasamos por alto los (relativamente pequeños)
efectos en el planeta rojo de cuerpos como la Tierra, Venus, Júpiter y así
sucesivamente. Este último, en particular, es muy grande y le da a Marte un buen
golpe cada vez que se acerca a sus órbitas. A largo plazo, estos efectos se suman.
No es imposible que dentro de unos pocos miles de millones de años Marte sea
expulsado del sistema solar como un concursante de un reality show. Así que
vemos que el problema de los movimientos planetarios se vuelve más complejo
si consideramos los largos intervalos de tiempo. Pero gracias a los ordenadores
modernos podemos hacer frente a estas pequeñas (y no tan pequeñas)
perturbaciones - incluyendo las debidas a la teoría de la relatividad general de
Einstein, que es la versión moderna de la gravitación newtoniana. Con las
correcciones correctas, vemos que la teoría siempre está en perfecto acuerdo con
los datos experimentales. Sin embargo, ¿qué podemos decir cuando entran en
juego distancias aún mayores, como las que hay entre las estrellas? Las
mediciones astronómicas más modernas nos dicen que la fuerza de gravedad está
presente en todo el cosmos y, por lo que sabemos, se aplica en todas partes.
Tomemos un momento para contemplar una lista de fenómenos que tienen lugar
según la ley de Newton. Las manzanas caen de los árboles, en realidad se dirigen
hacia el centro de la Tierra. Las balas de artillería siembran la destrucción
después de los arcos de parábola. La Luna se asoma a sólo 384.000 kilómetros
de nosotros y causa mareas y languidez romántica. Los planetas giran alrededor
del Sol en órbitas ligeramente elípticas, casi circulares. Los cometas, por otro
lado, siguen trayectorias muy elípticas y tardan cientos o miles de años en dar un
giro y volver a mostrarse. Desde el más pequeño al más grande, los ingredientes
del universo se comportan de manera perfectamente predecible, siguiendo las
leyes descubiertas por Sir Isaac.
Capítulo 3
Lo que es la luz

A ntes de dejar atrás la física clásica, tenemos que pasar unos minutos
hablando sobre la luz y jugando con ella, porque será la protagonista de
muchas cuestiones importantes (y al principio desconcertantes) cuando
empecemos a entrar en el mundo cuántico. Así que ahora haremos una mirada
histórica a la teoría de la luz en el mundo clásico.1
La luz es una forma de energía. Puede producirse de diversas maneras, ya sea
transformando la energía eléctrica (como se ve, por ejemplo, en una bombilla, o
en el enrojecimiento de las resistencias de las tostadoras) o la energía química
(como en las velas y los procesos de combustión en general). La luz solar,
consecuencia de las altas temperaturas presentes en la superficie de nuestra
estrella, proviene de procesos de fusión nuclear que tienen lugar en su interior. E
incluso las partículas radiactivas producidas por un reactor nuclear aquí en la
Tierra emiten una luz azul cuando entran en el agua (que se ionizan, es decir,
arrancan electrones de los átomos).
Todo lo que se necesita es una pequeña cantidad de energía inyectada en
cualquier sustancia para calentarla. A pequeña escala, esto puede sentirse como
un aumento moderado de la temperatura (como saben los que disfrutan del
bricolaje los fines de semana, los clavos se calientan después de una serie de
martillazos, o si se arrancan de la madera con unas pinzas). Si suministramos
suficiente energía a un trozo de hierro, éste comienza a emitir radiación
luminosa; inicialmente es de color rojizo, luego a medida que aumenta la
temperatura vemos aparecer en orden los tonos naranja, amarillo, verde y azul.
Al final, si el calor es lo suficientemente alto, la luz emitida se convierte en
blanca, el resultado de la suma de todos los colores.
La mayoría de los cuerpos que nos rodean, sin embargo, son visibles no porque
emitan luz, sino porque la reflejan. Excluyendo el caso de los espejos, la
reflexión es siempre imperfecta, no total: un objeto rojo se nos aparece como tal
porque refleja sólo este componente de la luz y absorbe naranja, verde, violeta y
así sucesivamente. Los pigmentos de pintura son sustancias químicas que tienen
la propiedad de reflejar con precisión ciertos colores, con un mecanismo
selectivo. Los objetos blancos, en cambio, reflejan todos los componentes de la
luz, mientras que los negros los absorben todos: por eso el asfalto oscuro de un
aparcamiento se calienta en los días de verano, y por eso en los trópicos es mejor
vestirse con ropas de colores claros. Estos fenómenos de absorción, reflexión y
calentamiento, en relación con los diversos colores, tienen propiedades que
pueden ser medidas y cuantificadas por diversos instrumentos científicos.
La luz está llena de rarezas. Aquí estás, te vemos porque los rayos de luz
reflejados por tu cuerpo llegan a nuestros ojos. ¡Qué interesante! Nuestro amigo
mutuo Edward está observando el piano en su lugar: los rayos de la interacción
entre tú y nosotros (normalmente invisibles, excepto cuando estamos en una
habitación polvorienta o llena de humo) se cruzan con los de la interacción entre
Edwar y el piano sin ninguna interferencia aparente. Pero si concentramos en un
objeto los rayos producidos por dos linternas, nos damos cuenta de que la
intensidad de la iluminación se duplica, por lo que hay una interacción entre los
rayos de luz.
Examinemos ahora la pecera. Apagamos la luz de la habitación y encendemos
una linterna. Ayudándonos con el polvo suspendido en el aire, tal vez producido
por el golpeteo de dos borradores de pizarrón o un trapo de polvo, vemos que los
rayos de luz se doblan cuando golpean el agua (y también que el pobre pececillo
nos observa perplejo, esperando con esperanza el alimento). Este fenómeno por
el cual las sustancias transparentes como el vidrio desvían la luz se denomina
refracción. Cuando los Boy Scouts encienden un fuego concentrando los rayos
del sol en un trozo de madera seca a través de una lente, aprovechan esta
propiedad: la lente curva todos los rayos de luz haciendo que se concentren en
un punto llamado "fuego", y esto aumenta la cantidad de energía hasta el punto
en que desencadena la combustión.
Un prisma de vidrio es capaz de descomponer la luz en sus componentes, el
llamado "espectro". Estos corresponden a los colores del arco iris: rojo, naranja,
amarillo, verde, azul, índigo y violeta (para memorizar la orden recuerde las
iniciales RAGVAIV). Nuestros ojos reaccionan a este tipo de luz, llamada
"visible", pero sabemos que también hay tipos invisibles. En un lado del espectro
se encuentra el llamado rango de onda larga "infrarrojo" (de este tipo, por
ejemplo, es la radiación producida por ciertos calentadores, por resistencias
tostadoras o por las brasas de un fuego moribundo); en el otro lado están los
rayos "ultravioleta", de onda corta (un ejemplo de esto es la radiación emitida
por una máquina de soldadura de arco, y por eso quienes la usan deben usar
gafas protectoras). La luz blanca, por lo tanto, es una mezcla de varios colores en
partes iguales. Con instrumentos especiales podemos cuantificar las
características de cada banda de color, más adecuadamente su longitud de onda,
y reportar los resultados en un gráfico. Al someter cualquier fuente de luz a esta
medición, encontramos que el gráfico asume una forma de campana (véase la
fig. 4.1), cuyo pico se encuentra a una cierta longitud de onda (es decir, de
color). A bajas temperaturas, el pico corresponde a las ondas largas, es decir, a la
luz roja. A medida que el calor aumenta, el máximo de la curva se desplaza
hacia la derecha, donde se encuentran las ondas cortas, es decir, la luz violeta,
pero hasta ciertos valores de temperatura la cantidad de otros colores es
suficiente para asegurar que la luz emitida permanezca blanca. Después de estos
umbrales, los objetos emiten un brillo azul. Si miramos el cielo en una noche
clara, notaremos que las estrellas brillan con colores ligeramente diferentes: las
que tienden a ser rojizas son más frías que las blancas, que a su vez son más frías
que las azules. Estos tonos corresponden a diferentes etapas de la evolución en la
vida de las estrellas a medida que consumen su combustible nuclear. Este simple
documento de identidad de la luz fue el punto de partida de la teoría cuántica,
como veremos con más detalle en un momento.
¿A qué velocidad viaja la luz?
El hecho de que la luz sea una entidad que "viaja" por el espacio, por ejemplo de
una bombilla a nuestra retina, no es del todo intuitivo. En los ojos de un niño, la
luz es algo que brilla, no que se mueve. Pero eso es exactamente lo que es.
Galileo fue uno de los primeros en tratar de medir su velocidad, con la ayuda de
dos asistentes colocados en la cima de dos colinas cercanas que pasaron la noche
cubriendo y descubriendo dos linternas a horas predeterminadas. Cuando veían
la otra luz, tenían que comunicarla en voz alta a un observador externo (el propio
Galileo), que tomaba sus medidas moviéndose a varias distancias de las dos
fuentes. Esta es una excelente manera de medir la velocidad del sonido, de
acuerdo con el mismo principio de que hay una cierta cantidad de tiempo entre
ver un rayo y escuchar un trueno. El sonido no es muy rápido, va a unos 1200
por hora (o 330 metros por segundo), por lo que el efecto es perceptible a simple
vista: por ejemplo, se tarda 3 segundos antes de que el rayo venga de un
relámpago que cae a un kilómetro de distancia. Pero el simple experimento de
Galileo no era adecuado para medir la velocidad de la luz, que es enormemente
mayor.
En 1676 un astrónomo danés llamado Ole Römer, que en ese momento trabajaba
en el Observatorio de París, apuntó con su telescopio a los entonces conocidos
satélites de Júpiter (llamados "galileos" o "Médicis" porque habían sido
descubiertos por el habitual Galileo menos de un siglo antes y dedicados por él a
Cosme de' Médicis). 2 Se concentró en sus eclipses y notó un retraso con el que
las lunas desaparecían y reaparecían detrás del gran planeta; este pequeño
intervalo de tiempo dependía misteriosamente de la distancia entre la Tierra y
Júpiter, que cambia durante el año (por ejemplo, Ganímedes parecía estar a
principios de diciembre y a finales de julio). Römer entendió que el efecto se
debía a la velocidad finita de la luz, según un principio similar al del retardo
entre el trueno y el relámpago.
En 1685 se dispuso de los primeros datos fiables sobre la distancia entre los dos
planetas, que combinados con las precisas observaciones de Römer permitieron
calcular la velocidad de la luz: dio como resultado un impresionante valor de
300.000 kilómetros por segundo, inmensamente superior al del sonido. En 1850
Armand Fizeau y Jean Foucault, dos hábiles experimentadores franceses en
feroz competencia entre sí, fueron los primeros en calcular esta velocidad usando
métodos directos, en la Tierra, sin recurrir a mediciones astronómicas. Fue el
comienzo de una carrera de persecución entre varios científicos en busca del
valor más preciso posible, que continúa hasta hoy. El valor más acreditado hoy
en día, que en la física se indica con la letra c, es de 299792,45 kilómetros por
segundo. Observamos incidentalmente que esta c es la misma que aparece en la
famosa fórmula E=mc2. Lo encontraremos varias veces, porque es una de las
piezas principales de ese gran rompecabezas llamado universo.
cambiado.
Thomas Young
En ese año un médico inglés con muchos intereses, incluyendo la física, realizó
un experimento que pasaría a la historia. Thomas Young (1773-129) fue un niño
prodigio: aprendió a leer a los dos años, y a los seis ya había leído la Biblia
entera dos veces y había empezado a estudiar latín3 . Pronto se enfrentó a la
filosofía, la historia natural y el análisis matemático inventado por Newton;
también aprendió a construir microscopios y telescopios. Antes de los veinte
años aprendió hebreo, caldeo, arameo, la variante samaritana del hebreo bíblico,
turco, parsis y amárico. De 1792 a 1799 estudió medicina en Londres,
Edimburgo y Göttingen, donde, olvidando su educación cuáquera, también se
interesó por la música, la danza y el teatro. Se jactaba de que nunca había estado
ocioso un día. Obsesionado con el antiguo Egipto, este extraordinario caballero,
aficionado y autodidacta, fue uno de los primeros en traducir jeroglíficos. La
compilación del diccionario de las antiguas lenguas egipcias fue una hazaña que
lo mantuvo literalmente ocupado hasta el día de su muerte.
Su carrera como médico fue mucho menos afortunada, quizás porque no
infundía confianza a los enfermos o porque carecía del je ne sais quoi que
necesitaba en sus relaciones con los pacientes. La falta de asistencia a su clínica
de Londres, sin embargo, le permitió tomar tiempo para asistir a las reuniones de
la Royal Society y discutir con las principales figuras científicas de la época. Por
lo que nos interesa aquí, sus mayores descubrimientos fueron en el campo de la
óptica. Empezó a investigar el tema en 1800 y en siete años estableció una
extraordinaria serie de experimentos que parecían confirmar la teoría ondulatoria
de la luz con creciente confianza. Pero antes de llegar a la más famosa, tenemos
que echar un vistazo a las olas y su comportamiento.
Tomemos por ejemplo los del mar, tan amados por los surfistas y los poetas
románticos. Veámoslos en la costa, libres para viajar. La distancia entre dos
crestas consecutivas (o entre dos vientres) se denomina longitud de onda,
mientras que la altura de la cresta en relación con la superficie del mar en calma
se denomina amplitud. Las ondas se mueven a una cierta velocidad, que en el
caso de la luz, como ya hemos visto, se indica con c. Fijémoslo en un punto: el
período entre el paso de una cresta y la siguiente es un ciclo. La frecuencia es la
velocidad a la que se repiten los ciclos; si, por ejemplo, vemos pasar tres crestas
en un minuto, digamos que la frecuencia de esa onda es de 3 ciclos/minuto.
Tenemos que la longitud de onda multiplicada por la frecuencia es igual a la
velocidad de la onda misma; por ejemplo, si la onda de 3 ciclos/minuto tiene una
longitud de onda de 30 metros, esto significa que se está moviendo a 90 metros
por minuto, lo que equivale a 5,4 kilómetros por hora.
Ahora vemos un tipo de ondas muy familiares, esas ondas de sonido. Vienen en
varias frecuencias. Los audibles para el oído humano van desde 30
ciclos/segundo de los sonidos más bajos hasta 17000 ciclos/segundo de los de
arriba. La nota "la centrale", o la3, está fijada en 440 ciclos/segundo. La
velocidad del sonido en el aire, como ya hemos visto, es de unos 1200 km/h.
Gracias a simples cálculos y recordando que la longitud de onda es igual a la
velocidad dividida por la frecuencia, deducimos que la longitud de onda de la3
es (330 metros/segundo): (440 ciclos/segundo) = 0,75 metros. Las longitudes de
onda audibles por los humanos varían de (330 metros/segundo) : (440
ciclos/segundo) = 0,75 metros: (17 000 ciclos/segundo) = 2 centímetros a (330
metros/segundo) : (30 ciclos/segundo) = 11 metros. Es este parámetro, junto con
la velocidad del sonido, el que determina lo que ocurre con las ondas sonoras
cuando resuenan en un desfiladero, o se propagan en un gran espacio abierto
como un estadio, o llegan al público en un teatro.
En la naturaleza hay muchos tipos de ondas: además de las ondas marinas y
sonoras, recordamos, por ejemplo, las vibraciones de las cuerdas y las ondas
sísmicas que sacuden la tierra bajo nuestros pies. Todos ellos pueden describirse
bien con la física clásica (no cuántica). Las amplitudes se refieren de vez en
cuando a diferentes cantidades mensurables: la altura de la ola sobre el nivel del
mar, la intensidad de las ondas sonoras, el desplazamiento de la cuerda desde el
estado de reposo o la compresión de un resorte. En cualquier caso, siempre
estamos en presencia de una perturbación, una desviación de la norma dentro de
un medio de transmisión que antes era tranquilo. La perturbación, que podemos
visualizar como el pellizco dado a una cuerda, se propaga en forma de onda. En
el reino de la física clásica, la energía transportada por este proceso está
determinada por la amplitud de la onda.
Sentado en su barquito en medio de un lago, un pescador lanzó su línea. En la
superficie se puede ver un flotador, que sirve tanto para evitar que el anzuelo
llegue al fondo como para señalar que algo ha picado el cebo. El agua se ondula,
y el flotador sube y baja siguiendo las olas. Su posición cambia regularmente:
del nivel cero a una cresta, luego de vuelta al nivel cero, luego de vuelta a un
vientre, luego de vuelta al nivel cero y así sucesivamente. Este movimiento
cíclico está dado por una onda llamada armónica o sinusoidal. Aquí lo
llamaremos simplemente una ola.
Problemas abiertos
La teoría, en ese momento, no podía responder satisfactoriamente a varias
preguntas: ¿cuál es exactamente el mecanismo por el cual se genera la luz?
¿cómo tiene lugar la absorción y por qué los objetos de color absorben sólo
ciertas longitudes de onda precisas, es decir, los colores? ¿qué misteriosa
operación en el interior de la retina nos permite "ver"? Todas las preguntas que
tenían que ver con la interacción entre la luz y la materia. En este sentido, ¿cuál
es la forma en que la luz se propaga en el espacio vacío, como entre el Sol y la
Tierra? La analogía con las ondas sonoras y materiales nos llevaría a pensar que
existe un medio a través del cual se produce la perturbación, una misteriosa
sustancia transparente e ingrávida que impregna el espacio profundo. En el siglo
XIX se planteó la hipótesis de que esta sustancia existía realmente y se la llamó
éter.
Entonces todavía hay un misterio sobre nuestra estrella. Este colosal generador
de luz produce tanto luz visible como invisible, entendiéndose por "luz invisible"
la luz con una longitud de onda demasiado larga (desde el infrarrojo) o
demasiado corta (desde el ultravioleta hacia abajo) para ser observada. La
atmósfera de la Tierra, principalmente la capa de ozono de la estratosfera
superior, bloquea gran parte de los rayos ultravioletas y ondas aún más cortas,
como los rayos X. Ahora imaginemos que hemos inventado un dispositivo que
nos permite sin demasiadas complicaciones absorber la luz selectivamente, sólo
en ciertas frecuencias, y medir su energía.
Este dispositivo existe (incluso está presente en los laboratorios mejor equipados
de las escuelas secundarias) y se llama espectrómetro. Es la evolución del prisma
newtoniano, capaz de descomponer la luz en varios colores desviando
selectivamente sus componentes según varios ángulos. Si insertamos un
mecanismo que permita una medición cuantitativa de estos ángulos, también
podemos determinar las respectivas longitudes de onda (que dependen
directamente de los propios ángulos).
Concentrémonos ahora en el punto donde el rojo oscuro se desvanece en negro,
es decir, en el borde de la luz visible. La escala del espectrómetro nos dice que
estamos en 7500 Å, donde la letra "Å" es el símbolo del angstrom, una unidad de
longitud nombrada en honor al físico sueco Anders Jonas Ångström, uno de los
pioneros de la espectroscopia. Un angstrom es de 10-8 centímetros, que es una
cienmillonésima parte de un centímetro. Por lo tanto, hemos descubierto que
entre dos crestas de ondas de luz en el borde de la pista visible corren 7500 Å, o
7,5 milésimas de centímetro. Para longitudes mayores necesitamos instrumentos
sensibles a los infrarrojos y a las ondas largas. Si, por otro lado, vamos al otro
lado del espectro visible, en el lado violeta, vemos que la longitud de onda
correspondiente es de unos 3500 Å. Por debajo de este valor los ojos no vienen
en nuestra ayuda y necesitamos usar otros instrumentos.
Hasta ahora todo bien, sólo estamos aclarando los resultados obtenidos por
Newton sobre la descomposición de la luz. En 1802, sin embargo, el químico
inglés William Wollaston apuntó un espectrómetro en la dirección de la luz solar
y descubrió que además del espectro de colores ordenados de rojo a violeta había
muchas líneas oscuras y delgadas. ¿Qué era esto?
En este punto entra en escena Joseph Fraunhofer (1787-1826), un bávaro con
gran talento y poca educación formal, hábil fabricante de lentes y experto en
óptica10 . Después de la muerte de su padre, el enfermizo encontró un empleo
no cualificado como aprendiz en una fábrica de vidrio y espejos en Munich. En
1806 logró unirse a una compañía de instrumentos ópticos en la misma ciudad,
donde con la ayuda de un astrónomo y un hábil artesano aprendió los secretos de
la óptica a la perfección y desarrolló una cultura matemática. Frustrado por la
mala calidad del vidrio que tenía a su disposición, el perfeccionista Fraunhofer
rompió un contrato que le permitía espiar los secretos industriales celosamente
guardados de una famosa cristalería suiza, que recientemente había trasladado
sus actividades a Munich. Esta colaboración dio como resultado lentes
técnicamente avanzadas y sobre todo, por lo que nos interesa aquí, un
descubrimiento fundamental que aseguraría a Fraunhofer un lugar en la historia
de la ciencia.
En su búsqueda de la lente perfecta, se le ocurrió la idea de usar el espectrómetro
para medir la capacidad de refracción de varios tipos de vidrio. Al examinar la
descomposición de la luz solar, notó que las líneas negras descubiertas por
Wollaston eran realmente muchas, alrededor de seiscientas. Empezó a
catalogarlas sistemáticamente por longitud de onda, y para 1815 ya las había
examinado casi todas. Las más obvias estaban etiquetadas con las letras
mayúsculas de la A a la I, donde la A era una línea negra en la zona roja y yo
estaba en el límite extremo del violeta. ¿Por qué fueron causadas? Fraunhofer
conocía el fenómeno por el cual ciertos metales o sales emitían luz de colores
precisos cuando se exponían al fuego; midió estos rayos con el espectrómetro y
vio aparecer muchas líneas claras en la región de las longitudes de onda
correspondientes al color emitido.
Lo interesante fue que su estructura era idéntica a la de las líneas negras del
espectro solar. La sal de mesa, por ejemplo, tenía muchas líneas claras en la
región que Fraunhofer había marcado con la letra D. Un modelo explicativo del
fenómeno tuvo que esperar un poco más. Como sabemos, cada longitud de onda
bien definida corresponde únicamente a una frecuencia igualmente definida.
Tenía que haber un mecanismo en funcionamiento que hiciera vibrar la materia,
presumiblemente a nivel atómico, de acuerdo con ciertas frecuencias
establecidas. Los átomos (cuya existencia aún no había sido probada en la época
de Fraunhofer) dejaron huellas macroscópicas.
Las huellas de los átomos
Como hemos visto arriba, un diapasón ajustado para "dar la señal" vibra a una
frecuencia de 440 ciclos por segundo. En el ámbito microscópico de los átomos
las frecuencias son inmensamente más altas, pero ya en la época de Fraunhofer
era posible imaginar un mecanismo por el cual las misteriosas partículas estaban
equipadas con muchos equivalentes de diapasón muy pequeños, cada uno con su
propia frecuencia característica y capaces de vibrar y emitir luz con una longitud
de onda correspondiente a la propia frecuencia.
¿Y por qué entonces aparecen las líneas negras? Si los átomos de sodio
excitados por el calor de la llama vibran con frecuencias que emiten luz entre
5911 y 5962 Å (valores que corresponden a tonos de amarillo), es probable que,
a la inversa, prefieran absorber la luz con las mismas longitudes de onda. La
superficie al rojo vivo del Sol emite luz de todo tipo, pero luego pasa a través de
la "corona", es decir, los gases menos calientes de la atmósfera solar. Aquí es
donde se produce la absorción selectiva por parte de los átomos, cada uno de los
cuales retiene la luz de la longitud de onda que le conviene; este mecanismo es
responsable de las extrañas líneas negras observadas por Fraunhofer. Una pieza a
la vez, las investigaciones posteriores han revelado que cada elemento, cuando
es excitado por el calor, emite una serie característica de líneas espectrales,
algunas agudas y nítidas (como las líneas de neón de color rojo brillante), otras
débiles (como el azul de las lámparas de vapor de mercurio). Estas líneas son las
huellas dactilares de los elementos, y su descubrimiento fue una primera
indicación de la existencia de mecanismos similares a los "diapasones" que se
ven arriba (o alguna otra diablura) dentro de los átomos.
Las líneas espectrales están muy bien definidas, por lo que es posible calibrar el
espectrómetro para obtener resultados muy precisos, distinguiendo por ejemplo
una luz con una longitud de onda de 6503,2 Å (rojo oscuro) de otra de 6122,7 Å
(rojo claro). A finales del siglo XIX, se publicaron gruesos tomos que
enumeraban los espectros de todos los elementos entonces conocidos, gracias a
los cuales los más expertos en espectroscopia pudieron determinar la
composición química de compuestos desconocidos y reconocer hasta la más
mínima contaminación. Sin embargo, nadie tenía idea de cuál era el mecanismo
responsable de producir mensajes tan claros. Cómo funcionaba el átomo seguía
siendo un misterio.
Otro éxito de la espectroscopia fue de una naturaleza más profunda. En la huella
del Sol, increíblemente, se podían leer muchos elementos en la Tierra:
hidrógeno, helio, litio, etc. Cuando la luz de estrellas y galaxias distantes
comenzó a ser analizada, el resultado fue similar. El universo está compuesto de
los mismos elementos en todas partes, siguiendo las mismas leyes de la
naturaleza, lo que sugiere que todo tuvo un origen único gracias a un misterioso
proceso físico de creación.
Al mismo tiempo, entre los siglos XVII y XIX, la ciencia intentaba resolver otro
problema: ¿cómo transmiten las fuerzas, y en particular la gravedad, su acción a
grandes distancias? Si unimos un carruaje a un caballo, vemos que la fuerza
utilizada por el animal para tirar del vehículo se transmite directamente, a través
de los arneses y las barras. ¿Pero cómo "siente" la Tierra al Sol, que está a 150
millones de kilómetros de distancia? ¿Cómo atrae un imán a un clavo a cierta
distancia? En estos casos no hay conexiones visibles, por lo que se debe asumir
una misteriosa "acción a distancia". Según la formulación de Newton, la
gravedad actúa a distancia, pero no se sabe cuál es la "varilla" que conecta dos
cuerpos como la Tierra y el Sol. Después de haber luchado en vano con este
problema, incluso el gran físico inglés tuvo que rendirse y dejar que la
posteridad se ocupara de la materia.
¿Qué es un cuerpo negro y por qué estamos tan interesados en él?
Todos los cuerpos emiten energía y la absorben de sus alrededores. Aquí por
"cuerpo" nos referimos a un objeto grande, o macroscópico, compuesto de
muchos miles de millones de átomos. Cuanto más alta es su temperatura, más
energía emite.
Los cuerpos calientes, en todas sus partes (que podemos considerar a su vez
como cuerpos), tienden a alcanzar un equilibrio entre el valor de la energía dada
al ambiente externo y la absorbida. Si, por ejemplo, tomas un huevo de la nevera
y lo sumerges en una olla llena de agua hirviendo, el huevo se calienta y la
temperatura del agua disminuye. Por el contrario, si se tira un huevo caliente en
agua fría, la transferencia de calor se produce en la dirección opuesta. Si no se
proporciona más energía, después de un tiempo el huevo y el agua estarán a la
misma temperatura. Este es un experimento casero fácil de hacer, que ilustra
claramente el comportamiento de los cuerpos con respecto al calor. El estado
final en el que las temperaturas del huevo y del agua son iguales se llama
equilibrio térmico, y es un fenómeno universal: un objeto caliente sumergido en
un ambiente frío se enfría, y viceversa. En el equilibrio térmico, todas las partes
del cuerpo están a la misma temperatura, por lo que emiten y absorben energía
de la misma manera.
Cuando se está tumbado en una playa en un día hermoso, el cuerpo está
emitiendo y absorbiendo radiación electromagnética: por un lado se absorbe la
energía producida por el radiador primitivo, el Sol, y por otro lado se emite una
cierta cantidad de calor porque el cuerpo tiene mecanismos de regulación que le
permiten mantener la temperatura interna correcta1 . Las diversas partes del
cuerpo, desde el hígado hasta el cerebro, desde el corazón hasta las puntas de los
dedos, se mantienen en equilibrio térmico, de modo que los procesos
bioquímicos se desarrollan sin problemas. Si el ambiente es muy frío, el
organismo debe producir más energía, o al menos no dispersarla, si quiere
mantener la temperatura ideal. El flujo sanguíneo, que es responsable de la
transferencia de calor a la superficie del cuerpo, se reduce por lo tanto para que
los órganos internos no pierdan calor, por lo que sentimos frío en los dedos y la
nariz. Por el contrario, cuando el ambiente es muy caliente, el cuerpo tiene que
aumentar la energía dispersa, lo que sucede gracias al sudor: la evaporación de
este líquido caliente sobre la piel implica el uso de una cantidad adicional de
energía del cuerpo (una especie de efecto de acondicionamiento del aire), que
luego se dispersa hacia el exterior. El hecho de que el cuerpo humano irradia
calor es evidente en las habitaciones cerradas y abarrotadas: treinta personas
apiladas en una sala de reuniones producen 3 kilovatios, que son capaces de
calentar el ambiente rápidamente. Por el contrario, en la Antártida esos mismos
colegas aburridos podrían salvarle la vida si los abraza con fuerza, como hacen
los pingüinos emperadores para proteger sus frágiles huevos de los rigores del
largo invierno.
Los humanos, los pingüinos e incluso las tostadoras son sistemas complejos que
producen energía desde el interior. En nuestro caso, el combustible es dado por
la comida o la grasa almacenada en el cuerpo; una tostadora en cambio tiene
como fuente de energía las colisiones de los electrones de la corriente eléctrica
con los átomos de metales pesados de los cuales se hace la resistencia. La
radiación electromagnética emitida, en ambos casos, se dispersa en el ambiente
externo a través de la superficie en contacto con el aire, en nuestro caso la piel.
Esta radiación suele tener un color que es la huella de determinadas "transiciones
atómicas", es decir, es hija de la química. Los fuegos artificiales, por ejemplo,
cuando explotan están ciertamente calientes y la luz que emiten depende de la
naturaleza de los compuestos que contienen (cloruro de estroncio, cloruro de
bario y otros),2 gracias a cuya oxidación brillan con colores brillantes y
espectaculares.
Estos casos particulares son fascinantes, pero la radiación electromagnética se
comporta siempre de la misma manera, en cualquier sistema, en el caso más
simple: aquel en el que todos los efectos cromáticos debidos a los distintos
átomos se mezclan y se borran, dando vida a lo que los físicos llaman radiación
térmica. El objeto ideal que lo produce se llama cuerpo negro. Por lo tanto, es un
cuerpo que por definición sólo produce radiación térmica cuando se calienta, sin
que prevalezca ningún color en particular, y sin los efectos especiales de los
fuegos artificiales. Aunque es un concepto abstracto, hay objetos cotidianos que
se pueden aproximar bastante bien a un cuerpo negro ideal. Por ejemplo, el Sol
emite luz con un espectro bien definido (las líneas de Fraunhofer), debido a la
presencia de varios tipos de átomos en la corona gaseosa circundante; pero si
consideramos la radiación en su conjunto vemos que es muy similar a la de un
cuerpo negro (muy caliente). Lo mismo puede decirse de las brasas calientes, las
resistencias de las tostadoras, la atmósfera de la Tierra, el hongo de una
explosión nuclear y el universo primordial: todas aproximaciones razonables de
un cuerpo negro.
Un muy buen modelo lo da una caldera de carbón anticuada, como la que se
encuentra en los trenes de vapor, que, al aumentar la temperatura, produce en su
interior una radiación térmica prácticamente pura. De hecho, este fue el modelo
utilizado por los físicos a finales del siglo XIX para el estudio del cuerpo negro.
Para tener una fuente de radiación térmica pura, debe estar aislada de alguna
manera de la fuente de calor, en este caso el carbón en combustión. Para ello
construimos un robusto contenedor de paredes gruesas, digamos de hierro, en el
que hacemos un agujero para observar lo que ocurre en su interior y tomar
medidas. Pongámoslo en la caldera, dejémoslo calentar y asomarse por el
agujero. Detectamos radiación de calor puro, que llena toda la nave. Esto se
emite desde las paredes calientes y rebota de un extremo al otro; una pequeña
parte sale del agujero de observación.
Con la ayuda de unos pocos instrumentos podemos estudiar la radiación térmica
y comprobar en qué medida están presentes los distintos colores (es decir, las
distintas longitudes de onda). También podemos medir cómo cambia la
composición cuando cambia la temperatura de la caldera, es decir, estudiar la
radiación en equilibrio térmico.
Al principio el agujero emite sólo la radiación infrarroja cálida e invisible.
Cuando subimos la calefacción vemos una luz roja oscura que se parece a la luz
visible dentro de la tostadora. A medida que la temperatura aumenta más, el rojo
se vuelve más brillante, hasta que se vuelve amarillo. Con una máquina
especialmente potente, como el convertidor Bessemer en las acerías (donde se
inyecta el oxígeno), podemos alcanzar temperaturas muy altas y ver cómo la
radiación se vuelve prácticamente blanca. Si pudiéramos usar una fuente de calor
aún más fuerte (por lo tanto no una caldera clásica, que se derretiría),
observaríamos una luz brillante y azulada saliendo del agujero a muy alta
temperatura. Hemos alcanzado el nivel de explosiones nucleares o estrellas
brillantes como Rigel, la supergigante azul de la constelación de Orión que es la
fuente de energía más alta de radiación térmica en nuestra vecindad galáctica.3
El estudio de las radiaciones térmicas era un importante campo de investigación,
en aquel momento completamente nuevo, que combinaba dos temas diferentes:
el estudio del calor y el equilibrio térmico, es decir, la termodinámica, y la
radiación electromagnética. Los datos recogidos parecían completamente
inofensivos y daban la posibilidad de hacer investigaciones interesantes. Nadie
podía sospechar que eran pistas importantes en lo que pronto se convertiría en el
amarillo científico del milenio: las propiedades cuánticas de la luz y los átomos
(que al final son los que hacen todo el trabajo).
Capítulo 4
SU MAESTREADO SR. PLANCK

L a conclusión de que la distribución de las longitudes de onda se concentraba en


teoría clásica de la luz y los cálculos de Planck llevaron no sólo a la

las partes azul-violeta, sino incluso (debido a la desesperación de los físicos


teóricos, que estaban cada vez más perplejos) que la intensidad se hizo infinita
en las regiones más remotas del ultravioleta. Hubo alguien, tal vez un periodista,
que llamó a la situación una "catástrofe ultravioleta". De hecho fue un desastre,
porque la predicción teórica no coincidía en absoluto con los datos
experimentales. Escuchando los cálculos, las brasas no emitirían luz roja, como
la humanidad ha conocido por lo menos durante cien mil años, sino luz azul.
Fue una de las primeras grietas en la construcción de la física clásica, que hasta
entonces parecía inexpugnable. (Gibbs había encontrado otro, probablemente el
primero de todos, unos veinticinco años antes; en ese momento su importancia
no había sido comprendida, excepto quizás por Maxwell). Todos ellos, sin
embargo, caen rápidamente a cero en el área de ondas muy cortas. ¿Qué sucede
cuando una teoría elegante y bien probada, concebida por las más grandes
mentes de la época y certificada por todas las academias europeas, choca con los
brutales y crudos datos experimentales? Si para las religiones los dogmas son
intocables, para la ciencia las teorías defectuosas están destinadas a ser barridas
tarde o temprano.
La física clásica predice que la tostadora brillará azul cuando todos sepan que es
roja. Recuerda esto: cada vez que haces una tostada, estás observando un
fenómeno que viola descaradamente las leyes clásicas. Y aunque no lo sepas
(por ahora), tienes la confirmación experimental de que la luz está hecha de
partículas discretas, está cuantificada. ¡Es mecánica cuántica en vivo! Pero,
¿podría objetar, no vimos en el capítulo anterior que gracias al genio del Sr.
Young se ha demostrado que la luz es una onda? Sí, y es verdad. Preparémonos,
porque las cosas están a punto de ponerse muy extrañas. Seguimos siendo
viajeros que exploran extraños nuevos mundos lejanos - y sin embargo también
llegamos allí desde una tostadora.
Max Planck
Berlín, el epicentro de la catástrofe del ultravioleta, fue el reino de Max Planck,
un físico teórico de unos cuarenta años, gran experto en termodinámica7 . En
1900, a partir de los datos experimentales recogidos por sus colegas y utilizando
un truco matemático, logró transformar la fórmula derivada de la teoría clásica
en otra que encajaba muy bien con las mediciones. La manipulación de Planck
permitió que las ondas largas se mostraran tranquilamente a todas las
temperaturas, más o menos como se esperaba en la física clásica, pero cortó las
ondas cortas imponiendo una especie de "peaje" a su emisión. Este obstáculo
limitó la presencia de la luz azul, que de hecho irradiaba menos abundantemente.
El truco parecía funcionar. El "peaje" significaba que las frecuencias más altas
(recuerde: ondas cortas = frecuencias altas) eran más "caras", es decir, requerían
mucha más energía que las más bajas. Así que, según el razonamiento correcto
de Planck, a bajas temperaturas la energía no era suficiente para "pagar el peaje"
y no se emitían ondas cortas. Para volver a nuestra metáfora teatral, había
encontrado una forma de liberar las primeras filas y empujar a los espectadores
hacia las filas del medio y los túneles. Una intuición repentina (que no era típica
de su forma de trabajar) permitió a Planck conectar la longitud de onda (o la
frecuencia equivalente) con la energía: cuanto más larga sea la longitud, menos
energía.
Parece una idea elemental, y de hecho lo es, porque así es como funciona la
naturaleza. Pero la física clásica no lo contempló en absoluto. La energía de una
onda electromagnética, según la teoría de Maxwell, dependía sólo de su
intensidad, no del color o la frecuencia. ¿Cómo encajó Planck esto en su
tratamiento del cuerpo negro? ¿Cómo transmitió la idea de que la energía no
sólo depende de la intensidad sino también de la frecuencia? Todavía falta una
pieza del rompecabezas, porque hay que especificar qué tiene más energía a
medida que las frecuencias aumentan.
Para resolver el problema, Planck encontró una manera eficiente de dividir la luz
emitida, cualquiera que sea su longitud de onda, en paquetes llamados paquetes
cuánticos, cada uno con una cantidad de energía relacionada con su frecuencia.
La fórmula iluminadora de Planck es realmente tan simple como es posible:
E=hf
En palabras: "la energía de un quantum de luz es directamente proporcional a su
frecuencia". Así, la radiación electromagnética está compuesta por muchos
pequeños paquetes, cada uno de los cuales está dotado de una cierta energía,
igual a su frecuencia multiplicada por una constante h. El esfuerzo de Planck por
conciliar los datos con la teoría llevó a la idea de que las altas frecuencias (es
decir, las ondas cortas) eran caras en términos de energía para el cuerpo negro.
Su ecuación, a todas las temperaturas, estaba en perfecta armonía con las curvas
obtenidas de las mediciones experimentales.
Es interesante notar que Planck no se dio cuenta inmediatamente de que su
modificación a la teoría de Maxwell tenía que ver directamente con la naturaleza
de la luz. En cambio, estaba convencido de que la clave del fenómeno estaba en
los átomos que formaban las paredes del cuerpo negro, la forma en que se emitía
la luz. La preferencia por el rojo sobre el azul no se debía, para él, a las
propiedades intrínsecas de estas longitudes de onda, sino a la forma en que los
átomos se movían y emitían radiaciones de varios colores. De esta manera
esperaba evitar conflictos con la teoría clásica, que hasta entonces había hecho
maravillas: después de todo, los motores eléctricos conducían trenes y tranvías
por toda Europa y Marconi acababa de patentar el telégrafo inalámbrico. La
teoría de Maxwell obviamente no estaba equivocada y Planck no tenía intención
de corregirla: mejor tratar de modificar la termodinámica más misteriosa.
Sin embargo, su hipótesis sobre la radiación térmica implicaba dos rotundas
desviaciones de la física clásica. En primer lugar, la correlación entre la
intensidad (es decir, el contenido de energía) de la radiación y su frecuencia,
completamente ausente en el cuadro Maxwelliano. Luego, la introducción de
cantidades discretas, quanta. Son dos aspectos relacionados entre sí. Para
Maxwell la intensidad era una cantidad continua, capaz de asumir cualquier
valor real, dependiente sólo de los valores de los campos eléctricos y magnéticos
asociados a la onda de luz. Para Planck la intensidad a una frecuencia dada es
igual al número de cuantos que corresponden a la propia frecuencia, cada uno de
los cuales lleva una energía igual a E=hf. Era una idea que olía sospechosamente
a "partículas de luz", pero todos los experimentos de difracción e interferencia
continuaron confirmando la naturaleza ondulatoria.
Nadie entonces, incluyendo a Planck, comprendió plenamente el significado de
este punto de inflexión. Para su descubridor, los cuantos eran impulsos
concentrados de radiación, provenientes de los átomos de cuerpo negro en
frenético movimiento a través de la agitación térmica, emitiéndolos según
mecanismos desconocidos. No podía saber que esa h, ahora llamada constante de
Planck, se convertiría en la chispa de una revolución que llevaría a los primeros
rugidos de la mecánica cuántica y la física moderna. Por el gran descubrimiento
de la "energía cuántica", que tuvo lugar cuando tenía cuarenta y dos años, Planck
fue galardonado con el Premio Nobel de Física en 1918.
Entra Einstein
Las extraordinarias consecuencias de la introducción de los cuantos fueron
comprendidas poco después por un joven físico entonces desconocido, nada
menos que Albert Einstein. Leyó el artículo de Planck en 1900 y, como declaró
más tarde, sintió que "la tierra bajo sus pies ha desaparecido".8 El problema
subyacente era el siguiente: ¿eran los paquetes de energía hijos del mecanismo
de emisión o eran una característica intrínseca de la luz? Einstein se dio cuenta
de que la nueva teoría establecía una entidad bien definida, perturbadoramente
discreta, similar a una partícula, que intervenía en el proceso de emisión de luz
de sustancias sobrecalentadas. Sin embargo, al principio, el joven físico se
abstuvo de abrazar la idea de que la cuantificación era una característica
fundamental de la luz.
Aquí tenemos que decir unas palabras sobre Einstein. No era un niño prodigio y
no le gustaba especialmente la escuela. De niño, nadie le hubiera predicho un
futuro exitoso. Pero la ciencia siempre le había fascinado, desde que su padre le
enseñó una brújula cuando tenía cuatro años. Estaba hechizado por ello: fuerzas
invisibles siempre forzaban a la aguja a apuntar al norte, en cualquier dirección
en la que se girara. Como escribió en su vejez: "Recuerdo bien, o mejor dicho
creo que recuerdo bien, la profunda y duradera impresión que me dejó esta
experiencia. Aún siendo joven, Einstein también fue cautivado por la magia del
álgebra, que había aprendido de un tío, y fue hechizado por un libro de
geometría leído a la edad de doce años. A los dieciséis años escribió su primer
artículo científico, dedicado al éter en el campo magnético.
En el punto donde llegó nuestra historia, Einstein es todavía un extraño. Al no
haber obtenido un destino universitario de ningún tipo después de finalizar sus
estudios, comenzó a dar clases particulares y a hacer suplencias, sólo para
ocupar el puesto de empleado de la Oficina Suiza de Patentes en Berna. Aunque
sólo tenía fines de semana libres para sus investigaciones, en los siete años que
pasó allí sentó las bases de la física del siglo XX y descubrió una forma de
contar átomos (es decir, de medir la constante de Avogadro), inventó la
relatividad estrecha (con todas sus profundas consecuencias en nuestras nociones
del espacio y el tiempo, por no mencionar E=mc2), hizo importantes
contribuciones a la teoría cuántica y más. Entre sus muchos talentos, Einstein
podía incluir la sinestesia, es decir, la capacidad de combinar datos de diferentes
sentidos, por ejemplo, la visión y el oído. Cuando meditaba sobre un problema,
sus procesos mentales siempre iban acompañados de imágenes y se daba cuenta
de que iba por el buen camino porque sentía un hormigueo en la punta de los
dedos. Su nombre se convertiría en sinónimo de gran científico en 1919, cuando
un eclipse de sol confirmó experimentalmente su teoría de la relatividad general.
El premio Nobel, sin embargo, fue otorgado por un trabajo de 1905, diferente de
la relatividad: la explicación del efecto fotoeléctrico.
Imagínese el choque cultural que experimentaron los físicos en 1900, que se
mostraron tranquilos y serenos en sus estudios para consultar datos sobre los
continuos espectros de radiación emitidos por los objetos calientes, datos que se
habían acumulado durante casi medio siglo. Los experimentos que los
produjeron fueron posibles gracias a la teoría de Maxwell sobre el
electromagnetismo, aceptada hace más de treinta años, que predecía que la luz
era una onda. El hecho de que un fenómeno tan típicamente ondulante pudiera,
en determinadas circunstancias, comportarse como si estuviera compuesto por
paquetes de energía discretos, en otras palabras, "partículas", sumió a la
comunidad científica en un terrible estado de confusión. Planck y sus colegas,
sin embargo, dieron por sentado que tarde o temprano llegarían a una
explicación de alto nivel, por así decirlo, neoclásica. Después de todo, la
radiación de cuerpo negro era un fenómeno muy complicado, como el clima
atmosférico, en el que muchos eventos en sí mismos simples de describir se
juntan en un estado complejo aparentemente esquivo. Pero quizás el aspecto más
incomprensible de esto era la forma en que la naturaleza parecía revelar por
primera vez, a quienes tenían la paciencia de observarla, sus secretos más
íntimos.
Arthur Compton
En 1923 la hipótesis de las partículas marcó un punto a su favor gracias al
trabajo de Arthur Compton, que comenzó a estudiar el efecto fotoeléctrico con
los rayos X (luz de onda muy corta). Los resultados que obtuvo no mintieron: los
fotones que chocaban con los electrones se comportaban como partículas, es
decir, como pequeñas bolas de billar11 . Este fenómeno se llama ahora el "efecto
Compton" o más propiamente "dispersión Compton".
Como en todas las colisiones elásticas de la física clásica, durante este proceso
se conservan la energía total y el momento del sistema electrón + fotón. Pero
para comprender plenamente lo que sucede, es necesario romper las vacilaciones
y tratar al fotón como una partícula a todos los efectos, un paso al que Compton
llegó gradualmente, después de haber notado el fracaso de todas sus hipótesis
anteriores. En 1923 la naciente teoría cuántica (la "vieja teoría cuántica" de Niels
Bohr) todavía no era capaz de explicar el efecto Compton, que sólo se entendería
gracias a los desarrollos posteriores. Cuando el físico americano presentó sus
resultados en una conferencia de la Sociedad Americana de Física, tuvo que
enfrentarse a la oposición abierta de muchos colegas.
Como buen hijo de una familia de la minoría menonita de Wooster, Ohio,
acostumbrado a trabajar duro, Compton no se desanimó y continuó
perfeccionando sus experimentos e interpretaciones de los resultados. El
enfrentamiento final tuvo lugar en 1924, durante un seminario de la Asociación
Británica para el Avance de la Ciencia organizado especialmente en Toronto.
Compton fue muy convincente. Su archienemigo, William Duane de Harvard,
que hasta entonces no había podido replicar sus resultados, volvió al laboratorio
y rehizo él mismo el controvertido experimento. Finalmente se vio obligado a
admitir que el efecto Compton era cierto. Su descubridor ganó el Premio Nobel
en 1927. Compton fue uno de los principales arquitectos del desarrollo de la
física americana en el siglo XX, tanto es así que recibió el honor de una portada
en el "Times" el 13 de enero de 1936.
¿Qué muestran estos resultados? Por un lado, nos enfrentamos a varios
fenómenos que muestran que la luz parece estar compuesta por una corriente de
partículas, cuántas luminosas llamadas fotones (pobre Newton, si hubiera
sabido...). Por otro lado, tenemos el experimento de Young con la doble rendija
(y millones de otros experimentos que lo confirman, todavía realizados hoy en
los laboratorios de las escuelas de todo el mundo), gracias a los cuales la luz se
comporta como una onda. Trescientos años después de la disputa onda-partícula,
todavía estamos de vuelta al principio. ¿Es una paradoja irresoluble? ¿Cómo
puede una entidad ser simultáneamente una onda y una partícula? ¿Tenemos que
dejar la física y centrarnos en el Zen y el mantenimiento de las motocicletas?
Vidrio y espejos
El fotón, como partícula, simplemente "es". Dispara los detectores, colisiona con
otras partículas, explica el efecto fotoeléctrico y el efecto Compton. ¡Existe!
Pero no explica la interferencia, y otro fenómeno también.
Recordarán que en el capítulo 1 nos detuvimos frente a un escaparate lleno de
ropa interior sexy. Ahora continuamos nuestro paseo y llegamos a los
escaparates de unos grandes almacenes, donde la colección primavera-verano se
exhibe en elegantes maniquíes. El sol brilla y el contenido de la ventana es
claramente visible; pero en el vidrio notamos que también hay un débil reflejo de
la calle y los transeúntes, incluyéndonos a nosotros. Por casualidad, esta vitrina
también contiene un espejo, que refleja nuestra imagen en detalle. Así que nos
vemos dos veces: claramente en el espejo y débilmente en el cristal.
He aquí una explicación plausible: los rayos del sol se reflejan en la superficie de
nuestro cuerpo, atraviesan la vitrina, golpean el espejo y vuelven hasta llegar a
nuestra retina. Sin embargo, un pequeño porcentaje de la luz también se refleja
en la propia vitrina. Bueno, ¿y qué? Todo esto es perfectamente lógico, como
quiera que lo veas. Si la luz es una onda, no hay problema: las ondas están
normalmente sujetas a reflexión y refracción parcial. Si la luz, en cambio, está
compuesta por un flujo de partículas, podemos explicarlo todo admitiendo que
una cierta parte de los fotones, digamos el 96%, atraviesa el cristal y el 4%
restante se refleja. Pero si tomamos un solo fotón de esta enorme corriente,
formada por partículas de todas formas, ¿cómo sabemos cómo se comportará
frente al vidrio? ¿Cómo decide nuestro fotón (llamémoslo Bernie) qué camino
tomar?
Ahora imaginemos esta horda de partículas idénticas dirigiéndose hacia el
cristal. La gran mayoría lo atraviesa, pero unos pocos son rechazados de vez en
cuando. Recuerde que los fotones son indivisibles e irreductibles - nadie ha visto
nunca el 96 por ciento de un fotón en la naturaleza. Así que Bernie tiene dos
alternativas: o pasa de una pieza, o es rechazado de una pieza. En este último
caso, que ocurre el 4% de las veces, quizás chocó con uno de los muchos átomos
de vidrio. Pero si ese fuera el caso, no veríamos nuestra imagen reflejada en la
débil pero bien definida ventana, sino que veríamos el vidrio ligeramente
empañado por ese 4% de fotones perdidos. La imagen, que reconocemos
fácilmente como "nuestra", indica que estamos en presencia de un fenómeno
coherente y ondulante, pero que los fotones existen. Aquí nos enfrentamos a otro
problema, el de la reflexión parcial. Parece que hay un 4% de probabilidad de
que un fotón, entendido como partícula, termine en una onda que se refleje. Que
las hipótesis de Planck llevaron a la introducción de elementos aleatorios y
probabilísticos en la física fue claro para Einstein ya en 1901. No le gustaba
nada, y con el tiempo su disgusto crecería.
La morsa y el panettone
Como si la solución de Planck al problema de la catástrofe del ultravioleta y la
explicación de Einstein del efecto fotoeléctrico no fueran lo suficientemente
impactantes, la física clásica se enfrentó a una tercera llamada de atención a
principios del siglo XX: el fracaso del modelo atómico de Thomson, o "modelo
panettone".
Ernest Rutherford (1871-1937) era un hombre grande y erizado que parecía una
morsa. Después de ganar el Premio Nobel de Química por su investigación en
radiactividad, se convirtió en director del prestigioso Laboratorio Cavendish en
Cambridge en 1917. Nació en Nueva Zelanda en el seno de una gran familia de
agricultores; la vida en la granja lo había acostumbrado a trabajar duro y lo
convirtió en un hombre de recursos. Apasionado por las máquinas y las nuevas
tecnologías, se dedicó desde su infancia a reparar relojes y a construir modelos
de funcionamiento de molinos de agua. En sus estudios de postgrado había
estado involucrado en el electromagnetismo y había logrado construir un
detector de ondas de radio antes de que Marconi llevara a cabo sus famosos
experimentos. Gracias a una beca llegó a Cambridge, donde su radio, capaz de
captar señales a casi un kilómetro de distancia, impresionó favorablemente a
muchos profesores, incluyendo a J. J. Thomson, que en ese momento dirigía el
Laboratorio Cavendish.
Thomson invitó a Rutherford a trabajar con él en una de las novedades de la
época, los rayos X, entonces conocidos como rayos Becquerel, y a estudiar el
fenómeno de la descarga eléctrica en los gases. El joven kiwi tenía nostalgia,
pero era una oferta imprescindible. El fruto de su colaboración se resumió en un
famoso artículo sobre la ionización, que se explicó por el hecho de que los rayos
X, al colisionar con la materia, parecían crear un número igual de partículas
cargadas eléctricamente, llamadas "iones". Thomson entonces afirmaría
públicamente que nunca había conocido a nadie tan hábil y apasionado por la
investigación como su estudiante.
Alrededor de 1909, Rutherford coordinó un grupo de trabajo dedicado a las
llamadas partículas alfa, que fueron disparadas a una fina lámina de oro para ver
cómo sus trayectorias eran desviadas por átomos de metales pesados. Algo
inesperado sucedió en esos experimentos. Casi todas las partículas se desviaron
ligeramente, al pasar por la lámina de oro, a una pantalla de detección a cierta
distancia. Pero uno de cada 8.000 rebotó y nunca pasó del papel de aluminio.
Como Rutherford dijo más tarde, "fue como disparar un mortero a un pedazo de
papel y ver la bala regresar. ¿Qué estaba pasando? ¿Había algo dentro del metal
que pudiera repeler las partículas alfa, pesadas y con carga positiva?
Gracias a las investigaciones previas de J.J. Thomson, se sabía en ese momento
que los átomos contenían luz, electrones negativos. Para que la construcción
fuera estable y para equilibrar todo, por supuesto, se requería una cantidad igual
y opuesta de cargas positivas. Sin embargo, dónde estaban estos cargos era
entonces un misterio. Antes de Rutherford, nadie había sido capaz de dar forma
al interior del átomo.
En 1905 J. J. Thomson había propuesto un modelo que preveía una carga
positiva repartida uniformemente dentro del átomo y los diversos electrones
dispersos como pasas en el panettone - por esta razón fue bautizado por los
físicos como el "modelo del panettone" (modelo del pudín de ciruela en inglés).
Si el átomo se hizo realmente así, las partículas alfa del experimento anterior
siempre tendrían que pasar a través de la lámina: sería como disparar balas a un
velo de espuma de afeitar. Aquí, ahora imagina que en esta situación una bala de
cada ocho mil es desviada por la espuma hasta que vuelve. Esto sucedió en el
laboratorio de Rutherford.
Según sus cálculos, la única manera de explicar el fenómeno era admitir que
toda la masa y la carga positiva del átomo se concentraba en un "núcleo", una
pequeña bola situada en el centro del propio átomo. De esta manera habría
habido las concentraciones de masa y carga necesarias para repeler las partículas
alfa, pesadas y positivas, que eventualmente llegaron en un curso de colisión.
Era como si dentro del velo de espuma de afeitar hubiera muchas bolas duras y
resistentes, capaces de desviar y repeler las balas. Los electrones a su vez no se
dispersaron sino que giraron alrededor del núcleo. Gracias a Rutherford,
entonces, el modelo de pan dulce fue consignado al basurero de la historia. El
átomo parecía más bien un pequeño sistema solar, con planetas en miniatura (los
electrones) orbitando una densa y oscura estrella (el núcleo), todo ello unido por
fuerzas electromagnéticas.
Con experimentos posteriores se descubrió que el núcleo era realmente
diminuto: su volumen era una milésima de una milmillonésima del átomo. Por el
contrario, contenía más del 99,98% de la masa total del átomo. Así que la
materia estaba hecha en gran parte de vacío, de puntos alrededor de los cuales
los electrones giraban a grandes distancias. Realmente increíble: ¡la materia está
básicamente hecha de nada! (incluso la silla "sólida" en la que estás sentado
ahora está prácticamente toda vacía). En el momento de este descubrimiento, la
física clásica, desde la F=ma de Newton hasta las leyes de Maxwell, todavía se
consideraba inexpugnable, tanto a nivel microscópico como a gran escala, a
nivel del sistema solar. Se creía que en el átomo funcionaban las mismas leyes
válidas en otros lugares. Todos dormían en sueños tranquilos hasta que llegó
Niels Bohr.
El danés melancólico
Un día, Niels Bohr, un joven teórico danés que se estaba perfeccionando en ese
momento en el Laboratorio Cavendish, asistió a una conferencia en Rutherford y
quedó tan impresionado por la nueva teoría atómica del gran experimentador que
le pidió que trabajara con él en la Universidad de Manchester, donde estaba
entonces. Aceptó acogerlo durante cuatro meses en 1912.
Reflexionando tranquilamente sobre los nuevos datos experimentales, Bohr
pronto se dio cuenta de que había algo malo en el modelo. De hecho, ¡fue un
desastre! Si se aplican las ecuaciones de Maxwell a un electrón en una órbita
circular muy rápida alrededor del núcleo, resulta que la partícula pierde casi
inmediatamente toda su energía, en forma de ondas electromagnéticas. Debido a
esto el radio orbital se hace cada vez más pequeño, reduciéndose a cero en sólo
10-16 segundos (una diez millonésima de una billonésima de segundo). En pocas
palabras, un electrón según la física clásica debería caer casi instantáneamente
en el núcleo. Así que el átomo, es decir, la materia, es inestable, y el mundo tal
como lo conocemos es físicamente imposible. Las ecuaciones de Maxwell
parecían implicar el colapso del modelo orbital. Así que el modelo estaba
equivocado, o las venerables leyes de la física clásica estaban equivocadas.
Bohr se puso a estudiar el átomo más simple de todos, el átomo de hidrógeno,
que en el modelo de Rutherford consiste en un solo electrón negativo que orbita
alrededor del núcleo positivo. Pensando en los resultados de Planck y Einstein, y
en ciertas ideas que estaban en el aire sobre el comportamiento ondulatorio de
las partículas, el joven danés se lanzó a una hipótesis muy poco clásica y muy
arriesgada. Según Bohr, sólo se permiten ciertas órbitas al electrón, porque su
movimiento dentro del átomo es similar al de las ondas. Entre las órbitas
permitidas hay una de nivel de energía mínimo, donde el electrón se acerca lo
más posible al núcleo: la partícula no puede bajar más que esto y por lo tanto no
puede emitir energía mientras salta a un nivel más bajo - que realmente no
existe. Esta configuración especial se llama el estado fundamental.
Con su modelo, Bohr intentaba principalmente explicar a nivel teórico el
espectro discreto de los átomos, esas líneas más o menos oscuras que ya hemos
encontrado. Como recordarán, los diversos elementos, al ser calentados hasta
que emiten luz, dejan una huella característica en el espectrómetro que consiste
en una serie de líneas de color que resaltan claramente sobre un fondo más
oscuro. En el espectro de la luz solar, entonces, también hay líneas negras y
delgadas en ciertos puntos precisos. Las líneas claras corresponden a las
emisiones, las oscuras a las absorciones. El hidrógeno, como todos los
elementos, tiene su "huella" espectral: a estos datos, conocidos en su momento,
Bohr trató de aplicar su modelo recién nacido.
En tres artículos posteriores publicados en 1913, el físico danés expuso su audaz
teoría cuántica del átomo de hidrógeno. Las órbitas permitidas al electrón se
caracterizan por cantidades fijas de energía, que llamaremos E1, E2, E3 etc. Un
electrón emite radiación cuando "salta" de un nivel superior, digamos E3, a uno
inferior, digamos E2: es un fotón cuya energía (dada, recordemos, por E=hf) es
igual a la diferencia entre los de los dos niveles. Así que E2-E3=hf. Añadiendo
este efecto en los miles de millones de átomos donde el proceso ocurre al mismo
tiempo, obtenemos como resultado las líneas claras del espectro. Gracias a un
modelo que conservaba parcialmente la mecánica newtoniana pero que se
desviaba de ella cuando no estaba de acuerdo con los datos experimentales, Bohr
pudo calcular triunfalmente las longitudes de onda correspondientes a todas las
líneas espectrales del hidrógeno. Sus fórmulas dependían sólo de constantes y
valores conocidos, como la masa y la carga de los electrones (como de
costumbre sazonada aquí y allá por símbolos como π y, obviamente, el signo
distintivo de la mecánica cuántica, la constante h de Planck).
Resumiendo, en el modelo de Bohr el electrón permanece confinado en pocas
órbitas permitidas, como por arte de magia, que corresponden a niveles de
energía bien definidos E1, E2, E3 etc. El electrón puede absorber energía sólo en
"paquetes" o "cuantos"; si absorbe un número adecuado, puede "saltar" del nivel
en que se encuentra a uno más alto, por ejemplo, de E2 a E3; viceversa, los
electrones de los niveles superiores pueden deslizarse espontáneamente hacia
abajo, regresando por ejemplo de E3 a E2, y al hacerlo emiten cuantos de luz, es
decir, fotones. Estos fotones pueden ser observados porque tienen longitudes de
onda específicas, que corresponden a las líneas espectrales. Sus valores se
predicen exactamente, en el caso del átomo de hidrógeno, por el modelo de
Bohr.
El carácter del átomo
Así es gracias a Rutherford y Bohr si hoy en día la representación más conocida
del átomo es la del sistema solar, donde pequeños electrones zumban alrededor
del núcleo como muchos planetas pequeños, en órbitas similares a las elípticas
predichas por Kepler. Muchos quizás piensan que el modelo es preciso y que el
átomo está hecho así. Desgraciadamente no, porque las intuiciones de Bohr eran
brillantes pero no del todo correctas. La proclamación del triunfo resultó
prematura. Se dio cuenta de que su modelo se aplicaba sólo al átomo más
simple, el átomo de hidrógeno, pero ya estaba fallando en el siguiente paso, con
el helio, el átomo con dos electrones. Los años 20 estaban a la vuelta de la
esquina y la mecánica cuántica parecía atascada. Sólo se había dado el primer
paso, correspondiente a lo que ahora llamamos la vieja teoría cuántica.
Los padres fundadores, Planck, Einstein, Rutherford y Bohr, habían comenzado
la revolución pero aún no habían cosechado los beneficios. Estaba claro para
todos que la inocencia se había perdido y que la física se estaba volviendo
extraña y misteriosa: había un mundo de paquetes de energía y electrones que
saltaban mágicamente sólo en ciertas órbitas y no en otras, un mundo donde los
fotones son ondas y partículas al mismo tiempo, sin estar en el fondo de ninguna
de las dos. Todavía había mucho que entender.
Capítulo 5
Un incierto Heisenberg

Y este es el momento que todos han estado esperando. Estamos a punto de


enfrentarnos a la verdadera mecánica cuántica de frente y entrar en un
territorio alienígena y desconcertante. La nueva ciencia empujó incluso a
Wolfgang Pauli, uno de los más grandes físicos de todos los tiempos, a la
exasperación. En 1925, en una carta a un colega, dijo que estaba dispuesto a
abandonar la lucha: "La física es ahora demasiado difícil. Prefiero ser un actor
cómico, o algo así, que un físico". Si tal gigante del pensamiento científico
hubiera abandonado la investigación para convertirse en el Jerry Lewis de su
tiempo, hoy no estaríamos hablando del "principio excluyente de Pauli" y la
historia de la ciencia podría haber tomado un rumbo muy diferente1 . El viaje
que estamos a punto de emprender no es recomendable para los débiles de
corazón, pero llegar al destino será una recompensa extraordinaria.
La naturaleza está hecha en paquetes
Empecemos con la vieja teoría cuántica, formulada por Bohr para dar cuenta de
los resultados del experimento de Rutherford. Como recordarán, reemplazó el
modelo del átomo panettone con la idea de que había un denso núcleo central
rodeado de electrones zumbantes, una configuración similar a la del sistema
solar, con nuestra estrella en el centro y los planetas orbitándola. Ya hemos
dicho que este modelo también ha pasado a una vida mejor. Víctima de
refinamientos posteriores, la vieja teoría cuántica, con su loca mezcla de
mecánica clásica y ajustes cuánticos ad hoc, fue en un momento dado
completamente abandonada. Sin embargo, el mérito de Bohr fue presentar al
mundo por primera vez un modelo de átomo cuántico, que ganó credibilidad
gracias a los resultados del brillante experimento que veremos en breve.
Según las leyes clásicas, ningún electrón podría permanecer en órbita alrededor
del núcleo. Su movimiento sería acelerado, como todos los movimientos
circulares (porque la velocidad cambia continuamente de dirección con el
tiempo), y según las leyes de Maxwell cada partícula cargada en movimiento
acelerado emite energía en forma de radiación electromagnética, es decir, luz.
Según los cálculos clásicos, un electrón en órbita perdería casi inmediatamente
su energía, que desaparecería en forma de radiación electromagnética; por lo
tanto, la partícula en cuestión perdería altitud y pronto se estrellaría contra el
núcleo. El átomo clásico no podría existir, si no es en forma colapsada, por lo
tanto químicamente muerto e inservible. La teoría clásica no fue capaz de
justificar los valores energéticos de los electrones y los núcleos. Por lo tanto, era
necesario inventar un nuevo modelo: la teoría cuántica.
Además, como ya se sabía a finales del siglo XIX gracias a los datos de las
líneas espectrales, los átomos emiten luz pero sólo con colores definidos, es
decir, con longitudes de onda (o frecuencias) a valores discretos y cuantificados.
Casi parece que sólo pueden existir órbitas particulares, y los electrones están
obligados a saltar de una a otra cada vez que emiten o absorben energía. Si el
modelo "kepleriano" del átomo como sistema solar fuera cierto, el espectro de la
radiación emitida sería continuo, porque la mecánica clásica permite la
existencia de un rango continuo de órbitas. Parece, en cambio, que el mundo
atómico es "discreto", muy diferente de la continuidad prevista por la física
newtoniana.
Bohr centró su atención en el átomo más simple de todos, el átomo de
hidrógeno, equipado con un solo protón en el núcleo y un electrón orbitando
alrededor de él. Jugando un poco con las nuevas ideas de la mecánica cuántica,
se dio cuenta de que podía aplicar a los electrones la hipótesis de Planck, es
decir, asociar a una cierta longitud de onda (o frecuencia) el momento (o
energía) de un fotón, de la que se podía deducir la existencia de órbitas discretas.
Después de varios intentos, finalmente llegó a la fórmula correcta. Las órbitas
"especiales" de Bohr eran circulares y cada una tenía una circunferencia
asignada, siempre igual a la longitud de onda cuántica del electrón derivada de la
ecuación de Planck. Estas órbitas mágicas correspondían a valores energéticos
particulares, por lo que el átomo sólo podía tener un conjunto discreto de estados
de energía.
Bohr comprendió inmediatamente que había una órbita mínima, a lo largo de la
cual el electrón estaba lo más cerca posible del núcleo. Desde este nivel no podía
caer más bajo, por lo que el átomo no se derrumbó y su destino fatal. Esta órbita
mínima se conoce como el estado fundamental y corresponde al estado de
energía mínima del electrón. Su existencia implica la estabilidad del átomo. Hoy
sabemos que esta propiedad caracteriza a todos los sistemas cuánticos.
La hipótesis de Bohr demostró ser realmente efectiva: de las nuevas ecuaciones
todos los números que correspondían a los valores observados en los
experimentos saltaron uno tras otro. Los electrones atómicos están, como dicen
los físicos, "ligados" y sin la contribución de la energía del exterior continúan
girando tranquilamente alrededor del núcleo. La cantidad de energía necesaria
para hacerlos saltar y liberarlos del enlace atómico se llama, precisamente,
energía de enlace, y depende de la órbita en la que se encuentre la partícula. (Por
lo general nos referimos a tal energía como el mínimo requerido para alejar un
electrón del átomo y llevarlo a una distancia infinita y con energía cinética nula,
un estado que convencionalmente decimos energía nula; pero es, de hecho, sólo
una convención). Viceversa, si un electrón libre es capturado por un átomo,
libera una cantidad de energía, en forma de fotones, igual a la cantidad de enlace
de la órbita en la que termina.
Las energías de enlace de las órbitas (es decir, de los estados) se miden
generalmente en unidades llamadas voltios de electrones (símbolo: eV). El
estado fundamental en el átomo de hidrógeno, que corresponde a esa órbita
especial de mínima distancia del núcleo y máxima energía de enlace, tiene una
energía igual a 13,6 eV. Este valor se puede obtener teóricamente también
gracias a la llamada "fórmula de Rydberg", llamada así en honor del físico sueco
Johannes Rydberg, quien en 1888 (ampliando algunas investigaciones de Johann
Balmer y otros) había adelantado una explicación empírica de las líneas
espectrales del hidrógeno y otros átomos. De hecho, el valor de 13,6 eV y la
fórmula de la que puede derivarse se conocían desde hacía algunos años, pero
fue Bohr quien primero dio una rigurosa justificación teórica.
Los estados cuánticos de un electrón en el átomo de hidrógeno (equivalente a
una de las órbitas de Bohr) se representan con un número entero n = 1, 2, 3, ... El
estado con la mayor energía de unión, el fundamental, corresponde a n=1; el
primer estado excitado a n=2, y así sucesivamente. El hecho de que este
conjunto discreto de estados sea el único posible en los átomos es la esencia de
la teoría cuántica. El número n tiene el honor de tener un nombre propio en la
física y se llama "número cuántico principal". Cada estado, o número cuántico,
está caracterizado por un valor energético (en eV, como el que se ve arriba) y
está etiquetado con las letras E1, E2, E3, etc. (véase la nota 3).
Como recordarán, en esta teoría, anticuada pero no olvidada, se espera que los
electrones emitan fotones al saltar de un estado de mayor energía a otro de
menor energía. Esta regla obviamente no se aplica al estado fundamental E1, es
decir, cuando n=1, porque en este caso el electrón no tiene disponible una órbita
inferior. Estas transiciones tienen lugar de una manera completamente predecible
y lógica. Si, por ejemplo, el electrón en el estado n=3 baja al estado n=2, el
ocupante de esta última órbita debe nivelarse hasta n=1. Cada salto va
acompañado de la emisión de un fotón con una energía igual a la diferencia entre
las energías de los estados implicados, como E2-E3 o E1-E2. En el caso del
átomo de hidrógeno, los valores numéricos correspondientes son 10,5 eV - 9,2
eV = 1,3 eV, y 13,6 eV - 10,5 eV = 3,1 eV. Dado que la energía E y la longitud
de onda λ de un fotón están relacionadas por la fórmula de Planck E=hf=hc/λ, es
posible derivar la energía de los fotones emitidos midiendo su longitud de onda
por espectroscopia. En la época de Bohr los relatos parecían volver en lo que
respecta al átomo de hidrógeno, el más simple (sólo un electrón alrededor de un
protón), pero ya delante del helio, el segundo elemento en orden de simplicidad,
no se sabía bien cómo proceder.
A Bohr se le ocurrió otra idea, que es medir el momento de los electrones a
través de la absorción de energía por los átomos, invirtiendo el razonamiento
visto anteriormente. Si la hipótesis de los estados cuánticos es cierta, entonces
los átomos pueden adquirir energía sólo en paquetes correspondientes a las
diferencias entre las energías de los estados, E2 - E3, E1 - E2 y así
sucesivamente. El experimento crucial para probar esta hipótesis fue realizado
en 1914 por James Franck y Gustav Hertz en Berlín, y fue quizás la última
investigación importante realizada en Alemania antes del estallido de la Primera
Guerra Mundial. Los dos científicos obtuvieron resultados perfectamente
compatibles con la teoría de Bohr, pero no eran conscientes de ello. No
conocerían los resultados del gran físico danés hasta varios años después.
Los terribles años 20
Es difícil darse cuenta del pánico que se extendió entre los más grandes físicos
del mundo a principios de los terribles años 20, entre 1920 y 1925. Después de
cuatro siglos de fe en la existencia de principios racionales que subyacen a las
leyes de la naturaleza, la ciencia se vio obligada a revisar sus propios
fundamentos. El aspecto que más perturbó las conciencias, adormecidas por las
tranquilizadoras certezas del pasado, fue la desconcertante dualidad subyacente
de la teoría cuántica. Por un lado, había abundante evidencia experimental de
que la luz se comportaba como una onda, completa con interferencia y
difracción. Como ya hemos visto en detalle, la hipótesis de la onda es la única
capaz de dar cuenta de los datos obtenidos del experimento de la doble rendija.
Por otra parte, una cosecha igualmente abundante de experiencias demostró
fuertemente la naturaleza de partícula de la luz - y lo vimos en la anterior con la
radiación de cuerpo negro, el efecto fotoeléctrico y el efecto Compton. La
conclusión lógica a la que llevaron estos experimentos fue una y sólo una: la luz
de cualquier color, por lo tanto de cualquier longitud de onda, estaba compuesta
por una corriente de partículas, todas ellas moviéndose en el vacío a la misma
velocidad, c. Cada uno tenía su propio impulso, una cantidad que en la física
newtoniana venía dada por el producto de la masa para la velocidad y que para
los fotones es igual a la energía dividida por c. El impulso es importante (como
puede atestiguar cualquiera que haya pasado delante de una cámara de
velocidad), porque su total en un sistema se conserva, es decir, no cambia ni
siquiera después de varios impactos. En el caso clásico se conoce el ejemplo de
la colisión de dos bolas de billar: aunque las velocidades cambien, la suma del
momento antes y después de la colisión permanece constante. El experimento de
Compton ha demostrado que esta conservación también es válida para los que se
comportan como coches y otros objetos macroscópicos.
Deberíamos detenernos un momento para aclarar la diferencia entre ondas y
partículas. En primer lugar, los últimos son discretos. Toma dos vasos, uno lleno
de agua y otro de arena fina. Ambas sustancias cambian de forma y pueden ser
vertidas, tanto que, en un examen no demasiado exhaustivo, parecen compartir
las mismas propiedades. Pero el líquido es continuo, suave, mientras que la
arena está formada por granos discretos y contables. Una cucharadita de agua
contiene un cierto volumen de líquido, una cucharadita de arena se puede
cuantificar en el número de granos. La mecánica cuántica reevalúa cantidades
discretas y números enteros, en lo que parece ser un retorno a las teorías
pitagóricas. Una partícula, en cada instante, tiene una posición definida y se
mueve a lo largo de una cierta trayectoria, a diferencia de una onda, que está
"embadurnada" en el espacio. Las partículas, además, tienen una cierta energía e
impulso, que puede transferirse a otras partículas en las colisiones. Por
definición, una partícula no puede ser una onda y viceversa.
De vuelta a nosotros. Los físicos en la década de 1920 estaban desconcertados
ante esa extraña bestia, mitad partícula, mitad onda, que algunos llamaban
ondícula (contracción de onda, onda y partícula, partícula). A pesar de las
pruebas bien establecidas a favor de la naturaleza ondulatoria, experimento tras
experimento los fotones resultaron ser objetos concretos, capaces de colisionar
entre sí y con los electrones. Los átomos emitieron uno cuando salieron de un
estado de excitación, liberando la misma cantidad de energía, E=hf, transportada
por el propio fotón. La historia tomó un giro aún más sorprendente con la
entrada de un joven físico francés, el aristócrata Louis-Cesar-Victor-Maurice de
Broglie, y su memorable tesis doctoral.
La familia de Broglie, entre cuyos miembros sólo había oficiales de alto rango,
diplomáticos o políticos, era muy hostil a las inclinaciones de Louis. El viejo
duque, su abuelo, llamaba a la ciencia "una anciana que busca la admiración de
los jóvenes". Así que el vástago, en aras del compromiso, emprendió sus
estudios para convertirse en oficial de la marina, pero continuó experimentando
en su tiempo libre, gracias al laboratorio que había instalado en la mansión
ancestral. En la marina se hizo un nombre como experto en transmisión y
después de la muerte del viejo duque se le permitió tomarse un permiso para
dedicarse a tiempo completo a su verdadera pasión.
De Broglie había reflexionado largamente sobre las dudas de Einstein acerca del
efecto fotoeléctrico, que era incompatible con la naturaleza ondulante de la luz y
que corroboraba la hipótesis de los fotones. Mientras releía el trabajo del gran
científico, al joven francés se le ocurrió una idea muy poco ortodoxa. Si la luz,
que parecería ser una onda, exhibe un comportamiento similar al de las
partículas, quizás lo contrario también pueda ocurrir en la naturaleza. Tal vez las
partículas, todas las partículas, exhiben un comportamiento ondulatorio en
ciertas ocasiones. En palabras de de Broglie: "La teoría del átomo de Bohr me
llevó a formular la hipótesis de que los electrones también podían considerarse
no sólo partículas, sino también objetos a los que era posible asignar una
frecuencia, que es una propiedad ondulatoria".
Unos años antes, un estudiante de doctorado que hubiera elegido esta audaz
hipótesis para su tesis se habría visto obligado a trasladarse a la facultad de
teología de alguna oscura universidad de Molvania Citeriore. Pero en 1924 todo
era posible, y de Broglie tenía un admirador muy especial. El gran Albert
Einstein fue llamado por sus perplejos colegas parisinos como consultor externo
para examinar la tesis del candidato, que le pareció muy interesante (tal vez
también pensó "pero ¿por qué no tuve esta idea?"). En su informe a la comisión
parisina, el Maestro escribió: "De Broglie ha levantado una solapa del gran
velo". El joven francés no sólo obtuvo el título, sino que unos años más tarde
recibió incluso el Premio Nobel de Física, gracias a la teoría presentada en su
tesis. Su mayor éxito fue haber encontrado una relación, modelada en la de
Planck, entre el momento clásico de un electrón (masa por velocidad) y la
longitud de onda de la onda correspondiente. Pero, ¿una ola de qué? Un electrón
es una partícula, por el amor de Dios, ¿dónde está la onda? De Broglie habló de
"un misterioso fenómeno con caracteres de periodicidad" que tuvo lugar dentro
de la propia partícula. Parece poco claro, pero estaba convencido de ello. Y
aunque su interpretación era humeante, la idea subyacente era brillante.
En 1927, dos físicos americanos que trabajaban en los prestigiosos Laboratorios
Bell de AT&T, Nueva Jersey, estudiaban las propiedades de los tubos de vacío
bombardeando con flujos de electrones varios tipos de cristales. Los resultados
fueron bastante extraños: los electrones salieron de los cristales según las
direcciones preferidas y parecían ignorar a los demás. Los investigadores del
Laboratorio Bell no lo sabían, hasta que descubrieron la loca hipótesis de De
Broglie. Visto desde este nuevo punto de vista, su experimento era sólo una
versión compleja del de Young, con la doble rendija, y el comportamiento de los
electrones mostraba una propiedad bien conocida de las ondas, que es la
difracción! Los resultados habrían tenido sentido si se hubiera asumido que la
longitud de onda de los electrones estaba realmente relacionada con su impulso,
tal como de Broglie había predicho. La red regular de átomos en los cristales era
el equivalente a las fisuras del experimento de Young, que tenía más de un siglo
de antigüedad. Este descubrimiento fundamental de la "difracción electrónica"
corroboró la tesis de de Broglie: los electrones son partículas que se comportan
como ondas, y también es bastante fácil de verificar.
Volveremos en breve a la cuestión de la difracción, rehaciendo nuestro ya
conocido experimento de doble rendija con electrones, que nos dará un resultado
aún más desconcertante. Aquí sólo observamos que esta propiedad es
responsable del hecho de que los diversos materiales se comportan como
conductores, aislantes o semiconductores, y está en la base de la invención de los
transistores. Ahora tenemos que conocer a otro protagonista - tal vez el
verdadero superhéroe de la revolución cuántica.
Una matemática extraña
Werner Heisenberg (1901-1976) fue el príncipe de los teóricos, tan
desinteresado en la práctica del laboratorio que se arriesgó a reprobar su tesis en
la Universidad de Munich porque no sabía cómo funcionaban las baterías.
Afortunadamente para él y para la física en general, también fue ascendido.
Hubo otros momentos no fáciles en su vida. Durante la Primera Guerra Mundial,
mientras su padre estaba en el frente como soldado, la escasez de alimentos y
combustible en la ciudad era tal que las escuelas y universidades se veían a
menudo obligadas a suspender las clases. Y en el verano de 1918 el joven
Werner, debilitado y desnutrido, se vio obligado, junto con otros estudiantes, a
ayudar a los agricultores en una cosecha agrícola bávara.
Al final de la guerra, a principios de los años 20, era un joven prodigio: pianista
de alto nivel, esquiador y alpinista hábil, así como matemático licenciado en
física. Durante las lecciones del viejo maestro Arnold Sommerfeld, conoció a
otro joven prometedor, Wolfgang Pauli, que más tarde se convertiría en su más
cercano colaborador y su más feroz crítico. En 1922 Sommerfeld llevó a
Heisenberg, de 21 años, a Göttingen, entonces el faro de la ciencia europea, para
asistir a una serie de conferencias sobre la naciente física atómica cuántica,
impartidas por el propio Niels Bohr. En esa ocasión el joven investigador, nada
intimidado, se atrevió a contrarrestar algunas de las afirmaciones del gurú y
desafiar su modelo teórico de raíz. Sin embargo, después de este primer
enfrentamiento, nació una larga y fructífera colaboración entre ambos, marcada
por la admiración mutua.
Desde ese momento Heisenberg se dedicó en cuerpo y alma a los enigmas de la
mecánica cuántica. En 1924 pasó un tiempo en Copenhague, para trabajar
directamente con Bohr en los problemas de emisión y absorción de radiación.
Allí aprendió a apreciar la "actitud filosófica" (en palabras de Pauli) del gran
físico danés. Frustrado por las dificultades de concretar el modelo atómico de
Bohr, con sus órbitas puestas de esa manera quién sabe cómo, el joven se
convenció de que debe haber algo malo en la raíz. Cuanto más lo pensaba, más
le parecía que esas órbitas simples, casi circulares, eran un excedente, una
construcción puramente intelectual. Para deshacerse de ellos, comenzó a pensar
que la idea misma de la órbita era un residuo newtoniano del que había que
prescindir.
El joven Werner se impuso una doctrina feroz: ningún modelo debe basarse en la
física clásica (por lo tanto, nada de sistemas solares en miniatura, aunque sean lo
suficientemente bonitos para dibujar). El camino a la salvación no fue la
intuición o la estética, sino el rigor matemático. Otro de sus dikats conceptuales
era la renuncia a todas las entidades (como las órbitas, para ser precisos) que no
se podían medir directamente.
En los átomos se medían las líneas espectrales, testigos de la emisión o
absorción de fotones por parte de los átomos como resultado del salto entre los
niveles de electrones. Así que fue a esas líneas netas, visibles y verificables
correspondientes al inaccesible mundo subatómico a las que Heisenberg dirigió
su atención. Para resolver este problema diabólicamente complicado, y para
encontrar alivio a la fiebre del heno, en 1925 se retiró a Helgoland, una isla
remota en el Mar del Norte.
Su punto de partida fue el llamado "principio de correspondencia", enunciado
por Bohr, según el cual las leyes cuánticas debían transformarse sin problemas
en las correspondientes leyes clásicas cuando se aplicaban a sistemas
suficientemente grandes. ¿Pero cómo de grande? Tan grande que fue posible
descuidar la constante h de Planck en las ecuaciones relativas. Un objeto típico
del mundo atómico tiene una masa igual a 10-27 kg; consideremos que un grano
de polvo apenas visible a simple vista puede pesar 10-7 kg: muy poco, pero aún
así es mayor que un factor 100000000000000, es decir, 1020, un uno seguido de
veinte ceros. Así que el polvo atmosférico está claramente dentro del dominio de
la física clásica: es un objeto macroscópico y su movimiento no se ve afectado
por la presencia de factores dependientes de la constante de Planck. Las leyes
cuánticas básicas se aplican naturalmente a los fenómenos del mundo atómico y
subatómico, mientras que pierde sentido utilizarlas para describir fenómenos
relacionados con agregados más grandes que los átomos, a medida que las
dimensiones crecen y la física cuántica da paso a las leyes clásicas de Newton y
Maxwell. El fundamento de este principio (como volveremos a repetir muchas
veces) radica en el hecho de que los extraños e inéditos efectos cuánticos "se
corresponden" directamente con los conceptos clásicos de la física al salir del
campo atómico para entrar en el macroscópico.
Impulsado por las ideas de Bohr, Heisenberg redefinió en el campo cuántico las
nociones más banales de la física clásica, como la posición y la velocidad de un
electrón, para que estuvieran en correspondencia con los equivalentes
newtonianos. Pero pronto se dio cuenta de que sus esfuerzos por reconciliar dos
mundos llevaron al surgimiento de un nuevo y extraño "álgebra de la física".
Todos aprendimos en la escuela la llamada propiedad conmutativa de la
multiplicación, es decir, el hecho de que, dados dos números cualesquiera a y b,
su producto no cambia si los intercambiamos; en símbolos: a×b=b×a. Es obvio,
por ejemplo, que 3×4 =4×3=12. Sin embargo, en la época de Heisenberg se
conoce desde hace mucho tiempo la existencia de sistemas numéricos abstractos
en los que la propiedad conmutativa no siempre es válida y no se dice que a × b
sea igual a b × a. Pensándolo bien, también se pueden encontrar ejemplos de
operaciones no conmutables en la naturaleza. Un caso clásico son las rotaciones
e inclinaciones (intente realizar dos rotaciones diferentes en un objeto como un
libro, y encontrará ejemplos en los que el orden en que se producen es
importante).
Heisenberg no había estudiado a fondo las fronteras más avanzadas de las
matemáticas puras de su tiempo, pero pudo contar con la ayuda de colegas más
experimentados, que reconocieron inmediatamente el tipo de álgebra que
contenían sus definiciones: no eran más que multiplicaciones de matrices con
valores complejos. El llamado "álgebra matricial" era una exótica rama de las
matemáticas, conocida desde hace unos sesenta años, que se utilizaba para tratar
objetos formados por filas y columnas de números: matrices. El álgebra
matrimonial aplicada al formalismo de Heisenberg (llamada mecánica matricial)
condujo a la primera disposición concreta de la física cuántica. Sus cálculos
condujeron a resultados sensatos para las energías de los estados y las
transiciones atómicas, es decir, saltos en el nivel de los electrones.
Cuando se aplicó la mecánica matricial no sólo al caso del átomo de hidrógeno,
sino también a otros sistemas microscópicos simples, se descubrió que
funcionaba de maravilla: las soluciones obtenidas teóricamente coincidían con
los datos experimentales. Y de esas extrañas manipulaciones de las matrices
surgió un concepto revolucionario.
Los primeros pasos del principio de incertidumbre
La principal consecuencia de la no conmutación resultó ser esta. Si indicamos
con x la posición a lo largo de un eje y p el momento, siempre a lo largo del
mismo eje, de una partícula, el hecho de que xp no sea igual a px implica que los
dos valores no pueden ser medidos simultáneamente de una manera definida y
precisa. En otras palabras, si obtenemos la posición exacta de una partícula,
perturbamos el sistema de tal manera que ya no es posible conocer su momento,
y viceversa. La causa de esto no es tecnológica, no son nuestros instrumentos los
que son inexactos: es la naturaleza la que está hecha de esta manera.
En el formalismo de la mecánica matricial podemos expresar esta idea de
manera concisa, lo que siempre ha enloquecido a los filósofos de la ciencia: "La
incertidumbre relacionada con la posición de una partícula, indicada con Δx, y la
relacionada con el impulso, Δp, están vinculadas por la relación: ΔxΔp≥ħ/2,
donde ħ=h/2π". En palabras: "el producto de las incertidumbres relativas a la
posición y el momento de una partícula es siempre mayor o igual a un número
igual a la constante de Planck dividido por cuatro veces pi". Esto implica que si
medimos la posición con gran precisión, haciendo así que Δx sea lo más
pequeño posible, automáticamente hacemos que Δp sea arbitrariamente grande,
y viceversa. No se puede tener todo en la vida: hay que renunciar a saber
exactamente la posición, o el momento.
A partir de este principio también podemos deducir la estabilidad del átomo de
Bohr, es decir, demostrar la existencia de un estado fundamental, una órbita
inferior bajo la cual el electrón no puede descender, como sucede en cambio en
la mecánica newtoniana. Si el electrón se acercara cada vez más al núcleo hasta
que nos golpeara, la incertidumbre sobre su posición sería cada vez menor, es
decir, como dicen los científicos Δx "tendería a cero". De acuerdo con el
principio de Heisenberg Δp se volvería arbitrariamente grande, es decir, la
energía del electrón crecería más y más. Se muestra que existe un estado de
equilibrio en el que el electrón está "bastante" bien ubicado, con Δx diferente de
cero, y en el que la energía es la mínima posible, dado el valor correspondiente
de Δp.
La relación física del principio de incertidumbre es más fácil de entender si nos
ponemos en otro orden de razonamiento, à la Schrödinger, y examinamos una
propiedad (no cuántica) de las ondas electromagnéticas, bien conocida en el
campo de las telecomunicaciones. Sí, estamos a punto de volver a las olas. La
mecánica de las matrices parecía a primera vista la única forma rigurosa de
penetrar en los meandros del mundo atómico. Pero afortunadamente, mientras
los físicos se preparaban para convertirse en expertos en álgebra, otra solución
más atractiva para el problema surgió en 1926.
La ecuación más hermosa de la historia
Ya conocimos a Erwin Schrödinger en el capítulo 1. Como recordarán, en un
momento dado se tomó unas vacaciones en Suiza para estudiar en paz, y el fruto
de este período fue una ecuación, la ecuación de Schrödinger, que aportó una
claridad considerable al mundo cuántico.
¿Por qué es tan importante? Volvamos a la primera ley de Newton, la F=pero
que gobierna el movimiento de las manzanas, los planetas y todos los objetos
macroscópicos. Nos dice que la fuerza F aplicada a un objeto de masa m produce
una aceleración (es decir, un cambio de velocidad) a y que estas tres cantidades
están vinculadas por la relación escrita arriba. Resolver esta ecuación nos
permite conocer el estado de un cuerpo, por ejemplo una pelota de tenis, en cada
momento. Lo importante, en general, es conocer la F, de la que luego derivamos
la posición x y la velocidad v en el instante t. Las relaciones entre estas
cantidades se establecen mediante ecuaciones diferenciales, que utilizan
conceptos de análisis infinitesimal (inventados por el propio Newton) y que a
veces son difíciles de resolver (por ejemplo, cuando el sistema está compuesto
por muchos cuerpos). La forma de estas ecuaciones es, sin embargo, bastante
simple: son los cálculos y aplicaciones los que se complican.
Newton asombró al mundo demostrando que combinando la ley de la
gravitación universal con la ley del movimiento, aplicada a la fuerza de la
gravedad, podíamos obtener las sencillas órbitas elípticas y las leyes del
movimiento planetario que Kepler había enunciado para el sistema solar. La
misma ecuación es capaz de describir los movimientos de la Luna, de una
manzana que cae del árbol y de un cohete disparado en órbita. Sin embargo, esta
ecuación no puede resolverse explícitamente si están involucrados cuatro o más
cuerpos, todos sujetos a la interacción gravitatoria; en este caso es necesario
proceder por aproximaciones y/o con la ayuda de métodos numéricos (gracias a
las calculadoras). Es un buen caso: en la base de las leyes de la naturaleza hay
una fórmula aparentemente simple, pero que refleja la increíble complejidad de
nuestro mundo. La ecuación de Schrödinger es la versión cuántica de F=ma. Sin
embargo, si lo resolvemos, no nos encontramos con los valores de posición y
velocidad de las partículas, como en el caso newtoniano.
En esas vacaciones de diciembre de 1925, Schrödinger trajo consigo no sólo a su
amante, sino también una copia de la tesis doctoral de de Broglie. Muy pocos, en
ese momento, se habían dado cuenta de las ideas del francés, pero después de la
lectura de Schrödinger las cosas cambiaron rápidamente. En marzo de 1926, este
profesor de 40 años de la Universidad de Zurich, que hasta entonces no había
tenido una carrera particularmente brillante y que para los estándares del joven
físico de la época era casi decrépito, dio a conocer al mundo su ecuación, que
trataba del movimiento de los electrones en términos de ondas, basada en la tesis
de de Broglie. Para sus colegas resultó ser mucho más digerible que las frías
abstracciones de la mecánica matricial. En la ecuación de Schrödinger apareció
una nueva cantidad fundamental, la función de onda, indicada con Ψ, que
representa su solución.
Desde mucho antes del nacimiento oficial de la mecánica cuántica, los físicos
fueron utilizados para tratar (clásicamente) varios casos de ondas materiales en
el continuo, como las ondas de sonido que se propagan en el aire. Veamos un
ejemplo con el sonido. La cantidad que nos interesa es la presión ejercida por la
onda en el aire, que indicamos con Ψ(x,t). Desde el punto de vista matemático se
trata de una "función", una receta que da el valor de la presión de onda
(entendida como una variación de la presión atmosférica estándar) en cada punto
x del espacio y en cada instante t. Las soluciones de la ecuación clásica relativa
describen naturalmente una onda que "viaja" en el espacio y el tiempo,
"perturbando" el movimiento de las partículas de aire (o agua, o un campo
electromagnético u otro). Las olas del mar, los tsunamis y la bella compañía son
todas las formas permitidas por estas ecuaciones, que son del tipo "diferencial":
implican cantidades que cambian, y para entenderlas es necesario conocer el
análisis matemático. La "ecuación de onda" es un tipo de ecuación diferencial
que si se resuelve nos da la "función de onda" Ψ(x,t) - en nuestro ejemplo la
presión del aire que varía en el espacio y el tiempo a medida que pasa una onda
sonora.
Gracias a las ideas de de Broglie, Schrödinger comprendió inmediatamente que
los complejos tecnicismos de Heisenberg podían ser reescritos de tal manera que
se obtuvieran relaciones muy similares a las antiguas ecuaciones de la física
clásica, en particular las de las ondas. Desde un punto de vista formal, una
partícula cuántica fue descrita por la función Ψ(x,t), que el propio Schrödinger
llamó "función de onda". Con esta interpretación y aplicando los principios de la
física cuántica, es decir, resolviendo la ecuación de Schrödinger, fue posible en
principio calcular la función de onda de cada partícula conocida en ese
momento, en casi todos los casos. El problema era que nadie tenía idea de lo que
representaba esta cantidad.
Como consecuencia de la introducción de Ψ, ya no se puede decir que "en el
instante t la partícula está en x", sino que hay que decir que "el movimiento de la
partícula está representado por la función Ψ(x,t), que da la amplitud Ψ en el
momento t en el punto x". Ya no se conoce la posición exacta. Si vemos que Ψ
es particularmente grande en un punto x y casi nada en otro lugar, podemos sin
embargo decir que la partícula está "más o menos en la posición x". Las ondas
son objetos difundidos en el espacio, y también lo es la función de las ondas.
Observamos que estos razonamientos son retrospectivos, porque en los años que
estamos considerando nadie, incluyendo a Schrödinger, tenía ideas muy claras
sobre la verdadera naturaleza de la función de onda.
Aquí, sin embargo, hay un giro, que es uno de los aspectos más sorprendentes de
la mecánica cuántica. Schrödinger se dio cuenta de que su función de onda era,
como se esperaría de una onda, continua en el espacio y en el tiempo, pero que
para hacer que las cosas se sumen, tenía que tomar números diferentes de los
reales. Y esto es una gran diferencia con las ondas normales, ya sean mecánicas
o electromagnéticas, donde los valores son siempre reales. Por ejemplo,
podemos decir que la cresta de una ola oceánica se eleva desde el nivel medio
del mar por 2 metros (y por lo tanto tenemos que exponer la bandera roja en la
playa); o aún peor que se acerca un tsunami de 10 metros de altura, y por lo tanto
tenemos que evacuar las zonas costeras a toda prisa. Estos valores son reales,
concretos, medibles con diversos instrumentos, y todos entendemos su
significado.
La función de onda cuántica, por el contrario, asume valores en el campo de los
llamados "números complejos "15 . Por ejemplo, puede suceder que en el punto
x la amplitud sea igual a una "materia" que se escribe 0,3+0,5i, donde i=√-1. En
otras palabras, el número i multiplicado por sí mismo da el resultado -1. Un
objeto como el que está escrito arriba, formado por un número real añadido a
otro número real multiplicado por i, se llama un número complejo. La ecuación
de Schrödinger siempre implica la presencia de i, un número que juega un papel
fundamental en la propia ecuación, por lo que la función de onda asume valores
complejos.16
Esta complicación matemática es un paso inevitable en el camino hacia la física
cuántica y es otra indicación de que la función de onda de una partícula no es
directamente medible: después de todo, los números reales siempre se obtienen
en los experimentos. En la visión de Schrödinger, un electrón es una ola para
todos los propósitos, no muy diferente de un sonido o una ola marina. ¿Pero
cómo es posible, ya que una partícula tiene que estar ubicada en un punto
definido y no puede ocupar porciones enteras del espacio? El truco es
superponer varias ondas de tal manera que se borren casi en todas partes excepto
en el punto que nos interesa. Así pues, una combinación de ondas logra
representar un objeto bien situado en el espacio, que estaríamos tentados de
llamar "partícula" y que aparece cada vez que la suma de las ondas da lugar a
una concentración particular en un punto. En este sentido, una partícula es una
"onda anómala", similar al fenómeno causado en el mar por la superposición de
las olas, que crea una gran perturbación capaz de hacer volcar las
embarcaciones.
Una eterna adolescente
¿Dónde está la teoría cuántica después de los descubrimientos de Heisenberg,
Schrödinger, Bohr, Born y colegas? Existen las funciones de onda probabilística
por un lado y el principio de incertidumbre por el otro, que permite mantener el
modelo de partículas. La crisis de la dualidad "un poco de onda un poco de
partícula" parece resuelta: los electrones y los fotones son partículas, cuyo
comportamiento es descrito por ondas probabilísticas. Como ondas están sujetas
a fenómenos de interferencia, haciendo que las partículas dóciles aparezcan
donde se espera que lo hagan, obedeciendo a la función de la onda. Cómo llegan
allí no es un problema que tenga sentido. Esto es lo que dicen en Copenhague. El
precio a pagar por el éxito es la intrusión en la física de la probabilidad y varias
peculiaridades cuánticas.
La idea de que la naturaleza (o Dios) juega a los dados con la materia
subatómica no le gustaba a Einstein, Schrödinger, de Broglie, Planck y muchos
otros. Einstein, en particular, estaba convencido de que la mecánica cuántica era
sólo una etapa, una teoría provisional que tarde o temprano sería sustituida por
otra, determinística y causal. En la segunda parte de su carrera, el gran físico
hizo varios intentos ingeniosos para evitar el problema de la incertidumbre, pero
sus esfuerzos se vieron frustrados uno tras otro por Bohr, supuestamente para su
maligna satisfacción.
Por lo tanto, debemos cerrar el capítulo suspendido entre los triunfos de la teoría
y un cierto sentimiento de inquietud. A finales de los años 20 la mecánica
cuántica era ahora una ciencia adulta, pero aún susceptible de crecimiento: sería
profundamente revisada varias veces, hasta los años 40.
Capítulo 6
Quantum

C omo para confirmar su apariencia sobrenatural, la teoría cuántica de


Heisenberg y Schrödinger realizó literalmente milagros. El modelo del
átomo de hidrógeno se aclaró sin necesidad de las muletas conceptuales de
Kepler: las órbitas fueron sustituidas por "orbitales", hijos de las nuevas e
indeterminadas funciones de onda. La nueva mecánica cuántica resultó ser una
herramienta formidable en manos de los físicos, que cada vez aplicaron mejor la
ecuación de Schrödinger a varios sistemas atómicos y subatómicos y a campos
de creciente complejidad. Como dijo Heinz Pagels, "la teoría liberó las energías
intelectuales de miles de jóvenes investigadores en todas las naciones
industrializadas. En ninguna otra ocasión una serie de ideas científicas ha tenido
consecuencias tan fundamentales en el desarrollo tecnológico; sus aplicaciones
siguen conformando la historia política y social de nuestra civilización "1 .
Pero cuando decimos que una teoría o modelo "funciona", ¿qué queremos decir
exactamente? Que es matemáticamente capaz de hacer predicciones sobre algún
fenómeno natural, comparable con los datos experimentales. Si las predicciones
y mediciones acumuladas en nuestras experiencias se coliman, entonces la teoría
funciona "ex post", es decir, explica por qué sucede un cierto hecho, que antes
nos era desconocido.
Por ejemplo, podríamos preguntarnos qué sucede al lanzar dos objetos de
diferente masa desde un punto alto, digamos la torre de Pisa. La demostración de
Galileo y todos los experimentos realizados posteriormente muestran que, a
menos que haya pequeñas correcciones debido a la resistencia del aire, dos
objetos graves de masas diferentes que caen desde la misma altura llegan al
suelo al mismo tiempo. Esto es cien por ciento cierto en ausencia de aire, como
se ha demostrado espectacularmente en la Luna en vivo por televisión: la pluma
y el martillo dejados caer por un astronauta llegaron exactamente al mismo
tiempo.2 La teoría original y profunda que se ha confirmado en este caso es la
gravitación universal newtoniana, combinada con sus leyes de movimiento. Al
juntar las ecuaciones relacionadas, podemos predecir cuál será el
comportamiento de un cuerpo en caída sujeto a la fuerza de la gravedad y
calcular cuánto tiempo llevará alcanzar el suelo. Es un juego de niños verificar
que dos objetos de masas diferentes lanzados desde la misma altura deben llegar
al suelo al mismo tiempo (si descuidamos la resistencia del aire).3
Pero una buena teoría también debe hacernos capaces de predecir la evolución
de fenómenos aún no observados. Cuando se lanzó el satélite ECHO en 1958,
por ejemplo, se utilizaron la gravitación y las leyes de movimiento de Newton
para calcular de antemano la trayectoria que seguiría, anotar la fuerza de empuje
y otros factores correctivos importantes, como la velocidad del viento y la
rotación de la Tierra. El poder de predicción de una ley depende, por supuesto,
del grado de control que pueda ejercerse sobre los diversos factores
involucrados. Desde todo punto de vista, la teoría de Newton ha demostrado ser
extraordinariamente exitosa, tanto en las verificaciones ex post como en el
campo de la predicción, cuando se aplica a su vasto alcance: velocidades no
demasiado altas (mucho más bajas que la luz) y escalas no demasiado pequeñas
(mucho más grandes que las atómicas).
Newton no escribe correos electrónicos
Preguntémonos ahora si la mecánica cuántica es capaz de explicar (ex post) el
mundo que nos rodea y si puede utilizarse para predecir la existencia de
fenómenos aún no observados, lo que la hace indispensable en el descubrimiento
de nuevas y útiles aplicaciones. La respuesta a ambas preguntas es un sí
convencido. La teoría cuántica ha pasado innumerables pruebas experimentales,
en ambos sentidos. Está injertada en las teorías que la precedieron, la mecánica
newtoniana y el electromagnetismo de Maxwell, siempre que la marca cuántica,
la famosa constante de Planck h, no sea tan pequeña como para poder ser
ignorada en los cálculos. Esto ocurre cuando las masas, dimensiones y escalas de
tiempo de los objetos y eventos son comparables a las del mundo atómico. Y
como todo está compuesto de átomos, no debe sorprendernos que estos
fenómenos a veces levanten la cabeza y hagan sentir su presencia incluso en el
mundo macroscópico, donde se encuentran los seres humanos y sus instrumentos
de medición.
En este capítulo exploraremos las aplicaciones de esta extraña teoría, que nos
parecerá relacionada con la brujería. Podremos explicar toda la química, desde la
tabla periódica de los elementos hasta las fuerzas que mantienen unidas las
moléculas de los compuestos, de los cuales hay miles de millones de tipos.
Luego veremos cómo la física cuántica afecta virtualmente todos los aspectos de
nuestras vidas. Si bien es cierto que Dios juega a los dados con el universo, ha
logrado controlar los resultados de los juegos para darnos el transistor, el diodo
de túnel, los láseres, los rayos X, la luz de sincrotrón, los marcadores radiactivos,
los microscopios de efecto túnel de barrido, los superconductores, la tomografía
por emisión de positrones, los superfluidos, los reactores nucleares, las bombas
atómicas, las imágenes de resonancia magnética y los microchips, sólo para dar
algunos ejemplos. Probablemente no tengas superconductores o microscopios de
escaneo, pero ciertamente tienes cientos de millones de transistores en la casa.
Su vida es tocada de mil maneras por tecnologías posibles a través de la física
cuántica. Si tuviéramos un universo estrictamente newtoniano, no podríamos
navegar por Internet, no sabríamos qué es el software, y no habríamos visto las
batallas entre Steve Jobs y Bill Gates (o mejor dicho, habrían sido rivales
multimillonarios en otro sector, como los ferrocarriles). Podríamos habernos
ahorrado unos cuantos problemas que plagan nuestro tiempo, pero ciertamente
no tendríamos las herramientas para resolver muchos más.
Las consecuencias en otros campos científicos, más allá de los límites de la
física, son igualmente profundas. Erwin Schrödinger, a quien debemos la
elegante ecuación que rige todo el mundo cuántico, escribió en 1944 un libro
profético titulado Qué es la vida4 , en el que hizo una hipótesis sobre la
transmisión de la información genética. El joven James Watson leyó este notable
trabajo y fue estimulado a investigar la naturaleza de los genes. El resto de la
historia es bien conocida: junto con Francis Crick, en la década de 1950 Watson
descubrió la doble hélice del ADN, iniciando la revolución de la biología
molecular y, más tarde, la inescrupulosa ingeniería genética de nuestros tiempos.
Sin la revolución cuántica no habríamos podido comprender la estructura de las
moléculas más simples, y mucho menos el ADN, que es la base de toda la vida.5
Al adentrarse en áreas más fronterizas y especulativas, los cuantos podrían
ofrecer la solución a problemas como la naturaleza de la mente, la conciencia y
la autopercepción, o al menos esto es lo que afirman algunos físicos teóricos
temerarios que se atreven a enfrentarse al campo de las ciencias cognitivas.
La mecánica cuántica sigue arrojando luz sobre los fenómenos químicos hasta el
día de hoy. En 1998, por ejemplo, se concedió el Premio Nobel de Química a
dos físicos, Walter Kohn y John Pople, por el descubrimiento de poderosas
técnicas de computación para resolver las ecuaciones cuánticas que describen la
forma y las interacciones de las moléculas. Astrofísica, ingeniería nuclear,
criptografía, ciencia de los materiales, electrónica: estas ramas del conocimiento
y otras, incluyendo la química, la biología, la bioquímica y así sucesivamente, se
empobrecerían sin los cuantos. Lo que llamamos computación probablemente
sería poco más que diseñar archivos para documentos en papel. ¿Qué haría esta
disciplina sin la incertidumbre de Heisenberg y las probabilidades de Born?
Sin los cuantos no hubiéramos podido entender realmente la estructura y las
propiedades de los elementos químicos, que habían estado bien asentados en la
tabla periódica durante medio siglo. Son los elementos, sus reacciones y sus
combinaciones los que dan vida a todo lo que nos rodea y a la vida misma.
Un juego con Dmitri Mendeleev
La química era una ciencia seria y vital, como la física, mucho antes de que la
teoría cuántica entrara en escena. Fue a través de la investigación química de
John Dalton que la realidad de los átomos fue confirmada en 1803, y los
experimentos de Michael Faraday llevaron al descubrimiento de sus propiedades
eléctricas. Pero nadie entendía cómo eran realmente las cosas. La física cuántica
proporcionó a la química un modelo sofisticado y racional capaz de explicar la
estructura detallada y el comportamiento de los átomos, así como un formalismo
para comprender las propiedades de las moléculas y predecir de forma realista su
formación. Todos estos éxitos fueron posibles precisamente por la naturaleza
probabilística de la teoría.
Sabemos que la química no es un tema muy querido, aunque es la base de mucha
tecnología moderna. Todos esos símbolos y números escritos en el fondo
confunden las ideas. Pero estamos convencidos de que si se dejan llevar en este
capítulo para explorar la lógica de la disciplina, se convencerán. El
descubrimiento de los misterios del átomo es una de las novelas de misterio más
convincentes de la historia de la humanidad.
El estudio de la química, como todo el mundo sabe, parte de la tabla periódica de
los elementos, que adorna las paredes de cientos de miles de aulas en todo el
mundo. Su invento fue una verdadera hazaña científica, lograda en gran parte
por el sorprendentemente prolífico Dmitri Ivanovič Mendeleev (1834-1907).
Figura destacada de la Rusia zarista, Mendeleev fue un gran erudito, capaz de
escribir cuatrocientos libros y artículos, pero también se interesó por las
aplicaciones prácticas de su trabajo, tanto que dejó contribuciones sobre temas
como el uso de fertilizantes, la producción de queso en cooperativas, la
normalización de pesos y medidas, los aranceles aduaneros en Rusia y la
construcción naval. Políticamente radical, se divorció de su esposa para casarse
con una joven estudiante del instituto de arte. A juzgar por las fotos de época, le
gustaba mantener el pelo largo.7
El diagrama de Mendeleev proviene de ordenar los elementos aumentando el
peso atómico. Observamos que por "elemento" nos referimos a una simple
sustancia, compuesta por átomos del mismo tipo. Un bloque de grafito y un
diamante están hechos de la misma sustancia, el carbono, aunque los átomos
tengan una estructura diferente: en un caso dan lugar a un material oscuro y útil
para hacer lápices, en el otro a objetos útiles para ser bellos a los ojos de la novia
o para perforar el más duro de los metales. Viceversa, el agua no es un elemento
sino un compuesto químico, porque está compuesta de átomos de oxígeno e
hidrógeno unidos por fuerzas eléctricas. Incluso las moléculas compuestas
obedecen a la ecuación de Schrödinger.
El "peso atómico" que mencionamos antes no es más que la masa característica
de cada átomo. Todos los átomos de la misma sustancia, digamos el oxígeno,
tienen la misma masa. Lo mismo ocurre con los átomos de nitrógeno, que son un
poco menos pesados que los átomos de oxígeno. Hay sustancias muy ligeras,
como el hidrógeno, la más ligera de todas, y otras muy pesadas, como el uranio,
cientos de veces más masivas que el hidrógeno. La masa atómica se mide por
comodidad con una unidad de medida especial y se indica con la letra M,8 pero
aquí no es importante entrar en los detalles de los valores individuales. Estamos
más bien interesados en la lista de los elementos en orden creciente de peso
atómico. Mendeleev se dio cuenta de que la posición de un elemento en esta lista
tenía una clara correspondencia con sus propiedades químicas: era la clave para
penetrar en los misterios de la materia.
El Sr. Pauli entra en escena
Los sistemas físicos tienden a organizarse en un estado de menor energía. En los
átomos, las reglas cuánticas y la ecuación de Schrödinger proporcionan las
configuraciones permitidas en las que los electrones pueden moverse, las
orbitales, cada una de las cuales tiene su propio y preciso nivel de energía. El
último paso para desentrañar todos los misterios del átomo comienza aquí, y es
un descubrimiento extraordinario y sorprendente: ¡cada órbita tiene espacio para
un máximo de dos electrones! Si no, el mundo físico sería muy diferente.
Aquí es donde entra en juego el genio de Wolfgang Pauli, este irascible y
legendario científico que representó en cierto sentido la conciencia de su
generación, el hombre que aterrorizaba a colegas y estudiantes, que a veces
firmaba él mismo "La Ira de Dios" y sobre el que oiremos más a menudo (véase
también la nota 1 del capítulo 5).
Para evitar las pilas de electrones en el s1, en 1925 Pauli formuló la hipótesis de
que era válido el llamado principio de exclusión, según el cual dos electrones
dentro de un átomo nunca pueden estar en el mismo estado cuántico
simultáneamente. Gracias al principio de exclusión hay un criterio para poner las
partículas en el lugar correcto al subir a los átomos cada vez más pesados. Por
cierto, el mismo principio es lo que nos impide atravesar las paredes, porque nos
asegura que los electrones de nuestro cuerpo no pueden estar en el estado de los
de la pared y deben permanecer separados por vastos espacios, como las casas de
las Grandes Praderas.
El profesor Pauli era un caballero bajito, regordete, creativo e hipercrítico con un
espíritu sarcástico que era el terror y el deleite de sus colegas. Ciertamente no le
faltó modestia, ya que escribió un artículo cuando era adolescente en el que
explicaba convincentemente la teoría de la relatividad a los físicos. Su carrera
estuvo marcada por bromas rápidas como, por ejemplo, "¡Ah, tan joven y ya tan
desconocido!", "Este artículo ni siquiera tiene el honor de estar equivocado", "Su
primera fórmula está equivocada, pero la segunda no deriva de la primera", "No
me importa que sea lento en la comprensión, pero escribe los artículos más
rápido de lo que piensa". Ser el sujeto de una de estas flechas era ciertamente
una experiencia que podía reducir el tamaño de cualquiera.
Un autor que permaneció en el anonimato escribió este poema sobre Pauli, según
lo reportado por George Gamow en su libro "Treinta años que sacudieron la
física":
El principio de exclusión fue uno de los mayores logros científicos de Pauli.
Básicamente nos devolvió la química, permitiéndonos entender por qué la tabla
periódica de elementos está hecha de esa manera. Sin embargo, en su
formulación básica es muy simple: nunca dos electrones en el mismo estado
cuántico. No está hecho, verboten! Esta pequeña regla nos guía en la
construcción de átomos cada vez más grandes y en la comprensión de sus
propiedades químicas.
Repetimos las dos reglas de oro, de Pauli, que debemos seguir a medida que
avanzamos en la tabla periódica: 1) los electrones deben ocupar siempre
diferentes estados cuánticos y 2) los electrones deben estar configurados para
tener la menor energía posible. Esta segunda regla, por cierto, se aplica en otras
áreas y también explica por qué los cuerpos sujetos a la fuerza de gravedad caen:
un objeto en el suelo tiene menos energía que uno en el decimocuarto piso. Pero
volvamos al helio. Hemos dicho que los dos electrones en s1 son consistentes
con los datos experimentales. ¿No es eso una violación del principio de
exclusión? En realidad no, porque gracias a otra gran idea de Pauli, tal vez la
más ingeniosa, el giro entra en juego (además de lo que diremos ahora, para una
discusión más profunda de este tema ver el Apéndice).
Los electrones, en cierto sentido, giran sobre sí mismos incesantemente, como
peonzas microscópicas. Esta rotación, desde el punto de vista cuántico, puede
ocurrir de dos maneras, que se llaman arriba (arriba) y abajo (abajo). Es por eso
que dos electrones pueden permanecer fácilmente en la misma órbita 1 y respetar
el dictado de Pauli: basta con que tengan un espín opuesto para que se
encuentren en diferentes estados cuánticos. Eso es todo. Pero ahora que hemos
agotado los 1s, no podemos sobrecargarlo con un tercer electrón.
El átomo de helio satura la órbita 1 y está bien, porque no hay más espacio
disponible: los dos electrones están sentados y tranquilos. La consecuencia de
esta estructura es precisamente la inactividad química del helio, que no desea
interactuar con otros átomos. El hidrógeno, en cambio, tiene sólo un electrón en
1s y es hospitalario con otras partículas que quieran unirse a él, siempre y
cuando tengan el espín opuesto; de hecho, la llegada de un electrón de otro
átomo (como veremos en breve) es la forma en que el hidrógeno crea un vínculo
con otros elementos16. En el lenguaje de la química, la órbita del hidrógeno se
denomina "incompleta" (o incluso que su electrón sea "impar"), mientras que la
del helio es "completa", porque tiene el máximo número de electrones esperado:
dos, de espín opuesto. La química de estos dos elementos, por lo tanto, es tan
diferente como el día o la noche.
En resumen, el hidrógeno y el litio son químicamente similares porque ambos
tienen un solo electrón en la órbita exterior (1s y 2s respectivamente). El helio y
el neón son químicamente similares porque todos sus electrones están en
orbitales completos (1s y 1s, 2s, 2px, 2py y 2pz respectivamente), lo que da
como resultado estabilidad y no reactividad química. De hecho, son los niveles
incompletos los que estimulan la actividad de los átomos. El misterio de los
sospechosos en el enfrentamiento al estilo americano en bandas secretas,
observado por primera vez por Mendeleev, está casi completamente aclarado.
Ahora es hasta el sodio, Z=11, con once cargas positivas en el núcleo y once
electrones que de alguna manera tenemos que arreglar. Ya hemos visto que los
diez primeros completan las cinco primeras órbitas, por lo que debemos recurrir
a los tres y colocar allí el electrón solitario. Voilà: el sodio es químicamente
similar al hidrógeno y al litio, porque los tres tienen un solo electrón en la órbita
más exterior, que es del tipo s. Luego está el magnesio, que añade al electrón en
3s otro compartido (en sentido cuántico) entre 3px, 3py y 3pcs. Continuando con
el llenado de 3s y 3p, nos damos cuenta de que las configuraciones se replican
exactamente las ya vistas para 2s y 2p; después de otros ocho pasos llegamos al
argo, otro gas noble e inerte que tiene todas las órbitas completas: 1s, 2s, 2p, 3s y
3p - todas contienen sus dos buenos electrones de espín opuestos. La tercera fila
de la tabla periódica reproduce exactamente la segunda, porque las órbitas s y p
de sus átomos se llenan de la misma manera.
En la cuarta fila, sin embargo, las cosas cambian. Empezamos tranquilamente
con 4s y 4p pero luego nos encontramos con el 3d. Los orbitales de este tipo
corresponden a soluciones de orden aún más alto de la ecuación de Schrödinger
y se llenan de una manera más complicada, porque en este punto hay muchos
electrones. Hasta ahora hemos descuidado este aspecto, pero las partículas
cargadas negativamente interactúan entre sí, repeliéndose entre sí debido a la
fuerza eléctrica, lo que hace que los cálculos sean muy complicados. Es el
equivalente del problema newtoniano de n cuerpos, es decir, es similar a la
situación en la que los movimientos de un sistema solar cuyos planetas están lo
suficientemente cerca unos de otros como para hacer sentir su influencia
gravitatoria. Los detalles de cómo es posible llegar a una solución son complejos
y no son relevantes para lo que diremos aquí, pero es suficiente saber que todo
funciona al final. Las órbitas 3d se mezclan con las 4p para que encuentren
espacio para hasta diez electrones antes de completarse. Por eso el período ocho
cambia a dieciocho (18=8+10) y luego cambia de nuevo por razones similares a
treinta y dos. Las bases físicas del comportamiento químico de la materia
ordinaria, y por lo tanto también de las sustancias que permiten la vida, están
ahora claras. El misterio de Mendeleev ya no es tal.
a los detalles.
Capítulo 7
Einstein y Bohr

H emos superado el obstáculo de los últimos capítulos y hemos llegado a


comprender, gracias a Wolfgang Pauli, la esencia íntima de la química (y
por lo tanto de la biología) y por qué nunca, con gran probabilidad,
podremos pasar con nuestra mano por una mesa de granito, que también consiste
en su mayor parte en espacio vacío. Ha llegado el momento de profundizar aún
más en el mar de los misterios cuánticos y tratar la disputa fundamental entre
Niels Bohr y Albert Einstein. Vamos a escuchar algunas buenas.
La creatividad científica, idealmente, es una eterna batalla entre la intuición y la
necesidad de pruebas incontrovertibles. Hoy sabemos que la ciencia cuántica
describe con éxito un número increíble de fenómenos naturales e incluso tiene
aplicaciones con efectos económicos muy concretos. También nos hemos dado
cuenta de que el mundo microscópico, es decir, cuántico, es extraño, pero
extraño de hecho. La física actual ni siquiera parece estar relacionada con la que
ha progresado tanto desde el siglo XVII hasta principios del siglo XX. Hubo una
verdadera revolución.
A veces los científicos (incluyéndonos a nosotros), en un intento de hacer llegar
los resultados de sus investigaciones al público en general, recurren a metáforas.
Son en cierto sentido hijas de la frustración de quienes no pueden explicar de
manera "sensata" lo que vieron en el laboratorio, porque ello implicaría una
revisión de nuestra forma de pensar: tenemos que tratar de comprender un
mundo del que estamos excluidos de la experiencia directa y cotidiana.
Seguramente nuestro lenguaje es inadecuado para describirlo, ya que ha
evolucionado para otros propósitos. Supongamos que una raza de alienígenas del
planeta Zyzzx ha recogido y analizado ciertos datos macroscópicos del planeta
Tierra y ahora sabe todo sobre el comportamiento de las multitudes - desde los
partidos en el estadio hasta los conciertos en la plaza, desde los ejércitos en
marcha hasta las protestas masivas que terminan con las multitudes huyendo de
las cargas policiales (lo que sólo ocurre en los países atrasados, eh). Después de
recopilar información durante un siglo, los Zyzzxianos tienen un catálogo
sustancial de acciones colectivas a su disposición, pero no saben nada sobre las
habilidades y aspiraciones de los hombres, el razonamiento, el amor, la pasión
por la música o el arte, el sexo, el humor. Todas estas características individuales
se pierden en la melaza de las acciones colectivas.
Lo mismo ocurre en el mundo microscópico. Si pensamos en el hecho de que el
pelo de los cilios de una pulga contiene mil billones de billones de átomos,
entendemos por qué los objetos macroscópicos, elementos de nuestra
experiencia diaria, son inútiles en la comprensión de la realidad microscópica.
Como los individuos en la multitud, los átomos se mezclan en cuerpos tangibles,
aunque no del todo, como veremos más adelante. Así que tenemos dos mundos:
uno clásico, elegantemente descrito por Newton y Maxwell, y uno cuántico. Por
supuesto, al final del día, sólo hay un mundo, en el que la teoría cuántica trata
con éxito los átomos y se fusiona con la clásica en el caso macroscópico. Las
ecuaciones de Newton y Maxwell son aproximaciones de las ecuaciones
cuánticas. Revisemos sistemáticamente algunos aspectos desconcertantes de este
último.
Cuatro choques seguidos
1. Comencemos con la radiactividad y empecemos con una de las criaturas más
queridas de los físicos, el muón. Es una partícula que pesa unas doscientas veces
más que un electrón y tiene la misma carga. Parece ser puntiforme, es decir,
tiene un tamaño insignificante, y parece girar sobre sí mismo. Cuando se
descubrió esta copia pesada del electrón, creó desconcierto en la comunidad
científica, tanto que el gran Isaac Isidor Rabi salió con la ahora famosa
exclamación "¿Quién ordenó esto? "1. El muón, sin embargo, tiene una
diferencia fundamental con el electrón: es inestable, es decir, está sujeto a la
desintegración radiactiva, y se desintegra después de unos dos microsegundos.
Para ser precisos, su "vida media", es decir, el tiempo en el que desaparece en
promedio la mitad de los muones de un grupo de mil, es igual a 2,2
microsegundos. Esto en promedio, porque si nos fijamos en un solo muón
(también podemos darle un nombre bonito, como Hilda, Moe, Benito o Julia) no
sabemos cuándo terminará su vida. El evento "decadencia del muón X" es
aleatorio, no determinístico, como si alguien tirara un par de dados y decidiera
los eventos basándose en las combinaciones de números que salieron. Debemos
abandonar el determinismo clásico y la razón en términos probabilísticos para
entender los fundamentos de la nueva física.
2. En el mismo orden de ideas tenemos el fenómeno de la reflexión parcial, que
recordarán del capítulo 3. Se pensaba que la luz era una ola, sujeta a todos los
fenómenos de otras olas como las del mar, incluyendo la reflexión, hasta que
Planck y Einstein descubrieron los quanta, partículas que se comportan como
olas. Si se dispara un quantum de luz, es decir, un fotón, contra una vitrina, se
refleja o difracta; en el primer caso ayuda a dar una imagen tenue de quienes
admiran la ropa expuesta, en el segundo ilumina los elegantes maniquíes. El
fenómeno se describe matemáticamente mediante una función de onda, que al
ser una onda puede ser parcialmente reflejada o difractada. Las partículas, por
otro lado, son discretas, por lo que deben ser reflejadas o refractadas, en total.
3. Ahora llegamos al ya conocido experimento de la doble rendija, cuya noble
historia se remonta a Thomas Young que niega a Newton en la teoría
corpuscular de la luz y sanciona el triunfo de la ondulatoria. Lo hemos visto para
los fotones, pero en realidad todas las partículas se comportan de la misma
manera: muones, quarks, bosones W y así sucesivamente. Todos ellos, cuando
son sometidos a un experimento similar al de Young, parecen comportarse como
olas.
Veamos, por ejemplo, el caso del electrón, que al igual que el fotón puede ser
emitido desde una fuente y disparado contra una pantalla en la que se han hecho
dos rendijas, más allá de las cuales hemos colocado una pantalla detectora (con
circuitos especiales en lugar de fotocélulas). Realizamos el experimento
disparando los electrones lentamente, por ejemplo uno por hora, para
asegurarnos de que las partículas pasen de una en una (sin "interferir" entre
ellas). Como descubrimos en el capítulo 4, al repetir las mediciones muchas
veces al final nos encontramos con un conjunto de ubicaciones de electrones en
la pantalla formando una figura de interferencia. La partícula individual también
parece "saber" si hay una o dos rendijas abiertas, mientras que ni siquiera
sabemos por dónde pasó. Si cerramos una de las dos rendijas, la figura de
interferencia desaparece. Y desaparece incluso si colocamos un instrumento
junto a las rendijas que registra el paso de los electrones desde ese punto. En
última instancia, la cifra de interferencia aparece sólo cuando nuestra ignorancia
del camino seguido por el único electrón es total.
4. Como si esto no fuera suficiente, tenemos que lidiar con otras propiedades
perturbadoras. Por ejemplo, el giro. Tal vez el aspecto más desconcertante de la
historia esté dado por el hecho de que el electrón tiene un valor de espín
fraccionado, igual a 1/2, es decir, su "momento angular" es ħ/2 (véase el
Apéndice). Además, un electrón siempre está alineado en cualquier dirección en
la que elijamos medir su espín, que si tenemos en cuenta su orientación puede
ser +1/2 o -1/2, o como dijimos anteriormente arriba (arriba) o abajo (abajo)2.
La guinda del pastel es la siguiente: si giramos un electrón en el espacio en 360°,
su función de onda de Ψe se convierte en -Ψe, es decir, cambia de signo (en el
Apéndice hay un párrafo que explica cómo ocurre esto). Nada de esto le sucede
a los objetos del mundo clásico.
Tomemos por ejemplo un palillo de tambor. Si el percusionista de una banda, en
la vena de las actuaciones, comienza a girarla entre sus dedos entre un golpe y
otro, girándola así 360°, el objeto vuelve a tener exactamente la misma
orientación espacial. Si en lugar de la baqueta hubiera un electrón, después de la
vuelta nos encontraríamos con una partícula de signo contrario. Definitivamente
estamos en un territorio desconocido. Pero, ¿está sucediendo realmente o es sólo
sofisticación matemática? Como siempre, sólo podemos medir la probabilidad
de un evento, el cuadrado de la función de onda, así que ¿cómo sabemos si
aparece el signo menos o no? ¿Y qué significa "signo menos" en este caso, qué
tiene que ver con la realidad? ¿No son elucubraciones de filósofos que
contemplan el ombligo a expensas de los fondos públicos para la investigación?
¡Nein! dice Pauli. El signo menos implica que si se toman dos electrones al azar
(recuerde que todos son idénticos), su estado cuántico conjunto debe ser tal que
cambie de signo si los dos se intercambian. La consecuencia de todo esto es el
principio de exclusión de Pauli, la fuerza de intercambio, el relleno orbital, la
tabla periódica, la razón por la cual el hidrógeno es reactivo y el helio inerte,
toda la química. Esta es la base de la existencia de materia estable, conductores,
estrellas de neutrones, antimateria y aproximadamente la mitad del producto
interno bruto de los Estados Unidos.
¿Pero por qué tan extraño?
Volvamos al punto 1 del párrafo anterior y al querido viejo muón, partícula
elemental que pesa doscientas veces el electrón y vive dos millonésimas de
segundo, antes de descomponerse y transformarse en un electrón y neutrinos
(otras partículas elementales). A pesar de estas extrañas características,
realmente existen y en el Fermilab esperamos algún día construir un acelerador
que los haga funcionar a alta velocidad.
El decaimiento de los muones está básicamente determinado por la probabilidad
cuántica, mientras que la física newtoniana se mantiene al margen observando.
Sin embargo, en el momento de su descubrimiento, no todos estaban dispuestos
a tirar por la borda un concepto tan bello como el "determinismo clásico", la
perfecta previsibilidad de los fenómenos típicos de la física clásica. Entre los
diversos intentos de salvar lo rescatable, se introdujeron las llamadas "variables
ocultas".
Imaginemos que dentro del muón se esconde una bomba de tiempo, un pequeño
mecanismo con su buen reloj conectado a una carga de dinamita, que hace
estallar la partícula, aunque no sepamos cuándo. La bomba debe ser, por lo
tanto, un dispositivo mecánico de tipo newtoniano pero submicroscópico, no
observable con nuestras tecnologías actuales pero aún así responsable en última
instancia de la descomposición: las manecillas del reloj llegan al mediodía, y
hola muón. Si cuando se crea un muón (generalmente después de choques entre
otros tipos de partículas) el tiempo de detonación se establece al azar (tal vez en
formas relacionadas con la creación del mecanismo oculto), entonces hemos
replicado de manera clásica el proceso aparentemente indeterminado que se
observa. La pequeña bomba de tiempo es un ejemplo de una variable oculta,
nombre que se da a varios dispositivos similares que podrían tener el importante
efecto de modificar la teoría cuántica en un sentido determinista, para barrer la
probabilidad "sin sentido". Pero como veremos en breve, después de ochenta
años de disputa sabemos que este intento ha fracasado y la mayoría de los físicos
contemporáneos aceptan ahora la extraña lógica cuántica.
Cosas ocultas
En la década de 1930, mucho antes de que se descubrieran los quarks, Einstein
dio rienda suelta a su profunda oposición a la interpretación de Copenhague con
una serie de intentos de transformar la teoría cuántica en algo más parecido a la
vieja, querida y sensata física de Newton y Maxwell. En 1935, con la
colaboración de los dos jóvenes físicos teóricos Boris Podolsky y Nathan Rosen,
se sacó el as de la manga8 . Su contrapropuesta se basaba en un experimento
mental (Gendankenexperiment, ya hemos discutido) que pretendía demostrar
con gran fuerza el choque entre el mundo cuántico de la probabilidad y el mundo
clásico de los objetos reales, con propiedades definidas, y que también
establecería de una vez por todas dónde estaba la verdad.
Este experimento se hizo famoso bajo el nombre de "Paradoja EPR", por las
iniciales de los autores. Su propósito era demostrar lo incompleto de la mecánica
cuántica, con la esperanza de que un día se descubriera una teoría más completa.
¿Qué significa estar "completo" o "incompleto" para una teoría? En este caso, un
ejemplo de "finalización" viene dado por las variables ocultas vistas
anteriormente. Estas entidades son exactamente lo que dicen ser: factores
desconocidos que influyen en el curso de los acontecimientos y que pueden (o
tal vez no) ser descubiertos por una investigación más profunda (recuerde el
ejemplo de la bomba de tiempo dentro del muón). En realidad son presencias
comunes en la vida cotidiana. Si lanzamos una moneda al aire, sabemos que los
dos resultados "cabeza" y "cruz" son igualmente probables. En la historia de la
humanidad, desde la invención de las monedas, este gesto se habrá repetido
miles de miles de millones de veces (tal vez incluso por Bruto para decidir si
matar o no a César). Todo el mundo está de acuerdo en que el resultado es
impredecible, porque es el resultado de un proceso aleatorio. ¿Pero estamos
realmente seguros? Aquí es donde salen las variables ocultas.
Una es, para empezar, la fuerza utilizada para lanzar la moneda al aire, y en
particular cuánto de esta fuerza resulta en el movimiento vertical del objeto y
cuánto en su rotación sobre sí mismo. Otras variables son el peso y el tamaño de
la moneda, la dirección de las micro-corrientes de aire, el ángulo preciso en el
que golpea la mesa al caer y la naturaleza de la superficie de impacto (¿está la
mesa hecha de madera? ¿Está cubierta con un paño?). En resumen, hay muchas
variables ocultas que influyen en el resultado final.
Ahora imaginemos que estamos construyendo una máquina capaz de lanzar la
moneda con la misma fuerza. Siempre utilizamos el mismo ejemplar y
realizamos el experimento en un lugar protegido de las corrientes (tal vez bajo
una campana de vidrio donde creamos el vacío), asegurándonos de que la
moneda siempre caiga cerca del centro de la mesa, donde también tenemos
control sobre la elasticidad de la superficie. Después de gastar, digamos,
17963,47 dólares en este artilugio, estamos listos para encenderlo. ¡Adelante!
¡Hagamos quinientas vueltas y consigamos quinientas cabezas! Hemos logrado
controlar todas las variables ocultas elusivas, que ahora no son ni variables ni
ocultas, ¡y hemos derrotado el caso! ¡El determinismo manda! La física clásica
newtoniana se aplica tanto a las monedas como a las flechas, balas, pelotas de
tenis y planetas. La aparente aleatoriedad del lanzamiento de una moneda se
debe a una teoría incompleta y a un gran número de variables ocultas, que en
principio son todas explicables y controlables.
¿En qué otras ocasiones vemos el azar en el trabajo de la vida cotidiana? Las
tablas actuariales sirven para predecir cuánto tiempo vivirá una determinada
población (de humanos, pero también de perros y caballos), pero la teoría
general de la longevidad de una especie es ciertamente incompleta, porque
quedan muchas variables complejas ocultas, entre ellas la predisposición
genética a determinadas enfermedades, la calidad del medio ambiente y de los
alimentos, la probabilidad de ser alcanzado por un asteroide y muchas otras. En
el futuro, quizás, si excluimos los accidentes ocasionales, podremos reducir el
grado de incertidumbre y predecir mejor hasta que disfrutemos de la compañía
de los abuelos o primos.
La física ya ha domado algunas teorías llenas de variables ocultas. Consideremos
por ejemplo la teoría de los "gases perfectos" o "ideales", que proporciona una
relación matemática entre la presión, la temperatura y el volumen de un gas en
un entorno cerrado en condiciones ambientales ordinarias. En los experimentos
encontramos que al aumentar la temperatura también aumenta la presión,
mientras que al aumentar el volumen la presión disminuye. Todo esto está
elegantemente resumido en la fórmula pV=nRT (en palabras: "el producto de la
presión por volumen es igual a la temperatura multiplicada por una constante R,
todo ello multiplicado por el número n de moléculas de gas"). En este caso las
variables ocultas son una enormidad, porque el gas está formado por un número
colosal de moléculas. Para superar este obstáculo, definimos estadísticamente la
temperatura como la energía media de una molécula, mientras que la presión es
la fuerza media con la que las moléculas golpean una zona fija de las paredes del
recipiente que las contiene. La ley de los gases perfectos, un tiempo incompleto,
gracias a los métodos estadísticos puede ser justificada precisamente por los
movimientos de las moléculas "ocultas". Con métodos similares, en 1905
Einstein logró explicar el llamado movimiento Browniano, es decir, los
movimientos aparentemente aleatorios del polvo suspendido en el agua. Estos
"paseos aleatorios" de granos eran un misterio insoluble antes de que Einstein se
diera cuenta de que entraban en juego colisiones "ocultas" con moléculas de
agua.
Tal vez fue por este precedente que Einstein pensó naturalmente que la mecánica
cuántica era incompleta y que su naturaleza probabilística era sólo aparente, el
resultado del promedio estadístico hecho sobre entidades desconocidas: variables
ocultas. Si hubiera sido posible desvelar esta complejidad interna, habría sido
posible volver a la física determinista newtoniana y reingresar en la realidad
clásica subyacente al conjunto. Si, por ejemplo, los fotones mantuvieran un
mecanismo oculto para decidir si se reflejaban o refractaban, la aleatoriedad de
su comportamiento cuando chocaban con la vitrina sólo sería aparente.
Conociendo el funcionamiento del mecanismo, podríamos predecir los
movimientos de las partículas.
Aclaremos esto: esto nunca ha sido descubierto. Algunos físicos como Einstein
estaban disgustados, filosóficamente hablando, por la idea de que la aleatoriedad
era una característica intrínseca y fundamental de nuestro mundo y esperaban
recrear de alguna manera el determinismo newtoniano. Si conociéramos y
controláramos todas las variables ocultas, dijeron, podríamos diseñar un
experimento cuyo resultado fuera predecible, como sostiene el núcleo del
determinismo.
Por el contrario, la teoría cuántica en la interpretación de Bohr y Heisenberg
rechazó la existencia de variables ocultas y en su lugar adoptó la causalidad y la
indeterminación como características fundamentales de la naturaleza, cuyo
efecto se exhibía explícitamente a nivel microscópico. Si no podemos predecir el
resultado de un experimento, ciertamente no podemos predecir el futuro curso de
los acontecimientos: como la filosofía natural, el determinismo ha fallado.
Así que preguntémonos si hay una forma de descubrir la existencia de variables
ocultas. Sin embargo, primero veamos cuál fue el desafío de Einstein.
La respuesta de Bohr a la EPR
La clave para resolver la paradoja de la EPR reside en el hecho de que las dos
partículas A y B, por muy distantes que estén, nacieron al mismo tiempo del
mismo evento y por lo tanto están relacionadas en un enredo. Sus posiciones,
impulso, giro, etc. son siempre indefinidos, pero cualquiera que sea el valor que
adquieran, siempre permanecen unidos entre sí. Si, por ejemplo, obtenemos un
número preciso para la velocidad de A, sabemos que la velocidad de B es la
misma, sólo que opuesta en dirección; la misma para la posición y el giro. Con el
acto de medir hacemos colapsar una función de onda que hasta entonces incluía
en sí misma todos los valores posibles para las propiedades de A y B. Gracias al
enredo, sin embargo, lo que aprendemos en nuestro laboratorio en la Tierra nos
permite saber las mismas cosas sobre una partícula que podría estar en Rigel 3,
sin tocarla, observarla o interferir con ella de ninguna manera. La función de
onda de B también colapsó al mismo tiempo, aunque la partícula está navegando
a años luz de distancia.
Todo esto no refuta de manera concreta el principio de incertidumbre de
Heisenberg, porque cuando medimos el impulso de A seguimos perturbando su
posición de manera irreparable. La objeción de EPR se centró en el hecho de que
un cuerpo debe tener valores precisos de impulso y posición, aunque no
podamos medirlos juntos. ¿Cómo decidiste finalmente replicar a Bohr? ¿Cómo
contraatacó?
Después de semanas de pasión, el Maestro llegó a la conclusión de que el
problema no existía. La capacidad de predecir la velocidad de B a través de la
medición de A no implica en absoluto que B tenga tal velocidad: hasta que no la
midamos, realmente no tiene sentido hacer tales suposiciones. De manera similar
para la posición, de la que no tiene sentido hablar antes de la medición. Bohr, a
quien más tarde se unieron Pauli y otros colegas, argumentó esto en la práctica:
el pobre Einstein no se deshizo de la obsesión clásica por las propiedades de los
cuerpos. En realidad, nadie puede saber si tal objeto tiene o no ciertas
propiedades hasta que lo perturbamos con la medición. Y algo que no puedes
saber puede muy bien no existir. No se puede contar a los ángeles que pueden
balancearse en la cabeza de un alfiler, por lo que también pueden no existir. El
principio de localización en todo esto no se viola: nunca transmitirás
instantáneamente un mensaje de buenos deseos de la Tierra a Rigel 3, si has
olvidado tu aniversario de boda.
En una ocasión Bohr llegó a comparar la revolución cuántica con la desatada por
Einstein, la relatividad, después de la cual el espacio y el tiempo se encontraron
con nuevas y extrañas cualidades. La mayoría de los físicos, sin embargo,
estuvieron de acuerdo en que la primera tenía efectos mucho más radicales en
nuestra visión del mundo.
Bohr insistió en un aspecto: dos partículas, una vez que se enredan como
resultado de un evento microscópico, permanecen enredadas incluso si se alejan
a distancias siderales. Mirando a A, influimos en el estado cuántico que incluye
a A y B. El espín de B, por lo tanto, está determinado por el tamaño del de A,
dondequiera que se encuentren las dos partículas. Este aspecto particular de la
paradoja EPR habría sido mejor comprendido treinta años después, gracias al
esclarecedor trabajo de John Bell al que volveremos. Por ahora, sepan que la
palabra clave es "no-localidad", otra versión de la entrometida definición de
Einstein: "acción espectral a distancia".
En la física clásica, el estado (A arriba, B abajo) es totalmente separado y
distinto del (A abajo, B arriba). Como hemos visto antes, todo está determinado
por la elección del amigo que empaqueta los paquetes, y en principio la
evolución del sistema es conocible por cualquiera que examine los datos
iniciales. Las dos opciones son independientes y al abrir el paquete sólo se revela
cuál fue la elegida. Desde el punto de vista cuántico, en cambio, la función de
onda que describe tanto A como B "enreda" (con enredo) las opciones; cuando
medimos A o B, toda la función cambia simultáneamente en todos los lugares
del espacio, sin que nadie emita señales observables que viajen a velocidades
superiores a la de la luz. Eso es todo. Así es como funciona la naturaleza.
Esta insistencia autoritaria puede quizás silenciar las dudas de un físico novato,
pero ¿es realmente suficiente para salvar nuestras almas filosóficas en
problemas? Seguramente la "refutación" de Bohr no satisfizo para nada a
Einstein y sus colegas. Los dos contendientes parecían hablar idiomas diferentes.
Einstein creía en la realidad clásica, en la existencia de entidades físicas con
propiedades bien definidas, como los electrones y los protones. Para Bohr, que
había abandonado la creencia en una realidad independiente, la "demostración"
del rival de lo incompleto no tenía sentido, porque estaba equivocado
precisamente en la forma en que el otro concebía una teoría "razonable".
Einstein le preguntó a un colega nuestro un día: "Pero, ¿realmente crees que la
Luna existe allí sólo cuando la miras?". Si reemplazamos nuestro satélite por un
electrón en esta pregunta, la respuesta no es inmediata. La mejor manera de salir
es sacar a relucir los estados cuánticos y las probabilidades. Si nos preguntamos
cuál es el espín de cierto electrón emitido por un cable de tungsteno en una
lámpara incandescente, sabemos que estará arriba o abajo con una probabilidad
igual al 50%; si nadie lo mide, no tiene sentido decir que el espín está orientado
en cierta dirección. Acerca de la pregunta de Einstein, es mejor pasarla por alto.
Los satélites son mucho más grandes que las partículas.
¿Pero en qué clase de mundo vivimos?
Hemos dedicado este capítulo a uno de los aspectos más enigmáticos de la física
cuántica, la exploración del micromundo. Sería ya traumático si se tratara de un
nuevo planeta sujeto a nuevas y diferentes leyes de la naturaleza, porque esto
socavaría los fundamentos mismos de la ciencia y la tecnología, cuyo control
nos hace ricos y poderosos (algunos de nosotros, digamos). Pero lo que es aún
más desconcertante es que las extrañas leyes del micromundo dan paso a la vieja
y banal física newtoniana cuando la escala dimensional crece hasta el nivel de
las pelotas de tenis o los planetas.
Todas las fuerzas que conocemos (gravitación, electromagnetismo, interacción
fuerte y débil) son de tipo local: disminuyen con la distancia y se propagan a
velocidades estrictamente no superiores a la de la luz. Pero un día salió un tal Sr.
Bell, que nos obligó a considerar un nuevo tipo de interacción, no local, que se
propaga instantáneamente y no se debilita con el aumento de la distancia. Y
también demostró que existe, gracias al método experimental.
¿Nos obliga esto a aceptar estas inconcebibles acciones a distancia no locales?
Estamos en un atolladero filosófico. A medida que comprendemos cuán
diferente es el mundo de nuestra experiencia cotidiana, experimentamos un lento
pero inevitable cambio de perspectiva. El último medio siglo ha sido para la
física cuántica la versión acelerada de la larga serie de éxitos de Newton y
Maxwell en la física clásica. Ciertamente hemos llegado a una comprensión más
profunda de los fenómenos, ya que la mecánica cuántica está en la base de todas
las ciencias (incluyendo la física clásica, que es una aproximación) y puede
describir completamente el comportamiento de los átomos, núcleos y partículas
subnucleares (quarks y leptones), así como las moléculas, el estado sólido, los
primeros momentos de la vida en nuestro universo (a través de la cosmología
cuántica), las grandes cadenas en la base de la vida, los frenéticos desarrollos de
la biotecnología, tal vez incluso la forma en que opera la conciencia humana.
Nos ha dado tanto, pero los problemas filosóficos y conceptuales que trae
consigo continúan atormentándonos, dejándonos con un sentimiento de
inquietud mezclado con grandes esperanzas.
contempló las extrañas tierras de Bell.
Capítulo 8
La física cuántica en los tiempos actuales

E n científicos del siglo XX que construyeron la física cuántica en medio de mil


los capítulos anteriores hemos revivido las historias de los brillantes

dificultades y batallas. El viaje nos ha llevado a seguir el nacimiento de ideas


fundamentales que parecen revolucionarias y anti-intuitivas para aquellos que
conocen bien la física clásica, nacidas con Galileo y Newton y refinadas a lo
largo de tres siglos. Frente a la gran cantidad de gente había muchos problemas
sobre la naturaleza misma de la teoría, por ejemplo sobre la validez y los límites
de la interpretación de Copenhague (que todavía hoy algunas personas desafían
y tratan de negar). Sin embargo, la mayoría de los investigadores se dieron
cuenta de que tenían en sus manos una nueva y poderosa herramienta para
estudiar el mundo atómico y subatómico y no tenían demasiados escrúpulos para
utilizarla, aunque no coincidiera con sus ideas en el campo filosófico. Así se
crearon nuevas áreas de investigación en física, aún activas hoy en día.
Algunas de estas disciplinas han cambiado completamente nuestra forma de vida
y han aumentado enormemente nuestro potencial para entender y estudiar el
universo. La próxima vez que uno de ustedes o un miembro de su familia entre
en una máquina de resonancia magnética (esperemos que nunca), considere este
hecho: mientras la máquina zumba, gira, avanza el sofá y hace sonidos como una
orquesta sobrenatural, mientras un monitor en la sala de control forma una
imagen detallada de sus órganos, usted está experimentando de manera esencial
con los efectos de la física cuántica aplicada, un mundo de superconductores y
semiconductores, giro, electrodinámica cuántica, nuevos materiales y así
sucesivamente. Dentro de una máquina de resonancia estás, literalmente, dentro
de un experimento tipo EPR. Y si el aparato de diagnóstico es en cambio un
PET, una tomografía por emisión de positrones, ¡sabed que estáis siendo
bombardeados con antimateria!
Para superar el estancamiento de Copenhague, se han utilizado técnicas de
mecánica cuántica para abordar muchos problemas prácticos y específicos en
esferas que antes se consideraban intratables. Los físicos han comenzado a
estudiar los mecanismos que gobiernan el comportamiento de los materiales,
como la forma en que la fase cambia de sólido a líquido a gas, o cómo la materia
responde a la magnetización, el calentamiento y el enfriamiento, o por qué
algunos materiales son mejores conductores de la corriente eléctrica que otros.
Todo esto cae en gran parte dentro de la llamada "física de la materia
condensada". Para responder a las preguntas anteriores bastaría con aplicar la
ecuación de Schrödinger, pero con el tiempo se han desarrollado técnicas
matemáticas más refinadas, gracias a las cuales hemos podido diseñar nuevos y
sofisticados juguetes, como transistores y láseres, en los que se basa toda la
tecnología del mundo digital en el que vivimos hoy en día.
La mayoría de las aplicaciones de valor económico colosal derivan de la
electrónica cuántica o de la física de la materia condensada y son "no
relativistas", es decir, no dependen de la teoría de la relatividad restringida de
Einstein porque implican fenómenos que se producen a velocidades inferiores a
la de la luz. La ecuación de Schrödinger en sí misma no es relativista, y de hecho
proporciona una excelente aproximación del comportamiento de los electrones y
los átomos a velocidades no altas, lo que es cierto tanto para los electrones
externos de los átomos, químicamente activos e involucrados en los enlaces,
como para los electrones que se mueven dentro de los sólidos.1
Pero hay preguntas abiertas que involucran fenómenos que ocurren a
velocidades cercanas a las de la luz, por ejemplo: ¿qué es lo que mantiene unido
al núcleo? ¿cuáles son los bloques de construcción realmente fundamentales de
la materia, las verdaderas partículas elementales? ¿cómo encaja la relatividad
restringida en la teoría cuántica? Debemos entonces entrar en un mundo más
rápido, diferente al de la física material. Para comprender lo que sucede en el
núcleo, un lugar donde la masa puede ser convertida en energía como en el caso
de la desintegración radiactiva (fisión o fusión), tenemos que considerar los
fenómenos cuánticos que tienen lugar a velocidades cercanas a la de la luz y que
entran en el terreno accidentado de la teoría de la relatividad restringida. Una vez
que entendemos cómo funcionan las cosas, podemos dar el siguiente paso hacia
la más complicada y profunda relatividad general, que se ocupa de la fuerza de
gravedad. Y por último, abordar el problema de los problemas, que
permanecieron abiertos hasta el final de la Segunda Guerra Mundial: cómo
describir plenamente las interacciones entre un electrón relativista (es decir,
rápido) y la luz.
El matrimonio entre la física cuántica y la relatividad estrecha
La teoría de Einstein es la versión correcta del concepto de movimiento relativo,
generalizado a velocidades incluso cercanas a las de la luz. Básicamente, postula
principios generales relacionados con la simetría de las leyes físicas2 y tiene
profundas implicaciones en la dinámica de las partículas. Einstein descubrió la
relación fundamental entre la energía y el momento, que difiere radicalmente de
la de Newton. Esta innovación conceptual está en la base de las modificaciones
que deben hacerse a la mecánica cuántica para reformularla en un sentido
relativista3.
Entonces surge espontáneamente una pregunta: ¿qué surge del matrimonio de
estas dos teorías? Algo extraordinario, como veremos en breve.
E = mc2
La ecuación E=mc2 es muy famosa. Lo puedes encontrar en todas partes: en
camisetas, en el diseño gráfico de la serie de televisión "At the Twilight Zone",
en ciertas marcas comerciales y en un sinfín de dibujos animados del "New
Yorker". Se ha convertido en una especie de emblema universal de todo lo que
es científico e "inteligente" en la cultura contemporánea.
Rara vez, sin embargo, algunos comentaristas de televisión se molestan en
explicar su verdadero significado, excepto para resumirlo en la expresión "la
masa es equivalente a la energía". Nada podría estar más equivocado: la masa y
la energía son en realidad completamente diferentes. Los fotones, sólo para dar
un ejemplo, no tienen masa, pero pueden tener energía fácilmente.
El verdadero significado de E=mc2 es en realidad muy específico. Traducido en
palabras, la ecuación nos dice que "una partícula en reposo de masa m tiene una
energía E cuyo valor viene dado por la relación E=mc2". Una partícula de masa,
en principio, puede transformarse espontáneamente en otras partículas más
ligeras en un proceso (decadencia) que implica la liberación de energía4 . La
fisión nuclear, en la que un núcleo atómico pesado se rompe dando lugar a
núcleos más ligeros, como en el caso del U235 (uranio-235), produce por tanto
mucha energía. De manera similar, los núcleos ligeros como el deuterio pueden
combinarse en el proceso de fusión nuclear para formar helio, liberando grandes
cantidades de energía. Esto sucede porque la masa de la suma de los dos núcleos
iniciales es mayor que la del núcleo de helio. Este proceso de conversión de
energía en masa era simplemente incomprensible antes de la relatividad de
Einstein, sin embargo es el motor que hace funcionar al Sol y es la razón por la
que la vida, la belleza, la poesía existen en la Tierra.
Cuando un cuerpo está en movimiento, se debe modificar la famosa fórmula E =
mc2, como bien sabía el propio Einstein5 . A decir verdad, la fórmula estática
(cuerpo con momento cero) se deduce de la fórmula dinámica (cuerpo con
momento no nulo) y su forma no es la que todo el mundo conoce, sino ésta:
E2 = m2c4
Parecería ser un asunto de lana de cabra, pero en realidad hay una gran
diferencia, como explicaremos a continuación. Para derivar la energía de una
partícula tenemos que tomar la raíz cuadrada de los dos miembros de esta
ecuación y encontrar la conocida E=mc2. ¡Pero eso no es todo!
Es un simple hecho aritmético: los números tienen dos raíces cuadradas, una
positiva y otra negativa. La raíz cuadrada de 4, por ejemplo, es tanto √4=2 como
√4=-2, porque sabemos que 2×2=4 pero también (-2)×(-2)=4 (sabemos que dos
números negativos multiplicados juntos dan un número positivo). Así que
también la ecuación escrita arriba, resuelta con respecto a E, nos da dos
soluciones: E=mc2 y E=-mc2.
He aquí un bonito enigma: ¿cómo podemos estar seguros de que la energía
derivada de la fórmula de Einstein es siempre positiva? ¿Cuál de las dos raíces
debemos tomar? ¿Y cómo lo sabe la naturaleza?
Al principio el problema no parecía muy grave, pero fue robado como una
sofisticación inútil y tonta. Los que lo sabían no tenían ninguna duda, la energía
siempre era o nada o positiva, y una partícula con energía negativa era un
absurdo que ni siquiera debería ser contemplado, so pena de ridículo. Todos
estaban demasiado ocupados jugando con la ecuación de Schrödinger, que en su
forma original sólo se aplica a las partículas lentas, como los electrones externos
de los átomos, las moléculas y los cuerpos sólidos en general. En su versión no
relativista, el problema no se plantea porque la energía cinética de las partículas
en movimiento siempre viene dada por un número positivo. Y el sentido común
nos lleva a pensar que la energía total de una partícula de masa en reposo es
mc2, es decir, también es positiva. Por estas razones, los físicos de la época ni
siquiera consideraron la raíz cuadrada negativa y calificaron esa solución de
"espuria", es decir, "no aplicable a ningún cuerpo físico".
Pero supongamos por un momento que en su lugar hay partículas con energía
negativa, que corresponden a la solución con el signo menos delante y es decir
con una energía en reposo igual a -mc2. Si se movieran, la energía aumentaría en
módulo y por lo tanto se haría aún más pequeña a medida que aumenta el
impulso6 . En posibles colisiones con otras partículas seguirían perdiendo
energía, así como debido a la emisión de fotones, y por lo tanto su velocidad
aumentaría cada vez más, acercándose a la de la luz. El proceso nunca se
detendría y las partículas en cuestión tendrían una energía que tendería a
convertirse en infinita, o más bien infinitamente negativa. Después de un tiempo,
el universo se llenaría de estas rarezas, partículas que irradian energía
hundiéndose constantemente más y más en el abismo del infinito negativo.7
El siglo de la raíz cuadrada
Es verdaderamente notable que uno de los motores fundamentales de la física en
el siglo XX es el problema de "acertar con la raíz cuadrada". En retrospectiva, la
construcción de la teoría cuántica puede considerarse como la aclaración de la
idea de "raíz cuadrada de una probabilidad", cuyo resultado es la función de
onda de Schrödinger (cuyo cuadrado, recordemos, proporciona la probabilidad
de encontrar un cuerpo en un determinado lugar y en un determinado momento).
La simple extracción de la raíz puede dar lugar a verdaderas rarezas. Por
ejemplo, obtenemos objetos llamados números imaginarios y complejos, que
tienen un papel fundamental en la mecánica cuántica. Ya hemos conocido un
ejemplo notorio: i = √-1, la raíz de menos uno. La física cuántica debe
necesariamente involucrar a i y a sus hermanos debido a su naturaleza
matemática y no hay manera de evitarlos. También hemos visto que la teoría
predice rarezas como el enredo y los estados mixtos, que son "casos
excepcionales", consecuencias debidas al hecho de que todo se basa en la raíz
cuadrada de la probabilidad. Si sumamos y restamos estas raíces antes de elevar
todo al cuadrado, podemos obtener cancelaciones de término y por lo tanto un
fenómeno como la interferencia, como hemos visto desde el experimento de
Young en adelante. Estas rarezas desafían nuestro sentido común tanto como, y
tal vez más, la raíz cuadrada de menos uno habría parecido absurda a las culturas
que nos precedieron, como los antiguos griegos. Al principio ni siquiera
aceptaban números irracionales, tanto que según una leyenda Pitágoras condenó
a su discípulo que había demostrado la irracionalidad de √2, es decir, el hecho de
que este número no puede escribirse en forma de fracción, una proporción entre
dos números enteros. En la época de Euclides las cosas habían cambiado y se
aceptaba la irracionalidad, pero hasta donde sabemos la idea de los números
imaginarios nunca fue contemplada (para más detalles ver la nota 15 del capítulo
5).
Otro resultado sensacional obtenido por la física en el último siglo puede
considerarse una consecuencia de esta simple estructura matemática, a saber, el
concepto de espín y espinor. Un espinor es en la práctica la raíz cuadrada de un
vector (véase el Apéndice para más detalles). Un vector, que quizás le resulte
más familiar, es como una flecha en el espacio, con longitud y dirección
definidas, que representa cantidades como, por ejemplo, la velocidad de una
partícula. Tomar la raíz cuadrada de un objeto con dirección espacial parece una
idea extraña y de hecho tiene consecuencias extrañas. Cuando giras un espinazo
360° no regresa igual a sí mismo, sino que se vuelve menos él mismo. Los
cálculos nos dicen entonces que si intercambiamos la posición de dos electrones
idénticos con el espín 1/2, la función de onda del estado que incluye la posición
de ambos debe cambiar de signo: Ψ(x,y) = - Ψ(y,x). El principio de exclusión de
Pauli se deriva de este mismo hecho: dos partículas idénticas con espín 1/2 no
pueden tener el mismo estado, porque de lo contrario la función de onda sería
idénticamente nula. Ya hemos visto que el principio aplicado a los electrones
nos lleva a excluir la presencia de más de dos partículas en una órbita, una de las
cuales tiene spin up y la otra spin down. De ahí la existencia de una "fuerza de
intercambio" repulsiva entre dos partículas con spin 1/2 que no quieren a toda
costa permanecer en el mismo estado cuántico, lo que incluye permanecer en el
mismo lugar al mismo tiempo. El principio de exclusión de Pauli rige la
estructura de la tabla periódica de elementos y es una consecuencia muy visible
y fundamental del increíble hecho de que los electrones se representan como
raíces cuadradas de vectores, es decir, espinores.
La fórmula de Einstein que une la masa y la energía nos da otra situación en la
que la física del siglo XX tuvo que lidiar con las raíces cuadradas. Como
dijimos, al principio todo el mundo ignoró el problema descuidando las
soluciones negativas en el estudio de las partículas como los fotones o los
mesones. Un mesón es una partícula con cero espín, mientras que el fotón tiene
espín igual a 1, y su energía es siempre positiva. En el caso de los electrones,
que tienen el espín 1/2, fue necesario encontrar una teoría que integrara la
mecánica cuántica y la relatividad estrecha; y en este campo nos encontramos
cara a cara con los estados de energía negativa, que aquí nos dan la oportunidad
de conocer una de las figuras más importantes de la física del siglo XX.
Paul Dirac
Paul Dirac fue uno de los padres fundadores de la física cuántica, autor, entre
otras cosas, del libro sagrado de esta disciplina: Los Principios de la Mecánica
Cuántica8 . Es un texto de referencia que trata de manera coherente con la teoría
según la escuela de pensamiento de Bohr-Heisenberg y combina la función de
onda de Schrödinger con la mecánica matricial de Heisenberg. Es una lectura
recomendada para aquellos que quieran profundizar en el tema, aunque requiera
conocimientos a nivel de los primeros años de universidad.
Las contribuciones originales de Dirac a la física del siglo XX son de suma
importancia. Cabe destacar, por ejemplo, su propuesta teórica sobre la existencia
de monopolios magnéticos, el campo magnético equivalente a las cargas
eléctricas, fuentes puntuales del propio campo. En la teoría clásica de Maxwell
esta posibilidad no se contempla, porque se considera que los campos
magnéticos son generados sólo por cargas en movimiento. Dirac descubrió que
los monopolos y las cargas eléctricas son conceptos que no son independientes
sino que están relacionados a través de la mecánica cuántica. Sus especulaciones
teóricas unieron la nueva física con una rama de las matemáticas llamada
topología, que estaba ganando importancia en esos años. La teoría de Dirac de
los monopolios magnéticos tuvo una fuerte resonancia también desde un punto
de vista estrictamente matemático y en muchos sentidos anticipó el marco
conceptual que más tarde desarrolló la teoría de las cuerdas. Pero su
descubrimiento fundamental, uno de los más profundos en la física del siglo XX,
fue la teoría relativista del electrón.
En 1926 el joven Dirac buscaba una nueva ecuación para describir las partículas
de espín 1/2, que pudiera superar a la de Schrödinger y tener en cuenta la
estrecha relatividad. Para ello necesitaba espinores (las raíces cuadradas de los
vectores, recuerde) y tenía que asumir que el electrón tenía masa. Pero para que
se tuviera en cuenta la relatividad, descubrió que tenía que duplicar los espinores
con respecto a la situación no relativista, asignando así dos espinores a cada
electrón.
En términos generales, un espinor consiste en un par de números complejos que
representan respectivamente la raíz de la probabilidad de tener un espinor hacia
arriba o hacia abajo. Para hacer que este instrumento entre en el rango de la
relatividad estrecha, Dirac encontró una nueva relación en la que se necesitaban
cuatro números complejos. Esto se conoce hoy en día, tal vez lo hayas
imaginado, como la ecuación de Dirac.
La ecuación de Dirac toma las raíces cuadradas muy en serio, en el sentido más
amplio. Los dos espinores iniciales representan dos electrones, uno arriba y otro
abajo, que sin considerar la relatividad tienen energía positiva, así que de
E2=m2c4 utilizamos sólo la solución E=+mc2. Pero si tenemos en cuenta la
relatividad, necesitamos otros dos espinores, a los que asociamos la solución
negativa de la ecuación de Einstein E=-mc2. Así que tienen energía negativa. El
propio Dirac no podía hacer nada al respecto, porque esta elección era
obligatoria si queríamos tener en cuenta los requisitos de simetría exigidos por la
relatividad restringida, esencialmente referidos al tratamiento correcto de los
movimientos. Fue frustrante.
El problema de la energía negativa está inextricablemente presente en el corazón
mismo de la relatividad restringida y por lo tanto no puede ser ignorado. Dirac se
dio cuenta de lo espinoso que se volvió a medida que progresaba en su teoría
cuántica del electrón. El signo menos no puede ser ignorado diciendo que es una
solución inadmisible, porque la teoría que resulta de la combinación de cuántica
y relatividad permite que las partículas tengan tanto energía positiva como
negativa. Podríamos resolver el asunto diciendo que un electrón de energía
negativa es sólo uno de los muchos "estados cuánticos permitidos", pero esto
llevaría al desastre: el átomo de hidrógeno, y toda la materia ordinaria, no sería
estable. Un electrón de energía positiva mc2 podría emitir fotones con una
energía igual a 2mc2, convertirse en una partícula de energía negativa -mc2 e
iniciar el descenso al abismo de lo menos infinito (a medida que el momento
aumenta, el módulo de energía negativa aumentaría rápidamente). Estas nuevas
soluciones con el signo menos al frente fueron una verdadera espina clavada en
la teoría naciente.
Pero Dirac tuvo una idea brillante para resolver el problema. Como hemos visto,
el principio de exclusión de Pauli establece que dos electrones no pueden tener
exactamente el mismo estado cuántico al mismo tiempo: si uno ya está en un
cierto estado, como en una órbita atómica, nadie más puede ocupar ese lugar
(por supuesto que también debemos tener en cuenta el espín, por lo que en un
estado con ciertas características de ubicación y movimiento dos electrones
pueden vivir juntos, uno con el espín hacia arriba y el otro con el espín hacia
abajo). Dirac tuvo la idea de extender esto al vacío: también el vacío está en
realidad lleno de electrones, que ocupan todos los estados de energía negativa.
Estos estados problemáticos del universo están por lo tanto ocupados por dos
electrones, uno que gira hacia arriba y el otro hacia abajo. En esta configuración,
los electrones de energía positiva de los átomos no podrían emitir fotones y se
encontrarían en un estado de energía negativa, porque no encontrarían ninguno
libre y gracias al principio de acción de Pauli les estaría prohibida la acción. Con
esta hipótesis el vacío se convertiría en análogo a un gigantesco átomo inerte,
como el de un gas noble, con todos los orbitales llenos, es decir, con todos los
estados de energía negativa ocupados, para cualquier cantidad de movimiento.
Supersimetría
El cálculo de la energía del vacío sigue empeorando si pegamos muones,
neutrinos, tau, quarks, gluones, bosones W y Z, el nuevo bosón de Higgs, es
decir, todas las partículas que habitan en el zoológico de la Madre Naturaleza.
Cada uno de ellos proporciona un trozo de energía total, positiva para los
fermiones y negativa para los bosones, y el resultado es siempre incontrolable, es
decir, infinito. Aquí el problema no es encontrar una mejor manera de hacer los
cálculos sino un nuevo principio general que nos dice cómo derivar la densidad
de la energía del vacío en el universo. Y hasta ahora no lo tenemos.
Sin embargo, hay una simetría muy interesante que, si se implementa en una
teoría cuántica "ajustada", nos permite calcular la constante cosmológica y
obtener un resultado matemáticamente reconfortante: cero. Esta simetría viene
dada por una conexión particular entre los fermiones y los bosones. Para verlo en
funcionamiento tenemos que introducir una dimensión imaginaria extra en la
escena, algo que podría haber salido de la imaginación de Lewis Carroll. Y esta
dimensión extra se comporta como un fermión: con un principio "à la Pauli"
prohíbe que se dé más de un paso en ella.
Dondequiera que entremos en la nueva dimensión, debemos detenernos
inmediatamente (es como poner un electrón en estado cuántico: entonces no
podemos añadir más electrones). Pero cuando un bosón pone su pie en él, se
transforma en un fermión. Y viceversa. Si esta extraña dimensión existiera
realmente y si entráramos en ella, como Alicia en A través del espejo, veríamos
al electrón transformarse en un bosón llamado selectrón y al fotón convertirse en
un fermión llamado fotón.
La nueva dimensión representa un nuevo tipo de simetría física,
matemáticamente consistente, llamada supersimetría, que asocia cada fermión
con un bosón y viceversa15 . La relación entre los socios supersimétricos es
similar a la que existe entre la materia y la antimateria. Como habrán adivinado,
la presencia de estas nuevas partículas tiene un efecto agradable en el cálculo de
la energía del vacío: los valores positivos de los bosones anulan los valores
negativos de los fermiones procedentes del mar de Dirac, y el resultado es un
bonito cero. La constante cosmológica es idénticamente nula.
¿Así que la supersimetría resuelve el verdadero problema de la energía del
vacío? Tal vez, pero no está muy claro cómo. Hay dos obstáculos. En primer
lugar, todavía no se ha observado ninguna pareja bosónica supersimétrica del
electrón16 . Sin embargo, la supersimetría, como todas las simetrías (piense en
una bola de vidrio perfectamente esférica), puede ser "rota" (sólo dé un martillo
a esta esfera). Los físicos tienen un profundo amor por la simetría, que siempre
es un ingrediente de nuestras teorías más apreciadas y utilizadas. Muchos
colegas esperan que la supersimetría realmente exista en la naturaleza y que
también haya un mecanismo (similar al martilleo de la esfera) que pueda
romperla. Si así fuera, observaríamos las consecuencias sólo en energías muy
altas, como las que esperamos obtener en aceleradores colosales como el LHC.
Según la teoría, los socios del electrón fotónico, es decir, el selectortrón y el
fotón, son muy pesados y sólo veremos rastros de ellos cuando alcancemos una
energía igual a un valor umbral llamado ΛSUSY (SUSY es la abreviatura de
super simetría).
Desafortunadamente, la ruptura de la supersimetría trae el problema de la
energía infinita de nuevo a la escena. La densidad de energía del vacío viene
dada por la fórmula que se ve arriba, es decir, Λ4SUSY/ħ3c3. Si suponemos que
esta cantidad es del orden de magnitud de las máximas energías obtenibles por
los grandes aceleradores, de mil a diez mil billones de electronvoltios, entonces
obtenemos una constante cosmológica 1056 veces mayor que la observada. Esto
es una mejora considerable con respecto a la 10120 de antes, pero sigue siendo
un gran problema. Por lo tanto, la supersimetría, cuando se aplica directamente a
los cálculos, no resuelve la crisis de la energía del vacío. Tenemos que intentar
otras vías.
El principio holográfico
¿Cometemos algún error al contar los peces capturados en el Mar de Dirac? ¿Tal
vez estamos criando demasiados? Al final del día estamos sumando electrones
de energía negativa muy pequeños con longitudes de onda muy cortas. La escala
es realmente microscópica, incluso si fijamos un valor alto para el umbral de
energía Λ. ¿Quizás estos estados no deben ser considerados realmente?
En los últimos diez años aproximadamente ha surgido una nueva y radical
hipótesis, según la cual siempre hemos sobrestimado el número de peces en el
Mar de Dirac, porque no son objetos tridimensionales en un océano
tridimensional, sino que forman parte de un holograma. Un holograma es una
proyección de un cierto espacio en uno más pequeño, como sucede cuando
proyectamos una escena tridimensional en una pantalla bidimensional. Según
esta hipótesis, todo lo que ocurre en tres dimensiones puede ser descrito
completamente basado en lo que ocurre en la pantalla, con una dimensión
menos. El Mar de Dirac, como sigue, no está lleno de peces de la manera que
pensamos, porque estos son en realidad objetos bidimensionales. En resumen,
los estados de energía negativa son una mera ilusión y la energía total del vacío
es tanto menor que es potencialmente compatible con el valor observado de la
constante cosmológica. Decimos "potencialmente" porque la teoría holográfica
sigue siendo una obra en construcción y todavía tiene muchos puntos abiertos.
Esta nueva idea proviene del campo de la teoría de las cuerdas, en áreas donde se
pueden establecer conexiones entre los espacios holográficos (la más definida y
original está dada por la llamada conjetura de Maldacena, o AdS/CFT).17
Volveremos a esta hipótesis, poco realista o profunda, en el próximo capítulo;
sin embargo, el sentido general parece ser el de la lógica de un soñador.
La física de la materia condensada
La teoría cuántica permite aplicaciones interesantes y muy útiles en la ciencia de
los materiales. Para empezar, nos ha permitido por primera vez en la historia
entender realmente cuáles son los estados de la materia, cómo funcionan las
transiciones de fase y las propiedades eléctricas y magnéticas. Al igual que en el
caso de la tabla periódica de elementos, la mecánica cuántica ha compensado en
gran medida las inversiones realizadas, tanto desde el punto de vista teórico
como práctico, gracias al nacimiento de nuevas tecnologías. Ha permitido el
comienzo de la llamada "electrónica cuántica" y ha revolucionado la vida de
todos nosotros de maneras que antes eran inconcebibles. Echemos un vistazo a
uno de los principales subsectores de esta disciplina, que se ocupa del flujo de la
corriente eléctrica en los materiales.
La banda de conducción
Cuando los átomos se unen para formar un sólido, se encuentran aplastados
cerca unos de otros. Las funciones de onda de los electrones externos, situados
en los orbitales ocupados de mayor nivel, comienzan a fusionarse de cierta
manera (mientras que los de los orbitales internos permanecen sustancialmente
inalterados). Los electrones externos pueden saltar de un átomo a otro, tanto que
los orbitales externos pierden su identidad y ya no se encuentran alrededor de un
átomo específico: entonces se fusionan en una colección de estados electrónicos
extendidos que se llama la banda de valencia.
Tomemos por simplicidad un material cristalino. Los cristales tienen muchas
formas, cuyas propiedades han sido cuidadosamente catalogadas. Los electrones
que comienzan a vagar entre los cristales tienen funciones de onda con una
frecuencia muy baja en la banda de valencia. Dentro de esta banda, los
electrones están dispuestos según el principio de exclusión de Pauli: a lo sumo
dos por nivel, uno con spin up y otro con spin down. Los estados de muy baja
frecuencia son muy similares a los de un electrón libre para moverse en el
espacio, sin interferencia con la red cristalina. Estos estados tienen el nivel de
energía más bajo y se llenan primero. Siguiendo siempre el principio de
exclusión, los electrones continúan llenando los siguientes estados hasta que sus
longitudes de onda cuánticas se acortan, llegando a ser comparables a la
distancia entre los átomos.
Los electrones, sin embargo, están sujetos a desviaciones del campo
electromagnético generado por los átomos de la red cristalina, que se comporta
como un interferómetro gigante de Young con muchas rendijas: una para cada
átomo (las análogas a las rendijas son las cargas de la red). El movimiento de
estas partículas, por lo tanto, implica una colosal interferencia cuántica20 . Ésta
interviene precisamente cuando la longitud de onda del electrón es del mismo
orden de magnitud con respecto a la distancia entre los átomos: los estados en
esta condición están sujetos a una interferencia destructiva y por lo tanto se
anulan mutuamente.
La interferencia causa la formación de bandas en la estructura de los niveles de
energía de los electrones en los sólidos. Entre la banda de energía mínima, la
banda de valencia, y la siguiente, llamada banda de conducción, hay una brecha
llamada brecha de energía. El comportamiento eléctrico del material depende
directamente de esta estructura de bandas. Se pueden dar tres casos distintos.
1. Aislantes. Si la banda de valencia está llena y la brecha de energía antes de la
banda de conducción es sustancial, el material se llama aislante. Los aislantes,
como el vidrio o el plástico, no conducen la electricidad. Un representante típico
de esta categoría es un elemento que tiene casi todas las órbitas llenas, como los
halógenos y los gases nobles. En estas circunstancias, la corriente eléctrica no
fluye porque no hay espacio para que los electrones de la banda de valencia
"deambulen". Así que para moverse libremente un electrón debería saltar a la
banda de conducción, pero si la brecha de energía es demasiado grande esto
requiere demasiada energía.21
2. Conductores. Si la banda de valencia no está completamente llena, entonces
los electrones pueden moverse fácilmente y entrar en nuevos estados de
movimiento, lo que hace que el material sea un buen conductor de las corrientes
eléctricas. El miembro típico de esta categoría tiene muchos electrones
disponibles para escapar en la órbita exterior, que no están completos; por lo
tanto, son elementos que tienden a dar electrones en enlaces químicos, como los
metales alcalinos y ciertos metales pesados. Entre otras cosas, es la difusión de
la luz por estos electrones libres lo que causa el típico aspecto pulido de los
metales. A medida que la banda de conducción se llena, el material se convierte
en un conductor cada vez menos eficiente, hasta que alcanza el estado de
aislamiento.
3. Semiconductores. Si la banda de valencia está casi completa y la banda de
conducción tiene pocos electrones, el material no debería ser capaz de conducir
mucha corriente. Pero si la brecha de energía no es demasiado alta, digamos
menos de unos 3 eV, es posible forzar a los electrones sin demasiado esfuerzo a
saltar en la banda de conducción. En este caso estamos en presencia de un
semiconductor. La capacidad de estos materiales para conducir la electricidad
sólo en circunstancias apropiadas los hace realmente útiles, porque podemos
manipularlos de varias maneras y disponer de verdaderos "interruptores
electrónicos".
Los semiconductores típicos son sólidos cristalinos como el silicio (el principal
componente de la arena). Su conductividad puede modificarse drásticamente
añadiendo otros elementos como "impurezas", mediante una técnica llamada
dopaje. Se dice que los semiconductores con pocos electrones en la banda de
conducción son del tipo n y suelen estar dopados con la adición de átomos que
ceden electrones, que por lo tanto "repoblan" la banda de conducción. Se dice
que los semiconductores con una banda de conducción casi completa son del
tipo p y normalmente se dopan con la adición de átomos que aceptan electrones
de la banda de valencia.
Un material de tipo p tiene "agujeros" en la banda de valencia que se ven muy
similares a los encontrados cuando hablamos del mar de Dirac. En ese caso
vimos que estos huecos actuaban como partículas positivas; aquí sucede algo
similar: los huecos, llamados "gaps", toman el papel de cargas positivas y
facilitan el paso de la corriente eléctrica. Un semiconductor tipo p, por lo tanto,
es una especie de Mar de Dirac en miniatura, creado en un laboratorio. En este
caso, sin embargo, los huecos involucran muchos electrones y se comportan
como si fueran partículas más pesadas, por lo que son menos eficientes como
portadores de corriente que los electrones individuales.
Diodos y transistores
El ejemplo más simple de un mecanismo que podemos construir con
semiconductores es el diodo. Un diodo actúa como conductor en una dirección y
como aislante en la otra. Para construir uno, un material de tipo p suele acoplarse
con un material de tipo n para formar una unión p-n. No se requiere mucho
esfuerzo para estimular los electrones del elemento de tipo n para que pasen a
través de la unión y terminen en la banda de valencia del elemento de tipo p.
Este proceso, que se asemeja a la aniquilación de partículas y antipartículas en el
Mar de Dirac, hace que la corriente fluya en una sola dirección.
Si intentamos invertir el fenómeno nos damos cuenta de que es difícil: al quitar
los electrones de la banda de conducción no encontramos ninguno capaz de
reemplazarlos provenientes del material tipo p. En un diodo, si no exageramos
con el voltaje (es fácil quemar un semiconductor con una corriente demasiado
intensa), podemos hacer que la electricidad fluya fácilmente en una sola
dirección, y por eso este dispositivo tiene importantes aplicaciones en los
circuitos eléctricos.
En 1947 John Bardeen y William Brattain, que trabajaban en los Laboratorios
Bell en un grupo encabezado por William Shockley, construyeron el primer
transistor de "punto de contacto". Era una generalización del diodo, hecha por la
unión de tres semiconductores. Un transistor nos permite controlar el flujo de
corriente ya que el voltaje varía entre las tres capas (llamadas colector, base y
emisor respectivamente) y sirve básicamente como interruptor y amplificador.
Es quizás el mecanismo más importante inventado por el hombre y que le valió a
Bardeen, Brattain y Shockley el Premio Nobel en 1956.22
Aplicaciones rentables
¿Con qué terminamos en nuestros bolsillos? La ecuación fundamental de
Schrödinger, que nos proporciona una forma de calcular la función de onda,
nació como el nacimiento de la razón pura: nadie imaginó entonces que sería la
base para el funcionamiento de maquinaria costosa o que alimentaría la
economía de una nación. Pero si se aplica a los metales, aislantes y
semiconductores (los más rentables), esta ecuación nos ha permitido inventar
interruptores y mecanismos de control particulares que son indispensables en
equipos como computadoras, aceleradores de partículas, robots que construyen
automóviles, videojuegos y aviones capaces de aterrizar en cualquier clima.
Otro hijo favorito de la revolución cuántica es el omnipresente láser, que
encontramos en las cajas de los supermercados, en la cirugía ocular, en la
metalurgia de precisión, en los sistemas de navegación y en los instrumentos que
utilizamos para sondear la estructura de los átomos y las moléculas. El láser es
como una antorcha especial que emite fotones de la misma longitud de onda.
Podríamos seguir hablando de los milagros tecnológicos que deben su existencia
a las intuiciones de Schrödinger, Heisenberg, Pauli y muchos otros. Veamos
algunos de ellos. El primero que viene a la mente es el microscopio de efecto
túnel, capaz de alcanzar aumentos miles de veces mayores que el microscopio
electrónico más potente (que es en sí mismo el hijo de la nueva física, porque se
basa en algunas características de onda de los electrones).
El efecto túnel es la quintaesencia de la teoría cuántica. Imagina un bol de metal
colocado en una mesa, dentro del cual hay una bola de acero libre para rodar sin
fricción. Según la física clásica, la esfera queda atrapada en el cuenco por la
eternidad, condenada a subir y bajar a lo largo de las paredes alcanzando siempre
la misma altura. El sistema newtoniano en el más alto grado. Para la versión
cuántica de esta configuración, tomamos un electrón confinado en una jaula
metálica, en cuyas paredes circula corriente con un voltaje que la partícula no
tiene suficiente energía para contrarrestar. Así que el electrón se acerca a una
pared, es repelido hacia la pared opuesta, sigue siendo repelido, y así
sucesivamente hasta el infinito, ¿verdad? No! Tarde o temprano, en el extraño
mundo cuántico, la partícula se encontrará fuera.
¿Entiendes lo perturbador que es esto? En el lenguaje clásico diríamos que el
electrón cavó mágicamente un túnel y escapó de la jaula, como si la esfera de
metal, la novela Houdini, hubiera escapado de la prisión del tazón. Aplicando al
problema la ecuación de Schrödinger le hacemos entrar la probabilidad: en cada
encuentro entre el electrón y la pared hay una pequeña posibilidad de que la
partícula cruce la barrera. ¿A dónde va la energía necesaria? No es una pregunta
relevante, porque la ecuación sólo nos dice cuál es la probabilidad con la que el
electrón está dentro o fuera. Para una mente newtoniana esto no tiene sentido,
pero el efecto túnel tiene efectos muy tangibles. En la década de 1940 se había
convertido en un hecho que los físicos utilizaban para explicar fenómenos
nucleares previamente incomprensibles. Algunas partes del núcleo atómico
logran, a través del efecto túnel, cruzar la barrera que las mantiene unidas y al
hacerlo rompen el núcleo original para formar otros más pequeños. Esto es
fisión, un fenómeno en la base de los reactores nucleares.
Otro aparato que pone en práctica este extraño efecto es la unión Josephson, una
especie de interruptor electrónico llamado así en honor a su brillante y extraño
inventor, Brian Josephson. Este dispositivo funciona a temperaturas cercanas al
cero absoluto, donde la superconductividad cuántica añade un carácter exótico a
los fenómenos. En la práctica, es un aparato electrónico digital súper rápido y
súper frío que explota el efecto túnel cuántico. Parece salir directamente de las
páginas de un libro de Kurt Vonnegut, pero realmente existe y es capaz de
encenderse y apagarse miles de miles de millones de veces por segundo. En
nuestra era de ordenadores cada vez más potentes, esta velocidad es una
característica muy deseable. Esto se debe a que los cálculos se hacen sobre bits,
es decir, sobre unidades que pueden ser cero o uno, gracias a varios algoritmos
que representan todos los números, los suman, los multiplican, calculan
derivados e integrales, y así sucesivamente. Todo esto se hace cambiando el
valor de ciertos circuitos eléctricos de cero (apagado) a uno (encendido) varias
veces, por lo que comprenderá que acelerar esta operación es de suma
importancia. El cruce de Josephson lo hace mejor.
El efecto túnel aplicado a la microscopía nos ha permitido "ver" los átomos
simples, por ejemplo en la fantástica arquitectura de la doble hélice que forma el
ADN, un registro de toda la información que define a un ser vivo. El
microscopio de efecto túnel, inventado en los años ochenta del siglo pasado, no
utiliza un haz de luz (como en el microscopio óptico) ni un haz de electrones
(como en el electrónico estándar). Su funcionamiento se basa en una sonda de
muy alta precisión que sigue el contorno del objeto a observar permaneciendo a
una distancia de menos de una millonésima de milímetro. Esta brecha es lo
suficientemente pequeña como para permitir que las corrientes eléctricas
presentes en la superficie del propio objeto lo superen gracias al efecto túnel y
así estimular un cristal muy sensible presente en la sonda. Cualquier variación en
esta distancia, debido a un átomo "saliente", es registrada y convertida en una
imagen por un software especial. Es el equivalente al lápiz óptico de un
tocadiscos (¿alguien lo recuerda?), que recorre colinas y valles en un surco y los
convierte en la magnífica música de Mozart.
El microscopio de efecto túnel también es capaz de tomar átomos uno por uno y
moverlos a otro lugar, lo que significa que podemos construir una molécula de
acuerdo a nuestros diseños, poniendo las piezas juntas como si fuera un modelo.
Podría ser un nuevo material muy resistente o un medicamento antiviral. Gerd
Benning y Heinrich Rohrer, que inventaron el microscopio de efecto túnel en un
laboratorio de IBM en Suiza, fueron galardonados con el Premio Nobel en 1986,
y su idea dio origen a una industria con un volumen de negocios de mil millones
de dólares.
En el presente y el futuro cercano hay otras dos revoluciones potenciales: la
nanotecnología y la computación cuántica. Las nanotecnologías (donde "nano"
es el prefijo que vale 10-9, que significa "realmente muy pequeño") son la
reducción de la mecánica, con motores, sensores y demás, a escala atómica y
molecular. Hablamos literalmente de fábricas liliputienses, donde un millón de
veces más pequeñas dimensiones corresponden a un aumento igual de la
velocidad de operación. Los sistemas de producción cuántica podrían utilizar la
mayor cantidad de materia prima de todas, los átomos. Nuestras fábricas
contaminantes serían reemplazadas por coches compactos y eficientes.
La computación cuántica, a la que volveremos más tarde, promete ofrecer "un
sistema de procesamiento de información tan poderoso que, en comparación con
la computación digital tradicional, parecerá un éxito en comparación con un
reactor nuclear".
Capítulo 9
El tercer milenio

C omo hemos visto en varias ocasiones durante el curso del libro, la ciencia
cuántica, a pesar de su extraña idea de la realidad, funciona muy bien, a un
nivel casi milagroso. Sus éxitos son extraordinarios, profundos y de gran
peso. Gracias a la física cuántica tenemos una verdadera comprensión de lo que
ocurre a nivel molecular, atómico, nuclear y subnuclear: conocemos las fuerzas
y leyes que gobiernan el micromundo. La profundidad intelectual de sus
fundadores, a principios del siglo XX, nos ha permitido utilizar una poderosa
herramienta teórica que conduce a aplicaciones sorprendentes, las que están
revolucionando nuestra forma de vida.
De su cilindro, el mago cuántico ha sacado tecnologías de alcance inimaginable,
desde los láseres hasta los microscopios de efecto túnel. Sin embargo, algunos de
los genios que ayudaron a crear esta ciencia, escribieron los textos de referencia
y diseñaron muchos inventos milagrosos están todavía en la garra de una gran
angustia. En sus corazones, enterrados en un rincón, todavía existe la sospecha
de que Einstein no se equivocó y que la mecánica cuántica, en toda su gloria, no
es la teoría final de la física. Vamos, ¿cómo es posible que la probabilidad sea
realmente parte de los principios básicos que rigen la naturaleza? Debe haber
algo que se nos escapa. La gravedad, por ejemplo, que ha sido descuidada por la
nueva física durante mucho tiempo; el sueño de llegar a una teoría sólida que
unificara la relatividad general de Einstein y la mecánica cuántica ha llevado a
algunos temerarios a explorar los abismos de los fundamentos, donde sólo las
matemáticas más abstractas proporcionan una luz débil, y a concebir la teoría de
las cuerdas. Pero ¿hay quizás algo más profundo, un componente que falta en los
fundamentos lógicos de la física cuántica? ¿Estamos tratando de completar un
rompecabezas en el que falta una pieza?
Algunas personas esperan con impaciencia llegar pronto a una superteoría que se
reduzca a la mecánica cuántica en ciertas áreas, como sucede con la relatividad
que engloba la mecánica clásica newtoniana y devuelve valor sólo en ciertas
áreas, es decir, cuando los cuerpos en juego se mueven lentamente. Esto
significaría que la física cuántica moderna no es el final de la línea, porque allí,
escondida en lo profundo de la mente de la Naturaleza, existe una teoría
definitiva, mejor, capaz de describir el universo completamente. Esta teoría
podría abordar las fronteras de la física de alta energía, pero también los
mecanismos íntimos de la biología molecular y la teoría de la complejidad.
También podría llevarnos a descubrir fenómenos completamente nuevos que
hasta ahora han escapado al ojo de la ciencia. Después de todo, nuestra especie
se caracteriza por la curiosidad y no puede resistir la tentación de explorar este
excitante y sorprendente micromundo como un planeta que orbita una estrella
distante. Y la investigación también es un gran negocio, si es cierto que el 60%
del PIB americano depende de tecnologías que tienen que ver con la física
cuántica. Así que hay muy buenas razones para continuar explorando los bloques
de construcción sobre los que construimos nuestra comprensión del mundo.
"Los fenómenos cuánticos desafían nuestra comprensión primitiva de la
realidad; nos obligan a reexaminar la idea misma de la existencia", escribe Euan
Squires en el prefacio de su libro El Misterio del Mundo Cuántico. "Estos son
hechos importantes, porque nuestras creencias sobre "lo que existe" ciertamente
influyen en la forma en que concebimos nuestro lugar en el mundo. Por otra
parte, lo que creemos que somos influye en última instancia en nuestra
existencia y en nuestros actos "1. El difunto Heinz Pagels, en su ensayo El
código cósmico, habla de una situación similar a la de un consumidor que tiene
que elegir una variante de la "realidad" entre las muchas que se ofrecen en unos
grandes almacenes2.
En los capítulos anteriores hemos cuestionado la concepción común de la
"realidad" al tratar el teorema de Bell y sus consecuencias experimentales, es
decir, hemos considerado la posibilidad de los efectos no locales: la transferencia
instantánea de información entre dos lugares situados a distancias arbitrarias.
Según el modo de pensar clásico, la medición realizada en un punto "influye" en
las observaciones del otro; pero en realidad el vínculo entre estos dos lugares
viene dado por una propiedad de las dos partículas (fotones, electrones,
neutrones o lo que sea) que nacieron juntas en un estado enmarañado. A su
llegada a los puntos donde se encuentran los dos detectores, si el aparato 1
registra la propiedad A para la partícula receptora, es necesario que el aparato 2
registre la propiedad B, o viceversa. Desde el punto de vista de las funciones de
onda, el acto de medir por el aparato 2 hace que el estado cuántico "colapse"
simultáneamente en cada punto del espacio. Einstein odiaba esto, porque creía
firmemente en la ubicación y la prohibición de exceder la velocidad de la luz.
Gracias a varios experimentos hemos excluido la posibilidad de que los dos
detectores intercambien señales; la existencia de enredo es en cambio un hecho
bien conocido y ampliamente confirmado, por lo que una vez más la física
cuántica es correcta a nivel fundamental. El problema radica en nuestra reacción
a este fenómeno aparentemente paradójico. Un físico teórico escribió que
deberíamos encontrar una forma de "coexistencia pacífica" con la mecánica
cuántica.
El quid de la cuestión es entonces: ¿es la paradoja EPR una ilusión, tal vez
concebida para parecer deliberadamente anti-intuitiva? Incluso el gran Feynman
se sintió desafiado por el teorema de Bell y trató de llegar a una representación
de la mecánica cuántica que lo hiciera más digerible, gracias a su idea de la suma
en los caminos. Como hemos visto, a partir de ciertas ideas de Paul Dirac
inventó una nueva forma de pensar sobre los acontecimientos. En su marco,
cuando una partícula radioactiva decae y da vida a un par de otras partículas, una
con spin up y otra con spin down, tenemos que examinar las dos "vías" que se
determinan. Una, que llamaremos A, lleva la partícula con spin hacia arriba al
detector 1 y la que tiene spin hacia abajo al detector 2; la otra, la ruta B, hace lo
contrario. A y B tienen cuantitativamente dos "amplitudes de probabilidad", que
podemos sumar. Cuando hacemos una medición, también averiguamos cuál de
los dos caminos ha tomado realmente el sistema, si A o B; así, por ejemplo, si
encontramos la partícula con spin up en el punto 1, sabemos que ha pasado por
A. En todo esto, sólo podemos calcular la probabilidad de los distintos caminos.
Con esta nueva concepción del espacio-tiempo, la posibilidad de que la
información se propague instantáneamente incluso a grandes distancias
desaparece. El cuadro general se acerca más al clásico: recordarán el ejemplo en
el que nuestro amigo nos envía a nosotros en la Tierra y a un colega en Rigel 3
una pelota de color, que puede ser roja o azul; si al abrir el paquete vemos la
pelota azul, sabemos en ese mismo instante que el otro recibió la roja. Sin
embargo, nada cambia en el universo. Tal vez este modelo calme nuestros
temores filosóficos sobre la paradoja EPR, pero hay que decir que incluso la
suma de los caminos tiene algunos aspectos realmente desconcertantes. Las
matemáticas que hay detrás funcionan tan bien que el modelo descarta la
presencia de señales que viajan más rápido que la luz. Esto está estrechamente
relacionado con hechos como la existencia de la antimateria y la teoría cuántica
de campos. Por lo tanto, vemos que el universo es concebible como un conjunto
infinito de caminos posibles que gobiernan su evolución en el tiempo. Es como
si hubiera un gigantesco frente de onda de probabilidad en avance. De vez en
cuando tomamos una medida, seleccionamos un camino para un determinado
evento en el espacio-tiempo, pero después de eso la gran ola se sacude y
continúa su carrera hacia el futuro.
Generaciones de físicos han sentido la frustración de no saber qué teoría cuántica
estaban usando realmente. Incluso hoy en día el conflicto entre la intuición, los
experimentos y la realidad cuántica todavía puede ser profundo.
Criptografía cuántica
El problema de la transmisión segura de información no es nuevo. Desde la
antigüedad, el espionaje militar ha usado a menudo códigos secretos, que el
contraespionaje ha tratado de romper. En tiempos de Isabel, el desciframiento de
un mensaje codificado fue la base de la sentencia de muerte de María Estuardo.
Según muchos historiadores, uno de los cruces fundamentales de la Segunda
Guerra Mundial ocurrió cuando en 1942 los aliados derrotaron a Enigma, el
código secreto de los alemanes considerado "invencible ".
Hoy en día, como cualquiera que se mantenga informado sabe, la criptografía ya
no es un asunto de espías y militares. Al introducir la información de su tarjeta
de crédito en eBay o en el sitio web de Amazon, usted asume que la
comunicación está protegida. Pero las compañías de hackers y terroristas de la
información nos hacen darnos cuenta de que la seguridad del comercio, desde el
correo electrónico hasta la banca en línea, pende de un frágil hilo. El gobierno de
EE.UU. se toma en serio el problema, gastando miles de millones de dólares en
él.
La solución más inmediata es introducir una "clave" criptográfica que pueda ser
utilizada tanto por el emisor como por el receptor. La forma estándar de hacer
segura la información confidencial es esconderla en una larga lista de números
aleatorios. Pero sabemos que los espías, hackers y tipos extraños vestidos de
negro con un corazón de piedra y un buen conocimiento del mundo informático
son capaces de entender cómo distinguir la información del ruido.
Aquí es donde entra en juego la mecánica cuántica, que puede ofrecer a la
criptografía los servicios de su especial forma de aleatoriedad, tan extraña y
maravillosa que constituye una barrera infranqueable, y por si fuera poco, es
capaz de informar inmediatamente de cualquier intento de intrusión! Como la
historia de la criptografía está llena de códigos "impenetrables" que en cierto
punto son penetrados por una tecnología superior, está justificado si se toma esta
afirmación con la cantidad adecuada de escepticismo (el caso más famoso es el
ya mencionado de Enigma, la máquina que en la Segunda Guerra Mundial
encriptaba las transmisiones nazis y que se consideraba imbatible: los Aliados
lograron desencriptarla sin que el enemigo se diera cuenta).
Veamos un poco más en detalle cómo funciona la criptografía. La unidad
mínima de información que puede transmitirse es el bit, una abreviatura de
dígito binario, es decir, "número binario". Un poco es simplemente cero o uno.
Si por ejemplo lanzamos una moneda y decidimos que 0 representa la cabeza y 1
la cola, el resultado de cada lanzamiento es un bit y una serie de lanzamientos
puede escribirse de la siguiente manera: 1011000101110100101010111.
Esto es en lo que respecta a la física clásica. En el mundo cuántico hay un
equivalente del bit que ha sido bautizado como qubit (si piensas que tiene algo
que ver con el "codo", una unidad de medida tradicional que también aparece en
la Biblia, estás fuera del camino). También está dada por una variable que puede
asumir dos valores alternativos, en este caso el espín del electrón, igual a arriba o
abajo, que ocupan el lugar de 0 y 1 del bit clásico. Hasta ahora nada nuevo.
Pero un qubit es un estado cuántico, por lo que también puede existir tanto en
forma "mixta" como "pura". Un estado puro no se ve afectado por la
observación. Si medimos el espín de un electrón a lo largo del eje z, será
necesariamente hacia arriba o hacia abajo, dependiendo de su dirección. Si el
electrón se toma al azar, cada uno de estos valores puede presentarse con una
cierta probabilidad. Si, por el contrario, la partícula ha sido emitida de tal manera
que asume necesariamente un cierto spin, la medición sólo la registra sin
cambiar su estado.
En principio podemos, por lo tanto, transmitir la información en forma de código
binario utilizando una colección de electrones (o fotones) con un espín
predeterminado igual a arriba o abajo en el eje z; como todos ellos han sido
"puros", un detector orientado a lo largo del mismo eje los leerá sin perturbarlos.
Pero el eje z debe ser definido, no es una característica intrínseca del espacio.
Aquí, entonces, hay una información secreta que podemos enviar al destinatario
del mensaje: cómo se orienta el eje a lo largo del cual se mide el giro.
Si alguien intenta interceptar la señal con un detector no perfectamente paralelo
a nuestro z, con su medición perturba los estados electrónicos y por lo tanto
obtiene un conjunto de datos sin sentido (sin darse cuenta). Nuestros receptores
que leen el mensaje se dan cuenta en cambio de que algo ha interferido con los
electrones y por lo tanto que ha habido un intento de intrusión: sabemos que hay
un espía escuchando y podemos tomar contramedidas. Y viceversa, si el mensaje
llega sin problemas, podemos estar seguros de que la transmisión se ha realizado
de forma segura. El punto clave de la historia es que el intento de intrusión causa
cambios en el estado de los qubits, de los que tanto el emisor como el receptor
son conscientes.
La transmisión de los estados cuánticos también puede utilizarse para transmitir
con seguridad una "clave", es decir, un número muy grande generado
causalmente, que se utiliza para decodificar la información en ciertos sistemas de
comunicación cifrada. Gracias a los qubits, sabemos si la llave está segura o
comprometida y por lo tanto podemos tomar contramedidas. La criptografía
cuántica ha sido probada hasta ahora en mensajes transmitidos a unos pocos
kilómetros de distancia. Aún pasará algún tiempo antes de que pueda utilizarse
en la práctica, ya que esto requiere una gran inversión en la última generación de
láseres. Pero un día podremos hacer desaparecer para siempre la molestia de
tener que impugnar una compra cargada en nuestra tarjeta de crédito en algún
país lejano donde nunca antes habíamos estado.
Computadoras cuánticas
Sin embargo, hay una amenaza a la seguridad de la criptografía cuántica, y es la
computadora cuántica, el candidato número uno para convertirse en la
supercomputadora del siglo XXI. Según la ley empírica enunciada por Gordon
Moore, "el número de transistores en una ficha se duplica cada veinticuatro
meses "10. Como ha calculado algún bromista, si la tecnología automotriz
hubiera progresado al mismo ritmo que la informática en los últimos treinta
años, ahora tendríamos coches de sesenta gramos que cuestan cuarenta dólares,
con un maletero de un kilómetro cúbico y medio, que no consumen casi nada y
que alcanzan velocidades de hasta un millón y medio de kilómetros por hora11.
En el campo de la informática, hemos pasado de los tubos de vacío a los
transistores y circuitos integrados en menos tiempo que la vida humana. Sin
embargo, la física en la que se basan estas herramientas, incluyendo las mejores
disponibles hoy en día, es clásica. Usando la mecánica cuántica, en teoría,
deberíamos construir nuevas e incluso más poderosas máquinas. Aún no han
aparecido en la oficina de diseño de IBM o en los planes de negocio de las
empresas más audaces de Silicon Valley (al menos hasta donde sabemos), pero
los ordenadores cuánticos harían que el más rápido de los clásicos pareciera
poco más que un ábaco en las manos de una persona mutilada.
La teoría de la computación cuántica hace uso de los ya mencionados qubits y
adapta a la física no clásica la teoría clásica de la información. Los conceptos
fundamentales de esta nueva ciencia fueron establecidos por Richard Feynman y
otros a principios de la década de 1980 y recibieron un impulso decisivo por la
obra de David Deutsch en 1985. Hoy en día es una disciplina en expansión. La
piedra angular ha sido el diseño de "puertas lógicas" (equivalentes informáticos
de los interruptores) que explotan la interferencia y el enredo cuántico para crear
una forma potencialmente mucho más rápida de hacer ciertos cálculos12
La interferencia, explicada por experimentos de doble rendija, es uno de los
fenómenos más extraños del mundo cuántico. Sabemos que sólo dos rendijas en
una pantalla cambian el comportamiento de un fotón que pasa a través de ella de
una manera extraña. La explicación que da la nueva física pone en duda las
amplitudes de probabilidad de los diversos caminos que la partícula puede
seguir, que, si se suman adecuadamente, dan la probabilidad de que termine en
una determinada región del detector. Si en lugar de dos rendijas hubiera mil, el
principio básico no cambiaría y para calcular la probabilidad de que la luz llegue
a tal o cual punto deberíamos tener en cuenta todos los caminos posibles. La
complejidad de la situación aumenta aún más si tomamos dos fotones y no sólo
uno, cada uno de los cuales tiene miles de opciones, lo que eleva el número de
estados totales al orden de los millones. Con tres fotones los estados se
convierten en el orden de los billones, y así sucesivamente. La complejidad
aumenta exponencialmente a medida que aumenta la entrada.
El resultado final es quizás muy simple y predecible, pero hacer todas estas
cuentas es muy poco práctico, con una calculadora clásica. La gran idea de
Feynman fue proponer una calculadora analógica que explotara la física
cuántica: usemos fotones reales y realicemos el experimento, dejando que la
naturaleza complete ese monstruoso cálculo de forma rápida y eficiente. El
ordenador cuántico ideal debería ser capaz de elegir por sí mismo el tipo de
mediciones y experimentos que corresponden al cálculo requerido, y al final de
las operaciones traducir el resultado físico en el resultado numérico. Todo esto
implica el uso de una versión ligeramente más complicada del sistema de doble
rendija.
Los increíbles ordenadores del futuro
Para darnos una idea de lo poderosas que son estas técnicas de cálculo, tomemos
un ejemplo simple y comparemos una situación clásica con la correspondiente
situación cuántica. Partamos de un "registro de 3 bits", es decir, un dispositivo
que en cada instante es capaz de asumir una de estas ocho configuraciones
posibles: 000, 001, 010, 011, 100, 101, 110, 111, correspondientes a los números
0, 1, 2, 3, 4, 5, 6, 7. Un ordenador clásico registra esta información con tres
interruptores que pueden estar abiertos (valor 0) o cerrados (valor 1). Es fácil ver
por analogía que un registro de 4 bits puede codificar dieciséis números, y así
sucesivamente.
Sin embargo, si el registro no es un sistema mecánico o electrónico sino un
átomo, puede existir en un estado mixto, superponiendo el fundamental (que
hacemos corresponder a 0) y el excitado (igual a 1). En otras palabras, es un
qubit. Por lo tanto, un registro de 3 qubits expresa ocho números al mismo
tiempo, un registro de 4 qubits expresa dieciséis y en general un registro de N
qubits contiene 2N.
En los ordenadores clásicos, el bit suele venir dado por la carga eléctrica de un
pequeño condensador, que puede estar cargado (1) o no cargado (0). Ajustando
el flujo de corriente podemos cambiar el valor del bit. En los ordenadores
cuánticos, en cambio, para cambiar un qubit utilizamos un rayo de luz para
poner el átomo en un estado excitado o fundamental. Esto implica que en cada
instante, en cada paso del cálculo, el qubit puede asumir los valores 0 y 1 al
mismo tiempo. Estamos comenzando a realizar un gran potencial.
Con un qubit de 10 registros podemos representar en cada instante todos los
primeros 1024 números. Con dos de ellos, acoplados de forma coincidente,
podemos asegurarnos de tener una tabla de 1024 × 1024 multiplicaciones. Una
computadora tradicional, aunque muy rápida, debería realizar en secuencia más
de un millón de cálculos para obtener todos esos datos, mientras que una
computadora cuántica es capaz de explorar todas las posibilidades
simultáneamente y llegar al resultado correcto en un solo paso, sin esfuerzo.
Esta y otras consideraciones teóricas han llevado a la creencia de que, en algunos
casos, una computadora cuántica resolvería un problema en un año que la más
rápida de las máquinas clásicas no terminaría antes de unos pocos miles de
millones de años. Su poder proviene de la capacidad de operar simultáneamente
en todos los estados y de realizar muchos cálculos en paralelo en una sola unidad
operativa. Pero hay un pero (suspenso: aquí cabría también el Sprach Zarathustra
de Richard Strauss). Antes de invertir todos sus ahorros en una puesta en marcha
de Cupertino, debe saber que varios expertos son escépticos sobre las
aplicaciones informáticas cuánticas (aunque todos están de acuerdo en que los
debates teóricos sobre el tema son valiosos para comprender ciertos fenómenos
cuánticos fundamentales).
Es cierto que algunos problemas importantes pueden ser resueltos de muy buena
manera, pero seguimos hablando de máquinas muy diferentes, diseñadas para
situaciones muy específicas, que difícilmente sustituirán a las actuales. El mundo
clásico es otro tipo de mundo, por lo que no llevamos la máquina rota a la
mecánica cuántica. Una de las mayores dificultades es que estos dispositivos son
muy sensibles a las interferencias con el mundo exterior: si un solo rayo cósmico
hace un estado de cambio de qubits, todo el cálculo se va al infierno. También
son máquinas analógicas, diseñadas para simular un cálculo particular con un
proceso particular, y por lo tanto carecen de la universalidad típica de nuestros
ordenadores, en los que se ejecutan programas de varios tipos que nos hacen
calcular todo lo que queremos. También es muy difícil construirlos en la
práctica. Para que los ordenadores cuánticos se hagan realidad y para que valga
la pena invertir tiempo y dinero en ellos, tendremos que resolver complejos
problemas de fiabilidad y encontrar algoritmos utilizables.
Uno de estos algoritmos potencialmente efectivos es la factorización de grandes
números (en el sentido de descomponerlos en factores primos, como 21=3×7).
Desde el punto de vista clásico, es relativamente fácil multiplicar los números
entre sí, pero en general es muy difícil hacer la operación inversa, es decir,
encontrar los factores de un coloso como:
3 204 637 196 245 567 128 917 346 493 902 297 904 681 379
Este problema tiene importantes aplicaciones en el campo de la criptografía y es
candidato a ser la punta de lanza de la computación cuántica, porque no es
solucionable con las calculadoras clásicas.
Mencionemos también la extraña teoría del matemático inglés Roger Penrose
que concierne a nuestra conciencia. Un ser humano es capaz de realizar ciertos
tipos de cálculos a la velocidad del rayo, como una calculadora, pero lo hace con
métodos muy diferentes. Cuando jugamos al ajedrez contra una computadora,
por ejemplo, asimilamos una gran cantidad de datos sensoriales y los integramos
rápidamente con la experiencia para contrarrestar una máquina que funciona de
manera algorítmica y sistemática. La computadora siempre da resultados
correctos, el cerebro humano a veces no: somos eficientes pero inexactos.
Hemos sacrificado la precisión para aumentar la velocidad.
Según Penrose, la sensación de ser consciente es la suma coherente de muchas
posibilidades, es decir, es un fenómeno cuántico. Por lo tanto, según él, somos a
todos los efectos computadoras cuánticas. Las funciones de onda que usamos
para producir resultados a nivel computacional están quizás distribuidas no sólo
en el cerebro sino en todo el cuerpo. En su ensayo "Sombras de la mente",
Penrose tiene la hipótesis de que las funciones de onda de la conciencia residen
en los misteriosos microtúbulos de las neuronas. Interesante, por decir lo menos,
pero todavía falta una verdadera teoría de la conciencia.
Sea como fuere, la computación cuántica podría encontrar su razón de ser
arrojando luz sobre el papel de la información en la física básica. Tal vez
tengamos éxito tanto en la construcción de nuevas y poderosas máquinas como
en alcanzar una nueva forma de entender el mundo cuántico, tal vez más en
sintonía con nuestras percepciones cambiantes, menos extrañas, fantasmales,
perturbadoras. Si esto realmente sucede, será uno de los raros momentos en la
historia de la ciencia en que otra disciplina (en este caso la teoría de la
información, o tal vez de la conciencia) se fusiona con la física para arrojar luz
sobre su estructura básica.
Gran final
Concluyamos nuestra historia resumiendo las muchas preguntas filosóficas que
esperan respuesta: ¿cómo puede la luz ser tanto una partícula como una onda?
¿hay muchos mundos o sólo uno? ¿hay un código secreto verdaderamente
impenetrable? ¿qué es la realidad a nivel fundamental? ¿están las leyes de la
física reguladas por muchos lanzamientos de dados? ¿tienen sentido estas
preguntas? la respuesta es quizás "tenemos que acostumbrarnos a estas rarezas"?
¿dónde y cuándo tendrá lugar el próximo gran salto científico?
Empezamos con el golpe fatal de Galileo a la física aristotélica. Hemos entrado
en la armonía de relojería del universo clásico de Newton, con sus leyes
deterministas. Podríamos habernos detenido allí, en un sentido real y metafórico,
en esa reconfortante realidad (aunque sin teléfonos móviles). Pero no lo hicimos.
Hemos penetrado en los misterios de la electricidad y el magnetismo, fuerzas
que sólo en el siglo XIX se unieron y tejieron en el tejido de la física clásica,
gracias a Faraday y Maxwell. Nuestros conocimientos parecían entonces tan
completos que a finales de siglo hubo quienes predijeron el fin de la física.
Todos los problemas que valía la pena resolver parecían estar resueltos: bastaba
con añadir algunos detalles, que sin duda entrarían en el marco de las teorías
clásicas. Al final de la línea, abajo vamos; los físicos pueden abrigarse e irse a
casa.
Pero todavía había algún fenómeno incomprensible aquí y allá. Las brasas
ardientes son rojas, mientras que según los cálculos deberían ser azules. ¿Y por
qué no hay rastros de éter? ¿Por qué no podemos ir más rápido que un rayo de
luz? Tal vez la última palabra no se ha dicho todavía. Pronto, el universo sería
revolucionado por una nueva y extraordinaria generación de científicos:
Einstein, Bohr, Schrödinger, Heisenberg, Pauli, Dirac y otros, todos entusiastas
de la idea.
Por supuesto, la vieja y querida mecánica newtoniana sigue funcionando bien en
muchos casos, como el movimiento de los planetas, cohetes, bolas y máquinas
de vapor. Incluso en el siglo veintisiete, una bola lanzada al aire seguirá la
elegante parábola clásica. Pero después de 1900, o más bien 1920, o mejor aún
1930, aquellos que quieren saber cómo funciona realmente el mundo atómico y
subatómico se ven obligados a cambiar de idea y entrar en el reino de la física
cuántica y su intrínseca naturaleza probabilística. Un reino que Einstein nunca
aceptó completamente.
Sabemos que el viaje no ha sido fácil. El omnipresente experimento de la doble
rendija puede causar migrañas. Pero fue sólo el comienzo, porque después
vinieron las vertiginosas alturas de la función de onda de Schrödinger, la
incertidumbre de Heisenberg y la interpretación de Copenhague, así como varias
teorías perturbadoras. Nos encontramos con gatos vivos y muertos al mismo
tiempo, rayos de luz que se comportan como ondas y partículas, sistemas físicos
vinculados al observador, debates sobre el papel de Dios como el jugador de
dados supremo... Y cuando todo parecía tener sentido, aquí vienen otros
rompecabezas: el principio de exclusión de Pauli, la paradoja EPR, el teorema de
Bell. No es material para conversaciones agradables en fiestas, incluso para
adeptos de la Nueva Era que a menudo formulan una versión equivocada de la
misma. Pero nos hemos hecho fuertes y no nos hemos rendido, incluso ante
alguna ecuación inevitable.
Fuimos aventureros y le dimos al público ideas tan extrañas que podían ser
títulos de episodios de Star Trek: "Muchos mundos", "Copenhague" (que en
realidad también es una obra de teatro), "Las cuerdas y la teoría M", "El paisaje
cósmico" y así sucesivamente. Esperamos que hayan disfrutado del viaje y que
ahora, como nosotros, tengan una idea de lo maravilloso y profundamente
misterioso que es nuestro mundo.
En el nuevo siglo se avecina el problema de la conciencia humana. Tal vez
pueda explicarse por los estados cuánticos. Aunque no son pocos los que piensan
así, no es necesariamente así - si dos fenómenos son desconocidos para nosotros,
no están necesariamente conectados.
La mente humana juega un papel en la mecánica cuántica, como recordarán, es
decir, cuando la medición entra en juego. El observador (su mente) interfiere con
el sistema, lo que podría implicar un papel de la conciencia en el mundo físico.
¿La dualidad mente-cuerpo tiene algo que ver con la mecánica cuántica? A pesar
de todo lo que hemos descubierto recientemente sobre cómo el cerebro codifica
y manipula la información para controlar nuestro comportamiento, sigue siendo
un gran misterio: ¿cómo es posible que estas acciones neuroquímicas conduzcan
al "yo", a la "vida interior"? ¿Cómo se genera la sensación de ser quienes
somos?
No faltan críticos de esta correlación entre lo cuántico y la mente, entre ellos el
descubridor de ADN Francis Crick, quien en su ensayo Science and the Soul
escribe: "El yo, mis alegrías y tristezas, mis recuerdos y ambiciones, mi sentido
de la identidad personal y el libre albedrío, no son más que el resultado de la
actividad de un número colosal de neuronas y neurotransmisores".
Esperamos que este sea sólo el comienzo de su viaje y que continúe explorando
las maravillas y aparentes paradojas de nuestro universo cuántico.

También podría gustarte