Acelerador de Partículas2

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 35

c 

 

Estas enormes máquinas aceleran partículas cargadas (iones)
mediante campos electromagnéticos en un tubo hueco en el que se
ha hecho el vacío, y finalmente hacen colisionar cada ion con un
blanco estacionario u otra partícula en movimiento. Los científicos
analizan los resultados de las colisiones e intentan determinar las
interacciones que rigen el mundo subatómico. (Generalmente, el
punto de colisión está situado en una cámara de burbujas, un
dispositivo que permite observar las trayectorias de partículas
ionizantes como líneas de minúsculas burbujas en una cámara llena
de líquido.)

Las trayectorias de las partículas aceleradas pueden ser rectas,


espirales o circulares. Tanto el ciclotrón como el sincrotrón utilizan
un campo magnético para controlar las trayectorias de las
partículas. Aunque hacer colisionar las partículas unas contra otras
puede parecer inicialmente un método un tanto extraño para
estudiarlas, los aceleradores de partículas han permitido a los
científicos aprender más sobre el mundo subatómico que ningún
otro dispositivo.

El primer acelerador circular se llamó: ciclotrón. El físico


estadounidense Ernest O. Lawrence fue galardonado con el Premio
Nobel de Física en 1939 por el invento y desarrollo del ciclotrón, un
dispositivo para acelerar partículas subatómicas. Lawrence
desarrolló el ciclotrón, el primer acelerador circular. Es una especie
de acelerador lineal arrollado en una espiral. En vez de tener
muchos tubos, la máquina sólo tiene dos cámaras de vacío huecas,
llamadas des, cuya forma es la de dos D mayúsculas opuestas
entre sí.

Un campo magnético producido por un potente electroimán hace


que las partículas se muevan en una trayectoria curva. Las
partículas cargadas se aceleran cada vez que atraviesan el hueco
entre las des. A medida que las partículas acumulan energía, se
mueven en espiral hacia el borde externo del acelerador, por donde
acaban saliendo.
Vegún la fórmula de Einstein E = mc² la masa es un tipo de energía.
Esto significa que la energía puede transformarse en masa y
viceversa. En los aceleradores de partículas ésto es utilizado para
transformar energía cinética en masa, en una colisión de partículas.
De este modo, nuevas partículas pueden ser creadas en las
colisiones de partículas con altas velocidades relativas. En la
búsqueda de nuevas partículas pesadas es importante ser capaz de
acelerar partículas a altas energías. A mayor energía de las
partículas originales, partículas más pesadas pueden ser creadas
en las colisiones de partículas.

Primeros pasos y avances«

Organización Europea para la Investigación


Nuclear, institución europea de investigación cuya sede se
encuentra en la ciudad suiza de Meyrin (situada en las
proximidades de Ginebra, en la frontera entre Francia y Vuiza). Es
más conocida por las siglas CERN, correspondientes al nombre con
que fue fundada en 1954: Conseil Européen pour la Recherche
Nucléaire (Consejo Europeo para la Investigación Nuclear).

En el CERN se han construido aceleradores desde los 1950. Hoy


existe un gran sistema de aceleradores lineales y circulares.
Algunos de los aceleradores más antiguos se usan aún para iniciar
la aceleración de partículas antes de ser enviadas a los
aceleradores más largos. El sistema de aceleradores del CERN
puede acelerar electrones, positrones, protones y diferentes tipos
de iones.

El 14 de julio de 1989, aniversario de la toma de la Bastilla toda


Francia celebró el bicentenario del comienzo de la Revolución. A las
16.30 del mismo día, los físicos del CERN, centro internacional de
investigación sobre física de las partículas situado en Ginebra,
celebraban la entrada en funcionamiento del LEE (Large Electron
Positron Collider), la mayor máquina científica construida hasta
entonces.
Alojado en un túnel circular de unos 27km de diámetro (casi todo
bajo territorio francés), el LEE es un acelerador que provoca
colisiones de partículas a muy alta velocidad, para conseguir
elevadísimas energías. Es capaz de crear las condiciones que
reinaban una fracción de segundo después de la gran explosión
que supuestamente dio origen al universo, así como de provocar la
formación de partículas y determinar efectos que no se han
producido desde entonces.

En especial, los físicos esperaban crear partículas Z, cuya


existencia había sido predicha en los años 60, en el marco de la
teoría que unifica el electromagnetismo con la fuerza nuclear débil.
Las partículas Z, portadoras de esta fuerza débil, se observaron por
primera vez a mediados de agosto de aquel año y la evaluación de
los primeros resultados estaba lista para fines de octubre.

El LEE fue la culminación de casi diez años de planificación y


construcción, a un coste situado en torno a los 80.000 millones de
pesetas. En el momento en que el LEE entraba en funcionamiento,
Estados Unidos proyectaba construir en Texas una máquina
todavía más gigantesca, el Vuperconducting Vupercollider (VVC),
con una circunferencia de 84 Km. y un coste estimado de más de
100.000 millones de pesetas. Vin embargo, si llegara a hacerse
realidad, este proyecto podría constituir fácilmente el fin del
recorrido en este sentido, ya que los físicos están dirigiendo
actualmente su atención a nuevas tecnicas con máquinas lineales
en lugar de circulares.

El CERN, fundado en 1953, fue desde el comienzo una empresa


cooperativa con la participación de 14 países europeos. Físicos de
otros paises, entre ellos la Union Voviética, Japón y Estados
Unidos, han participado posteriormente en sus programas de
investigación. Fue uno de los indicios de un nuevo movimiento
paneuropeo, reflejado también en las esferas económica y política.
Europa no carecía de talentos científicos, como lo demuestra el
éxito continuado en la obtención del premio Nobel, pero en muchos
campos los países individuales no podían en modo alguno competir
con Estados Unidos.
No era sólo un problema financiero sino de disponibilidad de
personal científico cualificado. Ante la falta de oportunidades en sus
países, los científicos europeos. Y En el Fermillab, en Ill inois (EE
UU), una carretera marca los 6km de circunferencia del anillo
subterráneo del acelerador de partículas del laboratorio. En 1913, el
Fermllab perfeccionó sus instalaciones Instalando Imanes
superconductores yen 1990 producía todavía los rayes de protones
mas energéticos del mundo.

a   El acelerador LEP estuvo operativo entre 1989 y 1195.


Entonces fue desmantelado para dar espacio para un nuevo
acelerador en el mismo túnel. El nombre del nuevo acelerador es
Gran Colisionador Hadrónico, LHC. LHC, al contrario de LEP,
colisionará haces consistentes en protones. Las colisiones, mucho
más energéticas,14 TeV, serán posibles reemplazando los
electrones y positrones de LEP por protones.

El proceso es sencillo, ya que se tienen las partículas cargadas, se


les inyecta a un tubo donde el vacío sea enorme para que no haya
moléculas que puedan frenarlas.

Ve trabajan con presiones de 0,000000001 milibares, y la presión


atmosférica es de 1013 milibares.

El primer paso es entender que para acelerar partículas hay que


valerse de alguna fuerza que les haga aumentar su velocidad
gradualmente. Una posible es la fuerza de atracción o repulsión que
se produce entre partículas de distinta o igual carga
respectivamente (siendo la carga una propiedad propia de cada
partícula) y que se conoce como fuerza eléctromagnética. el
siguiente paso es conseguir las partículas, esto puede ser más o
menos sencillo o no según la partícula que se quiera acelerar. Vi se
trata de electrones (de carga negativa), es posible obtenerlos
calentando un alambre muy delgado (como el filamento de una
lamparita eléctrica, por ejemplo) o en el caso de protones (de carga
positiva) habrá que arreglárselas para obtenerlos a partir del
hidrógeno, formado por un núcleo de un protón y un electrón asu
alrededor.

En la actualidad es sencillo arrancar el electrón del hidrógeno para


obtener un protón con carga positiva y acelerarlo haciéndolo
moverse dentro de un tubo vacío, en donde en un extremo hay una
placa metálica positiva y en el otro una negativa. De esta forma el
protón se acelerará hacia la placa negativa. Es muy importante que
el tubo esté muy vacío, lo que implica que haya la menor cantidad
posible de aire u otro gas o polvo dentro del mismo de manera que
el protón en su camino no se encuentre con ninguna otra molécula,
átomo o partícula que interfiera con su trayectoria. Un acelerador de
partículas presente en casi todos los hogares del mundo, es el
televisor. Dentro del tubo de vidrio que termina en la pantalla, se
aceleran electrones y al incidir en la misma la hacen brillar, pero por
su baja energía se quedan allí dentro. La pantalla en este caso
funciona como un detector de electrones, mostrando la posición
donde incide el haz de partículas.
En el caso de los aceleradores de partículas para estudiar las
propiedades de la materia la tecnología e infraestructura utilizada
resulta más sofisticada cuanto mayor sea la energía que se quiera
lograr. De hecho los aceleradores suelen clasificarse por la energía
de los haces de partículas que pueden generar y esta se mide en
una unidad especial denominada ³electronvolt´ (eV), que representa
la energía que puede ganar un electrón si se mueve de la carcasa
negativa hacia la positiva de una pila de 1 Volt. En los aceleradores
las energías son muy superiores por lo que se trabaja con
magnitudes como el Mega- electronvolt (MeV, 1.000.000 eV) el
Giga-eV (109 eV), o el Tera-eV (1012 eV).

Entonces el proceso es el siguiente: una vez que se tienen las


partículas cargadas, protones por ejemplo, se las inyecta en un tubo
donde el vacío logrado sea enorme para que no haya moléculas o
átomos que puedan frenarlas (se trabaja con presiones de
0,000000001 milibares, considerar que la presión atmosférica típica
es de 1013 milibares), y con un complejo sistema de huecos entre
placas a distintos voltajes los protones van ganando energía a
medida que pasan de hueco en hueco. En algunos casos el tubo de
aceleración es recto, como por ejemplo el acelerador lineal de iones
TANDAR de la Comisión Nacional de Energía Atómica (Argentina)
con un tubo de aceleración de 36 m de largo dentro de un edificio
de 64 m de altura (uno de los más grandes en su tipo), que puede
acelerar protones hasta 30 MeV de energía. Pero sucede que si se
quiere aumentar mucho la energía de los protones con
aceleradores lineales es necesario construirlos cada vez más
largos, puesto que las partículas necesitan recorrer grandes
distancias si se quiere acelerarlas a energías mayores (GeV o TeV),
impracticable con este tipo de aceleradores. Es por eso que hasta
la invención del ciclotrón, un acelerador que hacía recorrer grandes
distancias a la partículas en una trayectoria espiral.
Para que las partículas cargadas se muevan en círculo es
necesario curvar su recorrido con imanes potentes que generen lo
que se conoce como campo magnético intenso, pero a medida que
las partículas ganan energía su radio de giro es cada vez mayor.
Esta característica también limita la construcción de grandes
ciclotrones, pues los imanes que deben usarse son discos cada vez
mayores (¡en 1940 se construyó uno cuyo imán solamente pesaba
10.000 toneladas!). La solución llegó con el invento del sincrotrón:
este tipo de aceleradores confina la trayectoria de las partículas
dentro de un tubo circular (o toroide) de radio constante utilizando
electroimanes capaces de aumentar su campo magnético a medida
que la energía de las partículas aumenta, y así obligarlas a seguir
dentro del tubo.

Para poder generar colisiones entre protones con la suficiente


energía para descubrir si existe o no, la ³partícula divina´ o bosón
de Higgs como se la denominó en honor de su inventor (Peter
Higgs), el LHC aprovechará la colisión de protones viajando en
sentidos opuestos a través de dos cavidades circulares paralelas
que recorren el anillo mayor, logrando con esta técnica duplicar la
energía de la colisión a 14 TeV. Aunque en electrónvolts es una
cantidad inmensa pensada en un solo protón (cuya masa es
realmente pequeña), se necesitarían 10.000 más de TeV para
poder igualar la energía liberada al encender un fósforo. Vin
embargo en este último proceso se ven involucrados 1021 átomos,
desordenados en sus movimientos y es improbable que se
produzca alguna colisión entre ellos. En el LHC, en cambio la
energía se le otorga a cada protón y al lograr colisiones de 14 TeV
entre dos protones se tiene una muestra (muy pero muy pequeña)
de lo que podría suceder si se contara con billones y billones de
protones a aproximadamente 140.000 billones de grados
centígrados. Además, con estas energías, se acercarán
tantomutuamente que a una escala ultramicroscópica se
reproducirán las condiciones que existieron hace 13 ,7 billones de
años cuando nuestro Universo comenzaba a formarse.
DATOV DEL "GRAN COLIVIONADOR DE HADRONEV"
Inicio de la construcción 1994
Construido por: CERN
Ubicación: Frontera Vuiza-Francesa
Costo 6200 millones de euros
Científicos Comprometidos 10.000 científicos de 500 Universidades
Científicos Argentinos Ocho
Países Que Intervienen Cuarenta
Dimensiones 27 Km. de Diámetro
Profundidad Entre 50 y 125 metros
Temperatura de Trabajo 272 Bajo Cero °C
Aceleración Conseguida 99,9999999 de la Velocidad de la luz
Campo Magnético Logrado 100.000 veces el de la Tierra

Objetivos:

Descubrir qué es realmente la masa.

Descubrir qué es la materia oscura (que ocupa más del 95% de la


masa del Universo)

Descubrir cuántas son las partículas totales del átomo.

Descubrir la existencia o no de las partículas supersimétricas

Descubrir por qué no hay más antimateria.

Descubrir cómo era la materia durante los primeros segundos que


siguieron al Big Bang.

a  a


A una velocidad muy cercana a la de la luz, dos conjuntos de


protones circulan en sentido inverso: cuando chocan, se generan,
brevemente, partículas enormes. La última que así se descubrió, en
el Fermi, en 1995, llamada quark top, tiene 174 veces la masa de
un protón. Esas partículas, que ya no existen en la Tierra, existieron
en el Universo, en las milésimas de segundo posteriores al Big
Bang; las altísimas energías de aquellos instantes son reproducidas
por el Colisionador. Así, investigar estas partículas fugaces equivale
a investigar los primeros instantes del Universo.
Pero el propósito no es tanto saber qué pasó entonces, sino saber
qué pasa ahora: poner a prueba las teorías básicas de la física.
Entre aquellas partículas, interesa especialmente una, llamada
bosón de Higgs, que tendría entre 130 y 200 veces la masa de un
protón: su existencia es requerida por el ³modelo estándar´, que, de
las cuatro fuerzas consideradas fundamentales en la naturaleza ±el
electromagnetismo, la gravedad y, en el interior de los átomos, las
fuerzas ³fuerte´ y ³débil´±, explica todas menos la gravedad.

Antes de explicarte nada, decirte que en mecácnica cuántica, las


interacciones son provocadas por el intercambio de partículas.

La fuerza electromagnética es el intercambio de fotones, la fuerza


gravitatoria (se supone) que es el intercambio de gravitones, ...
Pues bien, Higgs se sacó de la manga un nuevo campo de Higgs.
Esa interacción estaría producida por el intercambio de una
partícula llamada bosón de Higgs.

El bosón es un tipo de partícula con spin entero (0, 1, 2, ...) a


diferencia de los fermiones que tienen spin fraccionario (1/2, 3/2,
...). Los electrones, protones, neutrones, ... todos son fermiones.
Bosones son los fotones, bosones W y Z (que transmiten la fuerza
débil), gluones (que transmiten la fuerza fuerte), gravitones (que se
supone que transmiten la gravedad) ...

El bosón de Higgs es una partícula que se supone que es la que


confiere masa al resto de partículas. ¿Cómo puede ser posible
esto?

Verás, antes que nada decirte que la masa es la resistencia de un


cuerpo a ser movido. Una masa grande implica una resistencia al
movimiento grande.

Cuando un electrón se mueve por un material, ese electrón es


atraido por los iones positivos que forman el material. Eso hace que
la masa efectiva del electrón aumente hasta incluso 40 veces la
masa que tendría en electrón en el vacío. Esa masa se llama
"efectiva" porque no es un aumento de masa real, sino que la
partícula parece que tiene más masa.

Vi aplicas un campo eléctrico, verás que tienes que aplicar un


campo más grande para mover al electrón que está dentro de la red
del que está en el vacío.

Pues bien, Higgs tomó esta idea para su campo. Ve supone que las
partículas se mueven por un campo llamado "campo de Higgs". La
interacción de las partículas con ese campo hace que estas tengan
resistencia a ser movidas (y por tanto les confiere la masa).

Es decir que, segun Higgs, la interacción de la partículas con el


bosón que Higgs (que es la partícula que transporta el campo de
Higgs) es lo que da masa a las partículas. Incluso el bosón de
Higgs tiene masa debido a las interacciones de esos bosones entre
ellos.

Esto podría ser una idea extravagante si no fuera porque la


existencia de ese bosón explicaría una cosa que es la rotura de
simetría entre el campo electromagnético y el nuclear débil. Es
decir, porqué son distintos y en definitiva es porque los fotones no
tienen masa y los bosones W y Z (que son los responsables de
transmitir la interacción débil) sí la tienen.

Por eso se toma en serio el bosón de Higgs, y no porque sea una


posible explicación a la masa.

De cualquier forma, existen al menos otras 3 teorías que explicarían


la rotura de simetría. Así que por ahora el bosón de Higgs es
símplemente una teoría más.

De hecho aún no se ha podido ver el bosón de Higgs nunca en


ningún experimento. Ve supone que el superacelerador LHC que se
está construyendo se podrían realizar experimentos que lo
detectasen, pero por ahora sólo es una partícula teórica sin
corroborar su existencia.

V      

La materia está constituida por un reducido número de las


denominadas partículas elementales, cuyas propiedades pueden
explicar la mayor parte de los fenómenos físicos que aquélla
experimenta.

Las primeras partículas elementales halladas por el hombre fueron


las moléculas que integran los distintos compuestos químicos
existentes en la naturaleza. Después se descubrió que más
elementales aún que las moléculas son los átomos que las
constituyen, a su vez compuestos por un núcleo y unas partículas
cargadas negativamente, los electrones, que se mueven en torno a
él. Más adelante las investigaciones revelaron que el núcleo de los
átomos está formado por dos tipos de partículas. los neutrones, que
no poseen carga, y los protones, de carga positiva.

Vi bien hasta hace relativamente poco se pensó que protones y


neutrones eran las partículas más pequeñas de la naturaleza,
desde 1933 se han descubierto más de 200 partículas diferentes,
todavía más elementales, más simples y de tamaño más reducido
que el protón, el neutrón y el electrón. Cada una de ellas, distintas
entre si, está compuesta por cuatro subpartícutas básicas,
denominadas quarks.

Actualmente, se sabe que ni los átomos, ni los electrones, ni los


protones ni los neutrones son indivisibles. La duda está en
identificar cuáles son las verdaderas partículas elementales. Dado
que la longitud de onda de la luz es mucho mayor que el tamaño de
un átomo, no es posible emplear la luz como instrumento para ver
las partes que lo constituyen.

Las partículas elementales

Mediante la dualidad onda-partícula de la luz se puede describir


todo en el Universo en términos de partículas; éstas poseen una
propiedad, llamada espín, que establece su dirección. Todas las
partículas se pueden dividir en dos grupos: las que poseen espín
1/2, que constituyen la materia, y las de espín 0, 1 y 2, que dan
lugar a las fuerzas entre partículas materiales.

La teoría formulada por Dirac, en 1928, estableció a relación entre


la mecánica cuántica y la relatividad propuesta por Einstein. Dirac
explicó matemáticamente la razón por la cual el electrón posee
espín 1/2, y predijo, además, que el electrón debía tener una pareja
o antipartícula, el positrón. El descubrimiento del positrón, en 1932,
motivó la concesión del premio Nobel al científico..

         

En mecánica cuántica las partículas experimentan fuerzas de
interacción entre ellas. Cada partícula elemental, como un electrón
o un quark, emite una partícula portadora de fuerza, que colisiona
con otra partícula material y es absorbida por ella. Vi en la emisión
de la partícula portadora de fuerza la partícula material que la emite
cambia de velocidad por el retroceso experimentado en la emisión,
también la partícula que la absorbe ve modificada su velocidad.
Dado que las partículas portadoras de fuerza no obedecen al
principio de exclusión de Pauli, puede existir un número enorme de
partículas intercambiables, con lo que se podrían producir una serie
de fuerzas de interacción muy potentes.
Vegún la intensidad de la fuerza y del tipo de partículas implicadas,
cabe distinguir cuatro tipos:

    
 
Es la fuerza experimentada por las partículas y, en general, por
todos los cuerpos, por el simple hecho de poseer masa o energía.
Es la más débil de las cuatro y se caracteriza por su gran alcance y
porque siempre es atractiva. En mecánica cuántica se repr esenta
por una partícula de espín 2, que se llama gravitrón, y que no posee
masa propia. Así, por ejemplo, la fuerza gravitatoria entre la Tierra y
el Vol se entiende como un intercambio de gravitrones entre los dos
cuerpos, más concretamente entre las partículas que los forman.

    
 
Es la experimentada por las partículas cargadas eléctricamente y
resulta muchísimo más intensa que la gravitatoria. Como la fuerza
eléctrica entre dos cuerpos se traduce en mecánica cuántica en la
atracción o repulsión entre las partículas que los componen, en
general se anulan las fuerzas atractivas con las repulsivas, y el
efecto es un cuerpo en estado neutro. Vi no se anulan por
completo, casi llegan a hacerlo, por lo que el resultado es una
fuerza electromagnética neta muy débil. No obstante, dominan a
distancias muy pequeñas, como es el caso de los átomos y
moléculas.
La fuerza de atracción eléctrica entre los protones del núcleo y los
electrones de la corteza hace que éstos giren describiendo órbitas
alrededor del núcleo del átomo.
El fotón es la partícula elemental que representa este tipo de fuerza,
que se entiende como un intercambio de esta clase de partículas.

     
Es la que mantiene unidos a los quarks en el protón y el neutrón, y
a éstos en el núcleo del átomo. Ve piensa que es transmitida por
otra partícula, llamada gluón, que sólo interacciona con los quarks y
consigo misma. Para energías normales esta fuerza es muy
inténsa, pero a altas energías se debilita, de manera que los quarks
y los gluones se comportan como partículas casi libres.
   
Es la causante de la radiactividad, y actúa sobre todas las
partículas materiales de espín 1/2, pero no sobre los fotones o los
gravitrones, es decir, partículas de espín 0, 1 y 2.
En 1967 Valam y Weimberg propusieron una teoría para unificar
esta fuerza con la electromagnética, y sugirieron la existencia de
otras tres partículas de espín 1 además del fotón: los denominados
bosones. Vegún esta hipótesis, para grandes energías (superiores
a 100 GeV) los tres bosones y el fotón se comportarían de forma
similar1 pero a energías más bajas los bosones adquirirían una
gran masa y la fuerza que transmitirían sería de corto alcance. Esta
teoría fue comprobada y ratificada más tarde, cuando se
construyeron potentes aceleradores de partículas, capaces de
alcanzar energías tan grandes. Las tres partículas compañeras del
fotón fueron definitivamente identificadas en 1983, en el Centro
Europeo para la Investigación Nuclear (CERN).

   
En la actualidad, se sabe que para cada tipo de partícula existen
también antipartículas, y que si interacciona una partícula con su
correspondiente antipartícula pueden aniquilarse. Pero no existe el
mismo número de unas que de otras; en realidad, en condiciones
normales no hay antiprotones ni antineutrones, éstos sólo se
producen en los grandes aceleradores de partículas. Tampoco en el
espacio hay más que unos pocos antiprotones y antineutrones en
comparación con la cantidad de protones y neutrones existentes.
Vi existiera una gran cantidad de antimateria en comparación con la
materia, se producirían múltiples colisiones en el espacio, que
provocarían la emisión de una gran cantidad de radiación; así, las
partículas se aniquilarían con las antipartículas, desapareciendo la
mayor parte de la materia existente.

En general, se acepta que todo el espacio está formado por quarks,


no por antiquarks, porque las leyes de la física son diferentes para
las partículas y las antipartículas. Viempre se había creído que las
leyes de la física poseían tres simetrías:
C, P y 1. La simetría C supone que las leyes son las mismas para
partículas y antipartículas; la simetría P, que las leyes son idénticas
para, una situación cualquiera y su imagen especular, y la simetría
1 supone que el movimiento de un sistema no se altera si se
invierte la dirección del movimiento de todas las partículas y
antipartículas. Vin embargo, se ha demostrado que la interacción
débil no cumple la simetría P, es decir, el efecto de la interacción
débil hace que evolucionen de forma diferente las partículas de las
antipartículas. Tampoco posee simetría C, ni simetría combinada
PC.

La materia normal como la conocemos, está compuesta de átomos,


las distintas organizaciones de distintos átomos forma n todos los
tipos de moléculas y estos a su vez la materia. Estos átomos están
compuestos por electrones, protones y neutrones, los elementos
mas pequeños conocidos (sin tener en cuenta los quarks).
La antimateria se compone del mismo modo, con algo llamado anti-
átomos, que estan formados por antielectrones (o tambien llamados
positrones), antiprotones y el extraño antineutron.

Paul Adrien Maurice Dirac habia deducido, fundándose en un


análisis matemático de las propiedades inherentes a las particulas
subatomicas, que cada particula deberia tener su 'antiparticula'. Así
pues, deberia haber un 'antielectron' identico al electron, salvo por
su carga, que seria positiva, y no negativa, y un 'antiproton' con
carga negativa en vez de positiva.

Pero... ¿Que es realmente la antimateria y en que se diferencian los


electrones, protones y neutrones de los antielectrones, antiprotones
y los antineutrones?

La antimateria es materia constituida por la antiparticulas


(antielectrones, antiprotones y antineutrones).

La diferencia los electrones y protones de los antielectrones y los


antiprotones y los antineutrones es basicamente la carga electrica,
son idénticas en aspecto físico y en constitución, sus movimientos
rotatorios se han invertido, el polo sur magnetico, por decirlo asi,
esta arriba y no abajo, de esta manera su carga eléctrica es la
opuesta de lo que deveria de ser.

Como vimos hasta ahora, el positron es la contrapartida del electron


por su carga contraria, y el antiproton es tambien 'anti' por su carga.
Pero... ¿por que dice anti a una partícula que posee carga neutra?
Para responder esta pregunta es necesario explicar brevemente las
carateristicas de los positrones y los antiprotones.
El antielectron es tan estable como el electron, de hecho es identico
al electron en todos sus aspectos, excepto en su carga electrica. Vu
existencia puede ser indefinida. Aunque el promedio de 'vida' es de
una millonésima de segundo, hasta que se encuentra con un
electron, durante un momento relampagueante quedaran asociados
el electron y el positron; ambas partículas giraran en torno a un
centro de fuerza comun. Pero la existencia de este sistema, como
máximo, durará una diezmillonesima de segundo ya que se
combinan el positron y el electron.

Cuando se combinan las dos particulas opuestas, se produce una


neutralizacion mutua y literalmente desaparecen, no dejan ni rastro
de materia ('aniquilamiento mutuo'). Pero como sabemos la materia
al igual que la energia no puede desaparecer, como resultado de
esto queda la energia en forma de radiacion gamma. De tal forma
como habia sugerido el genio Albert Einstein: la materia puede
convertirse en energia, y viceversa.

El antiproton es tan evanescente como el positron, por lo menos en


nuestro Universo. En una infima fraccion de segundo después de su
creacion, la particula desaparece (al igual que el antielectron),
arrastrada por algun nucleo normal cargado positivamente.
Entonces se aniquilan entre si el antiproton y un proton del nucleo,
que se transforman en energia y particulas menores.

En ocasiones, el proton y el antiproton solo se rozan ligeramente en


vez de llegar al choque directo. Cuando ocurre esto, ambos
neutralizan mutuamente sus respectivas cargas. El proton se
convierte en neutron, lo cual es bastante logico. Pero no lo es tanto
que el antiproton se transforme en un 'antineutron'.

Con algo de fisica elemental es facil comprender como forma un


campo magnetico la particula cargada, pero ya no resulta tan facil
saber por que hace lo mismo un neutron. Que por cierto ocurre. La
prueba directa mas evidente de ello es que cuando un rayo de
neutrones golpea sobre un hierro magnetizado, no se comporta de
la misma forma que lo haria si el hierro no estuviese magnetizado.
El magnetismo del neutron sigue siendo un misterio (al menos yo no
me entere ), los fisicos sospechan que contiene cargas positivas y
negativas equivalentes a cero, aunque, por alguna razon
desconocida, logran crear un campo magnetico cuando gira la
partícula.
Vea como fuere, la rotacion del neutron nos da la respuesta a esta
pregunta: ¿Que es el antineutrón? Pues, simplemente, un neutron
cuyo movimiento rotatorio se ha invertido y al igual que el positron y
el antiproton, muestra exactamente el mismo fenomeno de los polos
invertidos.
Por lo pronto, la teoria es bastante solida, y ningun fisico lo pone en
duda. La antimateria puede existir.

¿Existen en realidad? ¿Hay masas de antimateria en el universo?


Vi las hubiera, no revelarían su presencia a cierta distancia. Vus
efectos gravitatorios y la luz que produjeran serian identicos a los
de la materia corriente. Vin embargo, cuando se encontrasen con
esta materia, deberían ser claramente perceptibles las reacciones
masivas de aniquilamiento resultantes. Por esto, los astronomos se
afanan en observar especulativamente las galaxias, para
comprobar si hay alguna actividad inusitada que delate las
interacciones materia-antimateria.

¿Es posible, que el Universo este formado casi enteramente por


materia, con muy poca o ninguna antimateria?
Dado que la materia y la antimateria son equivalentes en todos los
aspectos, excepto en su oposicion electromagnetica, cualquier
fuerza que crease una originaria la otra, y el Universo deberia estar
compuesto de iguales cantidades de una y otra.

Este es el dilema. La teoria nos dice que deberia haber antimateria,


pero la observacion practica se niega a respaldar este hecho. ¿Y
que ocurre con los nucleos de las galaxias activas? ¿Deberian ser
esos fenomenos energeticos el resultado de una aniquilacion
materia-antimateria? NO! Ni siquiera ese aniquilamiento es
suficiente, la destruccion seria muchas veces mayor (para darse
una idea de la magnitud lo mas parecido es el colapso gravitatorio
de una supernova al explotar y el fenomeno resultante: el agujero
negro, seria el unico mecanismo conocido para producir la energia
requerida para tanta destrucción).
 

La teoría revolucionaria que basada en la Relatividad General


cambió para siempre a la cosmología.

El Big Bang propiamente dicho es el momento del nacimiento del


Universo en un instante de tiempo definido, hace unos 15 mil
millones de años en forma de bola superdensa y supercaliente de
radiación energética.

La primera persona que propuso una versión de lo que ahora se


denomina Big Bang fue Geoges Lemaitre en 1927, aunque no se
basó en las ideas relativistas.

El término Big Bang fue dado por Fred Hoyle a finales de los años
40, no lo hizo por creer en la teoría sino por todo lo contrario, quiso
ridiculizarla. Hoyle fue uno de los mayores adversarios de la idea
del Big Bang.

El Universo está lleno de materia y ésta, debido a la Teoría de la


Relatividad General, curva el espacio-tiempo de forma que los
cuerpos (materia) se atraigan (ésta es la solución de la Relatividad
General para la Ley de Gravedad de Newton).

Einstein encontró que no había forma que sus ecuaciones dieran


como resultado un Universo estático e invariable en el tiempo, y
tanto él como la mayoría de la gente en ese tiempo creía que el
Universo debía ser estático. Einstein en vez de abandonar esa idea,
trucó sus ecuaciones añadiéndoles un término llamado constante
cosmológica, que curvaba el espacio-tiempo en sentido opuesto de
manera que los cuerpos se repelieran. Posteriormente, luego de las
observaciones de Edwin Hubble en los años 20 en el Monte Wilson,
Einstein eliminó la constante cosmológica, considerándolo como el
mayor error de su carrera.

Las observaciones de Hubble y otros observadores demostraron


que la galaxia en la que vivimos, La Vía Láctea, no solo es una
galaxia mas entre miles de millones en el Universo, sino que las
galaxias se están alejando unas de las otras a medida que el
Universo se expande. Y a medida que se alejan, lo hacen con
mayor velocidad. Para entender esta expansión es necesario
comprender que las galaxias no se mueven por el espacio (siempre
teniendo en cuenta solo a la expansión cosmológica), sino que son
arrastradas por la expansión del espacio, es el propio espacio el
que crece. Un ejemplo claro es imaginar un globo que esté pintado
a lunares, al empezar a inflarlo, los puntos en su superficie se irán
separando unos de otros.

El Universo, y según las ecuaciones de Einstein, no tiene centro ni


bordes, ya que el espacio-tiempo está suavemente curvado para
formar el equivalente en cuatro dimensiones a la superficie de una
esfera. La teoría de Big Bang tiene la particularidad de explicarnos
con detalles todo lo que sucedió un instante después de la Gran
Explosión, pero no la del momento mismo.

  

El hecho de que el Universo se esté expandiendo, y las galaxias se
están alejando unas de otras, implica que en un pasado
determinado debieron estar todas condensadas, y la distancia entre
ellas debió ser cero. En ese instante que llamamos Big Bang, la
densidad y por consecuencia la curvatura del espacio -tiempo
debieron ser infinitas. Las matemáticas no pueden manejar
números infinitos, esto implica que la Teoría de la Relatividad
General colapsa en ese punto. La propia teoría dice que en tal
punto la teoría en sí colapsa. Tal punto es lo que los matemáticos
llaman una singularidad. En realidad, todas las teorías científicas
están formuladas con la suposición de un espacio-tiempo uniforme
y casi plano, de manera que ellas dejan de ³funcionar´ en la
singularidad del Big Bang.

La razón por la cual la Relatividad deja de valer en la Gran


Explosión es porque no incorpora EL Principio de Incertidumbre, el
elemento aleatorio de la Teoría Cuántica, que Einstein se había
rehusado a creer desde la idea que ³Dios no juega a los dados´. Vin
embargo debemos entender que a grandes escalas las leyes físicas
clásicas funcionan sin problemas, pero a muy pequeñas escalas,
como lo fue el Universo en el comienzo, la física cuántica tiene un
papel muy importante ya que determina los sucesos que pueden
ocurrir. Por este motivo el Universo muy primitivo (como todo a
escala muy pequeña) tiene múltiples historias con distintas
probabilidades. La idea de Las Historias Múltiples fue desarrollada
por Richard Feynman, por la cual dice que las partículas se
desplazan de un lugar a otro a lo largo de cada trayectoria posible
en el espacio-tiempo.
Actualmente se trabaja para combinar la Teoría de la Relatividad y
las Historias Múltiples en una teoría unificada que describa todo lo
que ocurre en el Universo. Aunque tal teoría no nos dirá como
empezó el Universo. Para ello se necesitan condiciones de
contorno, reglas que nos digan que ocurre en las fronteras del
Universo, los bordes del espacio y el tiempo.

a


La idea del Big Bang fue llevada un paso más allá por George
Gamow en los años 40. Demostró de que forma las interacciones
nucleares que se sucedieron en la Gran Explosión convirtieron el
hidrogeno en helio, lo que explicaba las proporciones de estos
elementos en estrellas muy viejas, y predecía la existencia de la
]      . A continuación detallamos paso a paso los
hechos físicos generales desde el momento del Big Bang:

R  
         a
  a (Big
Bang) Era de Plank. Leyes de la física exóticas y desconocidas.
R  ! 
    a  a
 Era de
la Teoría de la Gran Unificación (GUT), la unificación de las fuerzas
fundamentales de la naturaleza.
R !"  
       a Era Electrodébil,
dominada por quarks y antiquarks.
R   
       a Era de hadrones y
leptones. Los quarks quedan confinados al formarse protones,
neutrones y otros bariones.
R    
       a En ese instante la
temperatura era de 10e12 K (un billón de grados) y la densidad de
la materia nuclear de 10e14 gramos por centímetro cúbico (la
densidad del agua es de 1 gramo por centímetro cúbico). En éstas
condiciones de la radiación de fondo lleva tanta energía que son
intercambiables por partículas, según la ecuación E=mc2. Los
fotones crean pares de partículas y antipartículas, y estas se
aniquilan para dar fotones energéticos en un intercambio constante
de energía. Debido a una minúscula asimetría en la forma en que
actúan las interacciones fundamentales se produjeron ligeramente
más partículas que antipartículas. Volo una por cada 1000 millones
de partículas quedó fijada como materia estable.
R  
       a Con la temperatura
disminuida a 10e11 K, los protones y los neutrones se habían
apartado de la vorágine.
R 
     a La temperatura había bajado
a 30000 millones K, y solo había 38 neutrones por cada 62
protones.
R 
    a El Universo se había enfriado
hasta 10000 millones K, el equilibrio entre protones y neutrones se
había desplazado todavía mas, con 24 neutrones por cada 76
protones.
R!#  
       a El Universo tenía 3000
millones K de temperatura, y comenzaron a formarse los núcleos de
deuterio, cada uno de los cuales contiene un protón y un neutrón,
aunque inmediatamente se volvían a dividir por las colisiones con
otras partículas. El 17% de los nucleones quedaban en forma de
neutrones.
R#$ 
    a El Universo se había enfriado
a 1000 millones K (temperatura 70 veces mayor que la del centro
de nuestro Vol). La proporción de neutrones era de 14%, pero se
salvaron de la desaparición total porque la temperatura había caído
al punto en que podían formarse núcleos de deuterio y helio y
permanecer unidos a pesar de las colisiones con otras partículas.
R  
       a Reacciones dejaron a los
neutrones residuales atrapados en núcleos de helio. La proporción
de la masa total de los nucleones convertida en helio es el doble de
la abundancia de neutrones en ese momento (cada núcleo de helio-
4 tiene dos protones y dos neutrones). El 25% del material nuclear
convertido en helio y el resto quedaba como protones solitarios
(núcleos de hidrogeno).
R! 
    a Todos lo positrones del Universo
se habían aniquilado con casi todos los electrones (dejando solo
uno cada 1000 millones, ajustándose así al numero de protones)
para producir la radiación de fondo. La temperatura era de 300
millones K y la densidad era solo del 10% de la del agua. Aún el
Universo estaba demasiado caliente para que se formen átomos
estables, en cuanto un núcleo capturaba un electrón, éste era
arrancado por un fotón energético de la radiación de fondo.
R!
    a El Universo se enfrió hasta los
6000 K (aprox. la temperatura de la superficie de Vol). Durante los
siguientes 500000 años, la radiación de fondo se desacopló, y ya
no tuvo más interacción con la materia. El Universo óptimamente
denso deviene transparente a la radiación cósmica de fondo. Luego
el Universo continuó su expansión de forma relativamente tranquila,
pero cada vez más lentamente a causa de la gravedad.
R 
  
    a Cúmulos de materia
forman quásares, estrellas y protogalaxias. Las estrellas procesaron
hidrogeno y helio para hacer elementos mas pesados
R" 
   
   a Ve forman nuevas galaxias
con sistemas solares. Los átomos se enlazan para formar
moléculas complejas, entre las cuales las moléc ulas biológicas.

%    

Hay una fuerte evidencia, mediante una gran variedad de
observaciones, de la existencia de una gran cantidad de materia
oscura en el universo. El término "materia oscura" alude a materia
cuya existencia no puede ser detectada mediante procesos
asociados a la luz, es decir, no emiten ni absorben radiaciones
electromagnéticas, así como no interaccionan con ella de modo que
se produzcan efectos secundarios observables; esta materia ha
sido inferida solamente a través de sus efectos
gravitacionales. Hay también una extensa evidencia
circunstancial de que al menos alguna cantidad de esta materia
oscura es de naturaleza no bariónica, es decir, compuesta de
partículas elementales distintas a los protones, neutrones y
electrones (los bariones son todas aquellas partículas compuestas
por tres quarks, tales como el protón o el neutrón; el electrón no es
un barión sino un leptón, pero por simplicidad siempre que nos
referimos a los bariones cuando hablamos sobre materia oscura se
sobreentiende que incluimos a los electrones como si de un barión
más se tratase). La evidencia más fuerte de materia oscura está
en las curvas de rotación de las galaxias espirales. En estas
observaciones, la velocidad azimutal de las nubes de hidrógeno
rodeando la galaxia es medida (mediante desplazamiento Doppler)
en función de la distancia al centro de la galaxia o radio galáctico. Vi
no hubiese materia oscura, a distancias suficientemente alejadas
del centro o bulbo de la galaxia encontraríamos que la velocidad es
inversamente proporcional al radio o distancia galáctica. Vin
embargo, observaciones de muchas galaxias espirales indican una
velocidad que es independiente de la distancia a grandes
distancias. En otras palabras, el movimiento de la materia que
compone la estructura de una galaxia espiral no verifica las leyes de
Kepler. Otras indicaciones de la presencia de materia oscura
vienen de observaciones del movimiento de galaxias y gas caliente
en cúmulos de galaxias. Ninguna de estas observacione s nos da
una indicación directa de la naturaleza de la materia oscura. Vi es
barionica, las formas que puede tomar están severamente
restringidas, ya que la mayoría de las formas permitidas de este tipo
de materia oscura emite y absorbe fotones en por lo m enos una
banda de frecuencia observable. Algunas posibles excepciones
incluyen remanentes (de enanas blancas, estrellas de neutrones,
agujeros negros) de una temprana generación de estrellas masivas
u objetos más pequeños que nunca iniciaron la combustión nuclear
(y podrían por lo tanto tener masas menores que aproximadamente
la décima parte de la masa solar).

Hay también una extensa evidencia circunstancial de que al menos


un porcentaje de la materia oscura es de naturaleza no bariónica,
es decir, está compuesta por partículas elementales distintas a los
electrones, protones o neutrones, y que no interactúan fuertemente
con la materia normal. Ve supone que podría tratarse de neutrinos u
otras partículas mucho más pesadas, denominadas WIMPs (Weakly
Interacting Massive Particles, o partículas masivas de interacción
débil) que han sobrevivido desde el Big Bang, y por lo tanto, son
extremadamente estables o bien tienen tiempos de vida que
exceden la edad actual del Universo. Los candidatos a dar
cuenta de la materia oscura no bariónica son varios: neutrilinos,
axiones, monopolos, cuerdas cósmicas, racimos de quarks, y una
larga lista de posibilidades exóticas. Vin embargo, a excepción de
los neutrinos, muchas de tales partículas elementales existen
solamente en el campo teórico, ya que hasta el momento su
existencia no ha sido detectada. Además, por tratarse de materia no
convencional, que no absorbe ni emite radiación electromagnética
(luz, ondas de radio, etc.), su detección parece fuera de nuestro
alcance por el momento.

ï
   &    

Vegún las leyes del movimiento establecidas por primera vez con
detalle por Isaac Newton hacia 1680-89, dos o más movimientos se
suman de acuerdo con las reglas de la aritmética elemental.
Vupongamos que un tren pasa a nuestro lado a 20 kilómetros por
hora y que un niño tira desde el tren una pelota a 20 kilómetros por
hora en la dirección del movimiento del tren. Para el niño, que se
mueve junto con el tren, la pelota se mueve a 20 kilómetros por
hora. Pero para nosotros, el movimiento del tren y el de la pelota se
suman, de modo que la pelota se moverá a la velocidad de 40
kilómetros por hora.

Como veis, no se puede hablar de la velocidad de la pelota a secas.


Lo que cuenta es su velocidad con respecto a un observador
particular. Cualquier teoría del movimiento que intente explicar la
manera en que las velocidades (y fenómenos afines) parecen variar
de un observador a otro sería una teoría de la relatividad».

La teoría de la relatividad de Einstein nació del siguiente hecho: lo


que funciona para pelotas tiradas desde un tren no funciona para la
luz. En principio podría hacerse que la luz se propagara, o bien a
favor del movimiento terrestre, o bien en contra de él. En el primer
caso parecería viajar más rápido que en el segundo (de la misma
manera que un avión viaja más aprisa, en relación con el suelo,
cuando lleva viento de cola que cuando lo lleva de cara). Vin
embargo, medidas muy cuidadosas demostraron que la velocidad
de la luz nunca variaba, fuese cual fuese la naturaleza del
movimiento de la fuente que emitía la luz.

Einstein dijo entonces: supongamos que cuando se mide la


velocidad de la luz en el vacío, siempre resulta el mismo valor (unos
299.793 kilómetros por segundo), en cualesquiera circunstancias.
¿Cómo podemos disponer las leyes del universo para explicar esto?
Einstein encontró que para explicar la constancia de la velocidad de
la luz había que aceptar una serie de fenómenos inesperados.

Halló que los objetos tenían que acortarse en la dirección del


movimiento, tanto más cuanto mayor fuese su velocidad, hasta
llegar finalmente a una longitud nula en el límite de la velocidad de
la luz; que la masa de los objetos en movimiento tenía que
aumentar con la velocidad, hasta hacerse infinita en el límite de la
velocidad de la luz; que el paso del tiempo en un objeto en
movimiento era cada vez más lento a medida que aumentaba la
velocidad, hasta llegar a pararse en dicho límite; que la masa era
equivalente a una cierta cantidad de energía y viceversa.

Todo esto lo elaboró en 1905 en la forma de la teoría especial de


la relatividad», que se ocupaba de cuerpos con velocidad
constante. En 1915 extrajo consecuencias aún más sutiles para
objetos con velocidad variable, incluyendo una descripción del
comportamiento de los efectos gravitatorios. Era la teoría general
de la relatividad».

Los cambios predichos por Einstein sólo son notables a grandes


velocidades. Tales velocidades han sido observadas entre las
partículas subatómicas, viéndose que los cambios predic hos por
Einstein se daban realmente, y con gran exactitud. Es más, sí la
teoría de la relatividad de Einstein fuese incorrecta, los
aceleradores de partículas no podrían funcionar, las bombas
atómicas no explotarían y habría ciertas observaciones
astronómicas imposibles de hacer.

Pero a las velocidades corrientes, los cambios predichos son tan


pequeños que pueden ignorarse. En estas circunstancias rige la
aritmética elemental de las leyes de Newton; y como estamos
acostumbrados al funcionamiento de estas leyes, nos parecen ya
de sentido común», mientras que la ley de Einstein se nos antoja
extraña».

a  ' 


a( 

Las galaxias, en general, se separan unas de otras. Este hecho fue
descubierto en 1.923 por el astrónomo norteamericano a(
 . La medición que hizo fue ésta:

- Observó la luz emitida por distantes galaxias y la comparó con la


luz emitida en los mismos átomos en laboratorios aquí en la Tierra.
Descubrió que la longitud de onda de la luz de distantes galaxias
era más larga que lo esperado , que estaba corrida hacia el
extremo del rojo del espectro. Interpretando esto como el efecto
Doppler, llegó a la conclusión de que todas las galaxias en el
Universo se alejan de nosotros.

Hubble también observó que la velocidad de recesión de las


galaxias era mayor cuanto más lejos se encontraban. Este
descubrimiento le llevó a enunciar su ley de la velocidad de
recesión de las galaxias, conocida como la ³ Ê
 ʳ, la cual
establece que la velocidad de una galaxia es proporcional a su
distancia.

% V  ï
   

Max Karl Ernst Ludwig Planck, físico alemán, premiado con el


Nobel, considerado el creador de la teoría cuántica, de quién Albert
Einstein dijo: Era un hombre a quien le fue dado aportar al mundo
una gran idea creadora . De esa idea creadora nació la física
moderna, que intenta saber si Dios juega o no a los dados , si el
azar existe o no. Como muchas veces suele ocurrir, las primeras
inclinaciones intelectuales de Planck no estuvieron orientadas hacia
la ciencia, sino que a la filología y la música, p ero su profesor
Hermann Müller, del Gimnasio Maximiliano, en Munich, le hizo
desistir de sus aficiones. Cuando ingresó en 1874 a la
Universidad de Munich, y estudió un año en la Universidad de
Berlín, dejó su pasión por los románticos alemanes como Brahms,
Vchubert y Vchumann, para internarse en el laberinto que le
abrieron sus profesores Hermann von Helmholtz y Gustav Robert
Kirchhoff, quienes realizaron investigaciones que utilizó Planck, en
1900, para proponer su teoría de los cuantos (partículas
comparables a un grano de luz), que dividió la física en dos etapas:
la clásica, desarrollada en los siglos XVII, XVIII y XIX, y la
moderna. Así, Planck concluía unas investigaciones que
comenzó en 1879, cuando hizo su tesis doctoral sobre el segundo
principio de la termodinámica (rama de la física que se ocupa de la
energía) del físico Vadi Carnot; ideas con las que el alemán Rudolf
Clausius planteó su teoría de la entropía (cantidad de energía que
se podía convertir en trabajo).
En el año 1880, ocupa su primer cargo académico en la
Universidad de Kiel y, cinco años más tarde, es nombrado profesor
titular de una de las cátedras de física, y desde 1889 hasta 1928
ocupó el mismo cargo en la Universidad de Berlín. En 1900 Planck
formuló que la energía se radia en unidades pequeñas separadas
denominadas cuantos. Avanzando en el desarrollo de esta teoría,
descubrió una constante de naturaleza universal que se conoce
como la constante de Planck. La ley de Planck establece que la
energía de cada cuanto es igual a la frecuencia de la radiación
multiplicada por la constante universal. Vus descubrimientos, sin
embargo, no invalidaron la teoría de que la radiación se propagaba
por ondas. Los físicos en la actualidad creen que la radiación
electromagnética combina las propiedades de las ondas y de las
partículas. Los descubrimientos de Planck, que fueron verificados
posteriormente por otros científicos, promovieron el nacimiento de
un campo totalmente nuevo de la física, conocido como mecánica
cuántica y proporcionaron los cimientos para la investigación en
campos como el de la energía atómica. Durante el proceso en el
cual Planck formulaba sus investigaciones, el lenguaje y la teoría
necesarios, hoy conocidos como mecánica cuántica, estaban por
aquel entonces evolucionando en los institutos de física de Europa.
Planck, en sus sustentaciones teóricas, guarda una gran semejanza
con las ideas de Goethe: basta una gran vía que permita la
búsqueda para explorar todo le explorable, contemplando lo
inexplorable. Lo que se debe interpretar ±decía Planck±... debe
dirigirse hacia todo lo que sea explorable . Y de su exploración
concluyó que el pensamiento causal y el físico son equivalentes.

La casualidad, como las direcciones en las que pueden caer las


gotas de agua de una catarata, según un ejemplo del físico Richard
Feynman, podían ser susceptibles de medición, según la teoría del
quantum. El estudio de la distribución de la energía en el campo
de influencia de un cuerpo negro resume la teoría de Planck. La
energía radiante se emite (el Vol) o absorbe (el cuerpo negro) sólo
en múltiplos enteros de un cuanto, cuya magnitud es proporcional a
la frecuencia de radiación absorbida o emitida. Un cuerpo negro
es un sistema ideal capaz de absorber toda la radiación que incide
sobre él. Planck planteó una ecuación simple que describía la
distribución de la irradiación de las variadas frecuencias, basado en
una suposición: la energía no es divisible infinitamente; como la
materia, está formada de partículas, a las que llamó quantum. El
tamaño de cada quantum, para cada radiación electromagnética, es
directamente proporcional a su frecuencia: constante de Planck,
que se representa con la h.

Los científicos sabían que el color de la luz que emite un cuerpo ±la
gama de sus longitudes de onda± está relacionado con el material
del que está hecho el objeto y con su temperatura. Hablando en
general, la luz azul, con longitudes de onda muy cortas, es la que
prevalece en el espectro de los objetos muy calientes; las
longitudes de onda rojas, o más largas, indican menos calor. Hay
representadas también otras longitudes de onda, pero como regla
general, cada temperatura se relaciona con una longitud de onda
dominante, que proporciona al objeto resplandeciente un color
característico. Para simplificar su análisis de la radiación, los
teóricos del siglo XIX habían conjurado el cuerpo negro. Al contrario
que los objetos reales, esta entidad imaginaria absorbe la radiación
de todas las frecuencias, lo cual la hace completamente negra.
También emite radiación de todas las frecuencias,
independientemente de su composición material. Los
experimentadores habían creado ingeniosos dispositivos para
aproximar esta construcción teórica a los laboratorios, y habían
aprendido mucho sobre las características de la radiación del
cuerpo negro. Lo que les faltaba era una teoría para predecir la
distribución o forma del espectro de radiación del cuerpo negro, es
decir, la cantidad de radiación emitida a frecuencias específicas a
varias temperaturas.
La mayoría de los científicos creían que la clave de este problema
se hallaba en comprender la interacción entre radiación
electromagnética y materia. En 1900, cuando Planck atacó el
problema, aceptó la teoría electromagnética de la luz que sostenía
que la luz era un fenómeno ondulatorio y que la materia ±que se
suponía que contenía pequeños cuerpos cargados eléctricamente,
o partículas± irradiaba energía en la forma de ondas de luz cuando
esas partículas cargadas eran aceleradas, La sabiduría aceptada
decretaba también que la cantidad de energía radiada por una
partícula cargada acelerada podía situarse en cualquier parte a lo
largo de una gama continua. Para el propósito de estudiar la
radiación de un cuerpo negro, Planck imaginó las partículas
cargadas como diminutos osciladores, acelerados y decelerados
repetidamente de una forma sencilla, suave y regular, como si
estuvieran unidos a un muelle ingrávido. Hasta ese momento, se
mantenía firmemente dentro del reino de la física del siglo XIX. Pero
a partir de ahí se desvió radicalmente. En el camino de calcular
el equilibrio de energía entre los supuestos osciladores y su
radiación de entrada y salida, Planck halló que necesitaba suponer
la existencia de quantums, o ciertas pequeñas divisiones de
energía, antes que una gama continua de posibles energías. Definió
un quantum de energía como la frecuencia de la oscilación
multiplicada por un número diminuto que no tardó en ser conocido
como la constante de Planck. Luego utilizó estas suposiciones para
resolver el problema del cuerpo negro; su solución matemática
predijo perfectamente la radiación del espectro del cuerpo negro.

El propio Planck nunca avanzó una interpretación significativa de


sus quantums, y aquí quedó el asunto hasta 1905, cuando Einstein,
basándose en el trabajo de Planck, publicó su teoría sobre el
fenómeno conocido como efecto fotoeléctrico (arriba). Dados los
cálculos de Planck, Einstein demostró que las partículas cargadas ±
que por aquel entonces se suponía que eran electrones± absorbían
y emitían energías en cuantos finitos que eran proporcionales a la
frecuencia de la luz o radiación. En 1930, los principios cuánticos
formarían los fundamentos de la nueva física. Aunque Planck
sostuvo que la explicación era un modelo distinto al verdadero
mecanismo de la radiación, Albert Einstein dijo que la cuantización
de la energía era un avance en la teoría de la radiación. No
obstante, Planck reconoció en 1905 la importancia de las ideas
sobre la cuantificación de la radiación electromagnética expuestas
por Albert Einstein, con quien colaboró a lo largo de su
carrera. En su carrera científica, Planck recibió muchos premios,
especialmente, el Premio Nobel de Física, en 1918. En 1930 Planck
fue elegido presidente de la Vociedad Káiser Guillermo para el
Progreso de la Ciencia, la principal asociación de científicos
alemanes, que después se llamó Vociedad Max Planck. Vus críticas
abiertas al régimen nazi que había llegado al poder en Alemania en
1933 le forzaron a abandonar la Vociedad, de la que volvió a ser su
presidente al acabar la II Guerra Mundial. La oposición de Max
Planck al régimen nazi, lo enfrentó con Hitler. En varias ocasiones
intercedió por sus colegas judíos ante el régimen nazi. Planck
sufrió muchas tragedias personales después de la edad de 50 años.
En 1909, su primera esposa Marie Merck murió después de 22 años
de unión matrimonial, dejándolo con dos hijos hombres y unas hijas
gemelas. Vu hijo mayor Karl murió en el frente de combate en la
Primera Guerra Mundial en 1916; su hija Margarete murió de parto
en 1917, y su otra hija, Emma también murió de parto en 1919.
Durante la Vegunda Guerra Mundial, su casa en Berlín fue
destruida totalmente por las bombas en 1944 y su hijo más joven,
Erwin, fue implicado en la tentativa contra la vida de Hitler que se
efectuó el 20 de julio de 1944. Por consiguiente, Erwin murió de
forma horrible en las manos del Gestapo en 1945. Todo este
cúmulo de adversidades, aseguraba su discípulo Max von Laue, las
soportó sin una queja. Al finalizar la guerra, Planck, su segunda
esposa y el hijo de ésta, se trasladaron a Göttingen donde él murió
a los 90 años, el 4 de octubre de 1947. Max Planck hizo
descubrimientos brillantes en la física que revolucionó la manera de
pensar sobre los procesos atómicos y subatómicos. Vu trabajo
teórico fue respetado extensamente por sus colegas
científicos. Entre sus obras más importantes se encuentran
Introducción a la física teórica (5 volúmenes, 1932-1933) y Filosofía
de la física (1936).

ïïa aV )

La constante de Planck, simbolizada con la letra h, es una


constante física usada para describir el nivel de energía de los
cuantos en fórmulas como la ecuación de Vchrödinger. Desempeña
un papel central en la teoría de la mecánica cuántica y recibe su
nombre de su descubridor, Max Planck, uno de los padres de dicha
teoría. La constante de Planck también es utilizada al medir la
energía de los fotones, tal como en la ecuación E = hȞ, donde E es
la energía, h es la constante de Planck, y Ȟ es la frecuencia de la
onda lumínica.La constante de Planck se utiliza para describir la
cuantización, un fenómeno que ocurre en las particulas elementales
subatómicas como electrones y fotones en los cuales ciertas
propiedades físicas ocurren en cantidades fijas, en lugar de tomar
un rango continuo de posibles valores. La constante de Planck
tiene dimensiones de energía multiplicada por tiempo, que también
son las dimensiones de la acción. En las unidades del VI la
constante de Planck se expresa en julios-segundo. Vus
dimensiones también pueden ser escritas como momento por
distancia (N‡m‡s), que también son las dimensiones del momento
angular. Frecuentemente la unidad elegida es el eV‡s, por las
pequeñas energías que frecuentemente se encuentran en la física
cuántica.

a
a%a& * 
a&ï
'%&a

El físico alemán Werner K. Heisenberg es conocido sobre todo por


formular el principio de incertidumbre, una contribución fundamental
al desarrollo de la teoría cuántica. Este principio afirma que es
imposible medir simultáneamente de forma precisa la posición y el
momento lineal de una partícula. Heisenberg fue galardonado con
el Premio Nobel de Física en 1932. El principio de incertidumbre
ejerció una profunda influencia en la física y en la filosofía del siglo
XX. Werner Karl Heisenberg nació el 5 de diciembre de 1901 en
Würzburgo y estudió en la Universidad de Munich. En 1923 fue
ayudante del físico alemán Max Born en la Universidad de Gotinga,
y desde 1924 a 1927 obtuvo una beca de la Fundación Rockefeller
para trabajar con el físico danés Niels Bohr en la Universidad de
Copenhague. En 1927 fue nombrado profesor de física teórica en la
Universidad de Leipzig. Después fue profesor en las universidades
de Berlín (1941-1945), Gotinga (1946-1958) y Munich (1958-1976).
En 1941 ocupó el cargo de director del Instituto Kaiser Wilhelm de
Química Física, que en 1946 pasó a llamarse Instituto Max Planck
de Física. Estuvo a cargo de la investigación científica del
proyecto de la bomba atómica alemana durante la II Guerra
Mundial. Bajo su dirección se intentó construir un reactor nuclear en
el que la reacción en cadena se llevara a cabo con tanta rapidez
que produjera una explosión, pero estos intentos no alcanzaron
éxito. Estuvo preso en Inglaterra después de la guerra. Murió en
1976. Heisenberg, uno de los primeros físicos teóricos del
mundo, realizó sus aportaciones más importantes en la teoría de la
estructura atómica. En 1925 comenzó a desarrollar un sistema de
mecánica cuántica, denominado mecánica matricial, en el que la
formulación matemática se basaba en las frecuencias y amplitudes
de las radiaciones absorbidas y emitidas por el átomo y en los
niveles de energía del sistema atómico. El principio de
incertidumbre desempeñó un importante papel en el desarrollo de la
mecánica cuántica y en el progreso del pensamiento filosófico
moderno. En 1932, Heisenberg fue galardonado con el Premio
Nobel de Física. Entre sus numerosos escritos se encuentran Los
principios físicos de la teoría cuántica, Radiación cósmica, Física y
filosofía e Introducción a la teoría unificada de las partículas
elementales.
?
V

 
En física, el 
 (en griego 2  significa 2  ) es una
partícula subatómica con una carga eléctrica de una unidad
fundamental positiva (+)(1,602 x 10 ±19 culombios) y una masa de
938,3 MeV/c2 (1,6726 × 10±27 kg) o, del mismo modo, unas 1836
veces la masa de un electrón. Experimentalmente, se observa el
protón como estable, con un límite inferior en su vida media de unos
1035 años, aunque algunas teorías predicen que el protón puede
desintegrarse. El protón y el neutrón, en conjunto, se conocen como
nucleones, ya que conforman el núcleo de los átomos.
El núcleo del isótopo más común del átomo de hidrógeno (también
el átomo estable más simple posible) es un único protón. Los
núcleos de otros átomos están compuestos de nucleones unidos
por la fuerza nuclear fuerte. El número de protones en el núcleo
determina las propiedades químicas del átomo y qué elemento
químico es.
Los protones están clasificados como bariones y se componen de
dos quarks arriba y un quark abajo, los cuales también están uni dos
por la fuerza nuclear fuerte mediada por gluones. El equivalente en
antimateria del protón es el antiprotón, el cual tiene la misma
magnitud de carga que el protón, pero de signo contrario.
Debido a que la fuerza electromagnética es muchos órdenes de
magnitud más fuerte que la fuerza gravitatoria, la carga del protón
debe ser opuesta e igual (en valor absoluto) a la carga del electrón;
en caso contrario, la repulsión neta de tener un exceso de carga
positiva o negativa causaría un efecto expansivo sensi ble en el
universo, y, asimismo, en cualquier cúmulo de materia (planetas,
estrellas, etc.).
 

Un   es un barión neutro formado por dos quarks   y un
quark 2. Forma, junto con los protones, los núcleos atómicos.
Fuera del núcleo atómico es inestable y tiene una vida media de
unos 15 minutos emitiendo un electrón y un antineutrino para
convertirse en un protón. Vu masa es muy similar a la del protón.
Algunas de sus propiedades:
‡ Masa: mn = 1,675x10-27 Kg = 1,008587833 uma
‡ Vida media: tn = 886,7 1,9s
‡ Momento magnético: mn = -1,9130427 0,0000005 mN
El neutrón es necesario para la estabilidad de casi todos los
núcleos atómicos (la única excepción es el hidrógeno), ya que
interactúa fuertemente atrayéndose con los protones, pero sin
repulsión electrostática.

a 
El   (Del griego 8 8, ámbar), comúnmente
representado como +) es una partícula subatómica de tipo
fermiónico. En un átomo los electrones rodean el núcleo atómico,
compuesto fundamentalmente de protones y neutrones.
Los electrones tienen una masa pequeña respecto al protón, y su
movimiento genera corriente eléctrica en la mayoría de los metales.
Estas partículas desempeñan un papel primordial en la química ya
que definen las atracciones con otros átomos.

 
 


Un  
  
es un objeto que absorbe toda la luz y toda la
energía que incide sobre él. Ninguna parte de la radiación es
reflejada o pasa a través del cuerpo negro. A pesar de su nombre,
el cuerpo negro emite luz y constituye un modelo ideal físico para el
estudio de la emisión de radiación electromagnética. El nombre
Ö  2  fue introducido por Gustav Kirchhoff en 1862. La luz
emitida por un cuerpo negro se denomina      2 
 .
 
  , 
  


Los objetos reales nunca se comportan como cuerpos negros
ideales. En su lugar, la radiación emitida a una frecuencia dada es
una fracción de la emisión ideal. La   de un material
específica cuál es la fracción de radiación de cuerpo negro que es
capaz de emitir el cuerpo real. La emisividad puede ser distinta en
cada longitud de onda y depende de factores tales como la
temperatura, condiciones de las superficies (pulidas, oxidadas,
limpias, sucias, nuevas o intemperizadas, etc.) y ángulo de emi sión.
En algunos casos resulta conveniente suponer que existe un valor
de emisividad constante para todas las longitudes de onda, siempre
menor que 1 (que es la emisividad de un cuerpo negro). Esta
aproximación se denomina 2    2  . La Ley de
Kirchhoff indica que la emisividad es igual a la    de
manera que un objeto que no es capaz de absorber toda la
radiación incidente también emite menos energía que un cuerpo
negro ideal.

Â



Â

(del latín   , y éste del griego ,  Ê ) es la
unidad más pequeña de un elemento químico que mantiene su
identidad o sus propiedades y que no es posible dividir mediante
procesos químicos.
El núcleo del átomo se encuentra formado por nucleones, los
cuales pueden ser de dos clases:
‡ Protón: Partícula de carga eléctrica positiva igual a una carga
elemental, y 1,67262 × 10 ±27 kg. y una masa 1837 veces
mayor que la del electrón
‡ Neutrón: Partículas carentes de carga eléctrica y una masa un
poco mayor que la del protón (1,67493 × 10-27 kg).

El núcleo más sencillo es el del hidrógeno, formado únicamente por


un protón. El núcleo del siguiente elemento en la tabla periódica, el
helio, se encuentra formado por dos protones y dos neutrones. La
cantidad de protones contenidas en el núcleo del átomo se conoce
como número atómico, el cual se representa por la letra Z y se
escribe en la parte inferior izquierda del símbolo químico. Es el que
distingue a un elemento químico de otro. Vegún lo descrito
anteriormente, el número atómico del hidrógeno es 1 (1H), y el del
helio!  

Después de que Louis-Victor de Broglie propuso la Dualidad onda-


corpúsculo en 1924, la cual fue generalizada por Vchrödinger en
1926, se actualizó nuevamente el modelo del átomo.
En el modelo de Vchrödinger se abandona la concepción de los
electrones como esferas diminutas con carga que giran en torno al
núcleo, que es una extrapolación de la experiencia a nivel
macroscópico hacia las diminutas dimensiones del átomo. En vez
de esto, Vchrödinger describe a los electrones por medio de una
función de onda, el cuadrado de la cual representa la 2 Ê 
 2  en una región delimitada del espacio. Esta zona de
probabilidad se conoce como orbital. La gráfica siguiente muestra
los orbitales para los primeros niveles de energía disponibles en el
átomo de hidrógeno y oxígeno.

x  

En física de partículas, los -  , junto con los leptones, son los
constituyentes fundamentales de la materia. Varias especies de
quarks se combinan de manera específica para forma r partículas
tales como protones y neutrones.
Es básicamente un aparato en el cual las    cargadas
eléctricamente (electrones o iones) adquieren una gran velocidad y,
gracias a ella, un grado de energía muy elevado, por medio de un
campo eléctrico o magnético. Así, se pueden obtener rayos X o
neutrones emitidos como resultado de una reacción nuclear que
obligan a esas partículas aceleradas a bombardear un blanco
apropiado que, a su vez, emite rayos X o neutrones.

Los grandes    
       son instrumentos de
investigación científica extraordinariamente importantes, sobre todo
en lo que refiere a la física nuclear. Pero también se utilizan otros
tipos de aceleradores más reducidos para otros campos de la
ciencia, como la medicina y la tecnología.

Un       , merced a su energía cinética, puede


penetrar en los átomos del material bombardeado y provocar
diversas transformaciones. En los laboratorios de física nuclear, se
estudia la naturaleza de esas transformaciones, intentando sacar
conclusiones acerca de las propiedades y las estructuras de los
núcleos atómicos.

Cuando se desea alcanzar una energía de las partículas de


alrededor de 8 MeV o menos, se utilizan aparatos que disponen de
un solo tubo de aceleración rectilínea en el cual las partículas
procedentes de la fuente de iones o de electrones son liberadas en
un extremo, a muy alta tensión, de un tubo largo, aislado, cuyo otro
extremo se halla conectado a la tierra. Las partículas así son
atraídas por la diferencia de potencial hacia el extremo conectado a
la tierra.

Vi se desea obtener una energía más alta, las partículas deben ser
objeto de varias aceleraciones sucesivas para alcanzar la velocidad
adecuada. En un    
  , para iones positivos, el haz
atraviesa una serie de cilindros de longitud creciente.

El 
, no difiere en principio de este sistema lineal, pero en
vez de utilizar cilindros de diferente longitud, se coloca un campo
magnético perpendicular a la trayectoria de la partícula, de forma
que esta se desplaza a lo largo de una espiral cuyo radio aumenta
progresivamente.

En los   
 , los electrones son acelerados por un aumento
de la intensidad de un campo magnético perpendicular a una
trayectoria circular, procediendo dicho campo magnético de un
electroimán colocado en el centro.

Por otro lado, los 



  utilizan métodos más simples para
alcanzar una energía elevada. Ve componen de una cámara en
forma de anillo colocada entre los polos de un electroimán ?  ?
?

 ?
?
http://lhc.web.cern.ch/lhc/
http://www.espacioprofundo.com.ar/verarticulo/%BFQue_es_la_anti
materia%3F.html
http://www.astroyciencia.com/category/general/
http://es.wikipedia.org/wiki/Gran_colisionador_de_hadrones
http://www.espacioprofundo.com.ar/verarticulo/%BFQue_es_la_anti
materia%3F.htm
http://www.portalplanetasedna.com.ar/maquina_dios.htm
http://www.windows2universe.org/physical_science/physics/physics.
html&lang=sp

Cierta información fue recopilada en personas con conocimientos


de dicho proyecto, y en libros. Lo cual fue muy poco.
Los  
  (del griego ȕĮȡȪȢ, barys, ³pesado´) son una familia de
partículas subatómicas formadas por tres quarks. Los más
representativos, por formar el núcleo del átomo, son el neutrón y el
protón; pero también existe otro gran número de bariones, aunque
éstos son todos inestables. El nombre de barión se debe a que se
creyó, cuando fue descubierto, que poseía una masa mayor que
otras partículas.


x  
Von los constituyentes fundamentales de la materia. Varias
especies de quarks se combinan de manera específica para formar
partículas tales como protones y neutrones.
Los quarks son las únicas partículas fundamentales que
interactúan con las cuatro fuerzas fundamentales. Los quarks son
partículas parecidas a los gluones en peso y tamaño, esto se refleja
en la fuerza de cohesión que estas partículas ejercen sobre ellas
mismas. Von partículas de espín 1/2, por lo que son fermiones.
Forman, junto a los leptones, la materia visible.



Partícula con espín -1/2 (un fermión) que no experimenta
interacción fuerte (esto es, la fuerza nuclear fuerte). Los leptones
forman parte de una familia de partículas elementales conocida
como la familia de los fermiones, al igual que los quarks.
Un leptón es un fermión fundamental sin carga hadrónica o de
color. Existen seis leptones y sus correspondientes antipartículas: el
electrón, el muón, el tau y tres neutrinos asociados a cada uno de
ellos.

También podría gustarte