A pocas horas del final de este año 2016, creo que es bueno mirar atrás, y recordar que noticias y eventos han sido los más destacados. Ha sido un año emocionante sobre todo en el terreno personal, pero también astrónomicamente hablando. Cara a recordar lo más destacado del año os he preparado una colección de 12 posts, uno por cada mes, que he considerado como más destacados. Evidentemente es una elección personal, pero espero que os guste.

[…]

De Broglie uno de los físicos que cimentó las bases de la mecánica cuántica. Su principal aportación, la cual fue desarrollada durante su doctorado y por el cual recibió el premio Nobel de física en 1929, se conoce como el postulado de De Broglie (y del que surge la dualidad onda-corpúsculo) y vamos a describirlo para entender en que consiste. Sea un fotón con un vector de onda K=kv con un momento lineal (hk)/(2·pi) (siendo h la constante de Planck) y una energía E=(hw)/(2·pi) (siendo w la frecuencia angular). 
De Broglie supuso que lo aplicado a los fotones se pude aplicar a la materia. Así, sea una partícula material de masa m, momento lineal p y energía E, la onda asociada a esta partícula será descrita mediante un vector de onda K=(2p·pi)/h y una frecuencia angular w=(2E·pi)/h, y se define la longitud de onda de De Broglie como l=(2·pi)/K=h/p. De este modo con la onda de materia aparecen fenómenos ondulatorios. Tenemos que tener cuidado, pues a pesar de la suposición aplicada, no es igual que para un fotón, pues su velocidad de fase de onda no es la misma que para una partícula material.

El sentido que tiene la longitud de onda De Broglie es una indicación de la escala a la que los fenómenos cuánticos van a ser importantes. Es fundamental ver que la función de onda f(r,t) que describe la onda de materia es una manera de expresar matemáticamente un estado cuántico de la partícula, pero no representa directamente propiedad física alguna. 
Básicamente es una herramienta para lograr obtener dichas propiedades. De este modo, si la partícula tuviese un único grado de libertad, f(r,t) debe describirlo y puede tener varias componentes, siendo formalmente un vector, en el caso de que la partícula tenga espín. Si no tiene espín, f(r,t) será un escalar, y este postulado se aplicará sobre estas partículas. Además la función de onda será compleja con la forma f(r,t)=f(0)·exp(i(kr-wt)). 

Un ejemplo…

Veamos un ejemplo. Vamos a calcular la longitud de onda De Broglie de las ondas de materia asociadas a un electrón acelerado por una diferencia de potencial de 1 eV. Así lo primero que comprobamos es si necesitamos un enfoque relativista o no. Para ello comparamos el valor de la energía cinética del electrón con m(e-)c^2 (siendo m(e-) la masa del electrón y c la velocidad de la luz en el vacío). Dado que la energía cinética, como hemos dicho, es 1 eV, mientras que su masa es de 0,511 MeV/c^2. Por tanto, no necesitamos un enfoque relativista. Así desarrolla la expresión de la longitud de onda de De Broglie será:

      l = h/p = h/(2m(e-)K)^(1/2) = hc/(2m(e-)(c^2)K)^(1/2) = …
         … = (12360 eV·angstrom)/(2·(511000 eV)·(1 eV))^(1/2) = 3,88 angstroms



Nota: un angstrom es 0,1 nanómetro o 1×10^(-10) metros

 índiceTal día como hoy, el 14 de marzo de 1879 nacía Albert Einstein. En este post, recordamos en el aniversario de su nacimiento a uno de los grandes personajes que nos ha dejado la historia. Lo haremos con una selección de sus citas más carismáticas ilustradas con fotografías del científico.

 “Quiero irme cuando quiero. Es de mal gusto prolongar artificialmente la vida. He hecho mi parte, es hora de irse. Yo lo haré con elegancia.”

Todos somos muy ignorantes. Lo que ocurre es que no todos ignoramos las mismas cosas.

Nunca consideres el estudio como una obligación, sino como una oportunidad para penetrar en el bello y maravilloso mundo del saber.

Si buscas resultados distintos, no hagas siempre lo mismo.

La vida es muy peligrosa. No por las personas que hacen el mal, sino por las que se sientan a ver lo que pasa.


Hay una fuerza motriz más poderosa que el vapor, la electricidad y la energía atómica: la voluntad.

Los grandes espíritus siempre han encontrado una violenta oposición de parte de mentes mediocres.El estudio y, en general, la búsqueda de la verdad y la belleza conforman un área donde podemos seguir siendo niños toda la vida.

La educación es lo que queda una vez que olvidamos todo lo que aprendió en la escuela.

 

Lo importante es no dejar de hacerse preguntas.


Nunca pienso en el futuro. Llega demasiado pronto.No creo en el miedo de la vida, en el miedo de la muerte, en la fe ciega. No puedo probarle a usted que no hay un Dios personal, pero si hablara de él, sería un mentiroso.


No se puede acabar con el dominio de los tontos, porque son tantos, y sus votos cuentan tanto como los nuestros.El problema del hombre no está en la bomba atómica, sino en su corazón.

 

Hay dos maneras de vivir su vida: una como si nada es un milagro, la otra es como si todo es un milagro.Intenta no volverte un hombre de éxito, sino volverte un hombre de valor.

El azar no existe; Dios no juega a los dados.

¡Triste época la nuestra! Es más fácil desintegrar un átomo que un prejuicio.

Dar ejemplo no es la principal manera de influir sobre los demás; es la única manera.

 


Si mi teoría de la relatividad es exacta, los alemanes dirán que soy alemán y los franceses que soy ciudadano del mundo. Pero si no, los franceses dirán que soy alemán, y los alemanes que soy judío.
[Artículo cedido por Astrofísica y Física]

El física clásica, el movimiento de una partícula y su estado se deduce de la posición r y el momento lineal p: (r,p). Mediante las ecuaciones del movimiento conocemos como evoluciona (r(0),p(0)) -> (r(t),p(t)), siendo una evolución determinista. Sin embargo se desprecia que toda medida perturba el estado del sistema y se asume que se puede medir con la precisión necesaria. Y no solamente eso, además también se supone que se pueden medir varias magnitudes simultáneamente. Sin embargo, esto no es válido a escala microscópica.
Si usamos una doble rendija de Young para ver cómo se comportan los fotones emitidos desde una fuente remota, observamos que aparece un patrón de interferencia, y la densidad de impactos es proporcional a la probabilidad de detectar una partícula en un punto de la pantalla. Si ahora repetimos el experimento pero tapando una rendija, de modo que sabemos por cuál va a pasar el fotón, no aparece el patrón de interferencia anteriormente detectado. Así pues, está claro que no puede describirse el proceso que ocurre en términos de los valores de su posición y momento lineal.

El estado cuántico
El estado cuántico puede describirse mediante una onda, que se llamará onda de materia. La representación matemática de la onda de materia mediante un campo dependiente del tiempo se conoce como función de onda y la interpretación que de ésta hagamos debe hacerse en modo probabilístico. En concreto el estado cuántico de la partícula no permite saber a priori el resultado de una medida experimental, pero si su probabilidad. Además el estado cuántico debe contener toda la información sobre la partícula que sea experimental accesible
Veamos en detalle el proceso de la doble rendija. Denominemos como A a la lámina con las dos rendijas. Si se tapa una rendija, sólo llegan a la pantalla los fotones que llegan a la lámina A o bien en una rendija (la 1) o en la otra (la 2). Sea f1(r,t) la función de onda que llega a la rendija 1 y f2(r,t) la que llega a la 2. En el caso de una sola rendija abierta la intensidad medida en la pantalla será:
      I(total)=I(1)+I(2)
no habiendo patrón de interferencia y la onda de materia será una mezcla incoherente de f1 y f2.
Sin embargo con ambas rendijas abiertas, ahora ya no sabemos si el fotón llega a través de una o de la otra, y por lo tanto ocurre con una superposición coherente:
      ft(r,t)=f1(r,t)+f2(r,t)
Ahora ya no es equivalente a la suma de intensidades, sino a la intensidad de la suma de las funciones de onda:
      I(total)=I(f1+f2)

Veamos como ocurre todo esto. Supongamos que el plano que contiene la trayectoria inicial del fotón es (x,y). Por lo tanto el fotón, inicialmente, no tiene momento lineal en el eje z (p(z)=0). Tras pasar por una rendija, el patrón de interferencias observado obliga a aceptar que el momento lineal en la componente z ha cambiado y que no es nulo, por lo que dicho momento no está bien definido y no es predecible. Es más, la medida de un valor puede alterar el valor de la probabilidad de ocurrencia de otra magnitud.
Todo esto nos lleva al conocido como principio de incertidumbre de Heisenberg (del que ya hablaremos en otro artículo). No obstante hay que tener en cuenta que cuando tenemos una partícula en un estado cuántico inicial, ésta evolucionará como consecuencia de la acción de una serie de fuerzas que actúan sobre ella y por lo tanto tendrá una evolución determinista. Esto nos lleva a la necesidad de hablar de llamado problema de la medida y el colapso de la función de onda (que también tratamos en otro artículo aparte).

Entropia

Es común pensar, que la vida en la Tierra es gracias a la energía que recibimos del Sol. Sin embargo, esto no es del todo cierto: la energía que recibe la Tierra es aproximadamente la misma que radia al espacio. En caso contrario la Tierra se calentaría hasta que alcanzase un equilibrio térmico, el cual no sería compatible con la vida tal y como
la conocemos. El verdadero “motor” de la vida es la llamada entropía.

La entropía es una magnitud física cuya formulación fue realizada por Lord Kelvin en 1851 y que está ligada a la termodinámica. La entropía, que básicamente expresa el grado de orden de un sistema, mediante el denominado segundo principio termodinámico establece que en cualquier proceso termodinámico, la entropía de un conjunto de sistemas que interaccionan aumentará o se mantendrá constante: nunca se reducirá. Según la formulación debida a Boltzmann:
       S = k ln(V)
se establece que el valor de la entropía (S) equivale a multiplicar la constante de Boltzmann por el logaritmo del volumen del espacio de fases. Sea el grado de libertad los números cuánticos necesarios para determinar completamente un microestado en un sistema, se define el espacio de fases como un espacio multidimensional en el cual a cada punto le corresponde un microestado del sistema. Si existen f grados de libertad, entonces habrá 2f dimensiones, correpondientes a f coordenadas de posición y f coordenadas de momento. 
Usando un ejemplo típico, un huevo encima de la mesa es un estado extraordinariamente ordenado, y por tanto de muy baja entropía. Supongamos que el travieso gato Johnsy se sube a la mesa, mueve el huevo, éste cae al suelo y se rompe, pasa a un estado muy desordenado, y por tanto de mayor entropía. El proceso inverso, es irreversible, pues es una situación altamente improbable que además viola el segundo principio de la termodinámica, al ser un proceso que evoluciona de una entropía superior a otra menor. La vida es un sistema extremadamente organizado y por tanto de una entropía muy baja. Ahora la pregunta es como es posible dicha situación, pues debe haber evolucionado desde estados de entropía aún menor (y por tanto más organizados aún). Así la vida, debe respetar dos principios: el de conservación de la energía y el segundo principio de la termodinámica.
La fuente que buscamos de entropía es realmente nuestro Sol. Lo que permite la existencia de la vida es que el Sol es más caliente que el espacio oscuro. Recibimos fotones de una frecuencia mayor a los fotones que la Tierra devuelve al espacio. Los fotones que recibimos, al ser de mayor frecuencia, tienen
más energía (Según la formulación de Planck: E=hf). Esto provoca que para emitir al espacio la misma energía que recibimos necesitamos emitir al espacio más fotones que los que recibimos. La consecuencia de esto, como explicamos al comienzo, existen más grados de libertad en el sistema, y por lo tanto el volumen del espacio de fases será mayor que el correspondiente a la energía que recibimos. Evidentemente al tener un volumen del espacio de fases mayor, de acuerdo con la formulación de Boltzmann, la entropía es muy superior en la energía que radiamos al espacio que la que recibimos del Sol.
Los fotones son las partículas mediadoras de la interacción electromagnética, y son lo que se denominan, fotones virtuales: así mismo otras partículas mediadoras también son virtuales.Pero ¿Qué es una partícula virtual? ¿Existe realmente? La existencia de una partícula virtual se produce temporalmente y mediante una violación de la conservación de la energía.

 

¿Cómo puede ocurrir ésto? Según el principio de incertidumbre de Heisenberg, el grado de conocimiento de cantidad de momento y posición de una partícula implica que existe cierto grado de desconocimiento. Pero no sólamente existe esta relación (la más conocida). Hay otra que relaciona energía y tiempo:
De este modo dentro de esta incertidumbre hay lugar para que exista una partícula virtual por un breve periodo de tiempo que será  aproximadamente dada por la siguiente expresión:
Podemos aclararlo un poco más con un sencillo ejemplo, vamos a calcular al alcance de la fuerza nuclear débil. En este caso son los bosones W+, W- y Z0 las partículas mediadoras, que tienen masas entre 80 y 90 GeV (usemos por ejemplo 85 GeV para el ejemplo) Por la relación de incertidumbre de energía-tiempo dada anteriormente y conociendo que el valor de la constante de Planck es 6,583×10^(-25) GeV, tenemos que el tiempo es 7,74×10^(-27) segundos. Si suponemos que la partícula creada viaja a la velocidad de la luz, en el “tiempo de vida” que tiene, habrá viajado:

e = c x t = 3×10^8 x 7,74×10^(-27) = 2,32×10^(-18) metros

Como se puede ver, esta distancia es menor que el tamaño de un núcleo atómico.

 

Uno de los postulados de la física cuántica establece la conocida como reducción del estado cuántico según la cual, si |f(inicial)> se efectúa una medida ideal de una magnitud A que da valor de A dentro de un intervalo S, el estado tras la medida será |f(final)>=P(S)|f(inicial)>, siendo P(S) el proyector ortogonal correspondiente a S. Así el uso de un aparato de medida M introduce una transformación según la cual |f(inicial)> se convierte en |f(final)>, mediando un colapso de la función de onda y que resulta incompatible con las leyes de evolución cuántica de Schrödinger. A esta situación se la conoce como el problema de la medida.
Un caso para comprender el problema
Para estudiar esta situación, planteemos el siguiente caso. Se desea medir idealmente un observable A de un sistemas de estados e(P) al que denominaremos partícula. Dado un dispositivo M y pudiendo A tomar los valores +a y -a, M podrá indicar una medida neutra |g(0)>, una medida A=+a |g(+)> y una medida A=-a |g(-)>. El proceso de medida comienza en un estado |g(0)> correspondiente a la posición neutra del aparato de medición. Si el estado inicial de la partícula fuese |f(+)>, la medida daría A=+a, siguiendo la siguiente pauta: 
      |f(+)>·|g(0)> –(ES)–> |f(+)>·|g(+)> 
donde ES corresponde a la evolución de acuerdo a la ecuación de Schrödinger. Si hubiese sido |f(-)>, la pauta sería: 
      |f(-)>·|g(0)> –(ES)–> |f(-)>·|g(-)> 
y el aparato de medida indicaría A=-a.

Ahora si el estado inicial de la partícula es la superposición |f>=c|f(+)>+d|f(-)>, el proceso sería: 

      |f>·|g(0)> –(ES)–> c|f(+)>·|g(+)>+d|f(-)>·|g(-)>
terminando el sistema en un estado entrelazado que equivale a la superposición coherente de dos estados. De modo que esta evolución no es compatible con que se haga una medida definida. De modo que |f>·|g(0)> se reduce o bien a |f(+)>·|g(+)> con probabilidad |c|^2 o bien a |f(-)>·|g(-)> con probabilidad |d|^2. El problema viene ahora cuando queremos determinar cómo y cuándo se produce la reducción, o cómo se pasa de una superposición coherente a una mezcla incoherente.
Diversas propuestas para explicarlo
Existen diversas propuestas para explicar lo que ocurre durante el proceso anteriormente detallado, si bien ninguna está comprobada y tienen sus defensores y detractores. Hay para todos los gustos.
Una propuesta, defendida por Von Neuman -y cada día con menos defensores- indica que la interacción entre aparato y el sistema cuántico no puede estudiarse con las leyes de la mecánica cuántica. Así considera que el colapso de la función de onda es producto del análisis del observador.
Otra propuesta consiste en suponer que la teoría cuántica no es completa. Si bien la predicciones a nivel estadístico con correctas, esta propuesta considera que hay aspectos en los que un sistema físico no es completo. No obstante, no tiene respaldo experimental para ser demostrada.

Eugene Wigner propuso que la evolución cuántica únicamente se puede considerar lineal para sistemas simples aislados. Así, la ecuación de Schrödinger debería transformarse si el sistema es complejo y con gran número de grados de libertad, de modo que la linealidad del hamiltoniano se rompa. Sin embargo los experimentos indican que el carácter lineal del mundo cuántico es difícilmente refutable.

La explicación más aceptada consiste en suponer que el colapso del estado es una consecuencia de los estados y sistemas cuánticos cuando están completamente aislados del entorno. Así, la pérdida de coherencia viene dada por la interacción del entorno del sistema partícula-aparato de medida.
Y existe otra propuesta mucho más exótica que todas las anteriores: la descripción cuántica de un sistema físico incluye implícitamente otros elementos externos. Dicho así no parece muy exótico, pero si hablamos de la teoría de los “muchos mundos” (diferentes “universos”) o de la teoría de las “muchas consciencias” (la mente del observador) ya la cosa cambia. Así, cada vez que se realiza una medida el universo se desdobla en tantos universos paralelos como posibles resultados pueda dar la medida, de modo que realmente no hay colapso: cada componente sigue existiendo en diferentes universos paralelos.

Max Planck
Fundamentalmente fueron tres y dieron lugar al nacimiento de la física moderna.
1. Radiación de cuerpo negro:
Un cuerpo a altas temperaturas emite en todas frecuencias: la intensidad tiende a 0 para longitudes de onda muy cortas o muy largas. Presenta un máximo en gráfico I/l (Intensidad frente a longitud de onda) en lmax que depende de la temperatura. Si se cierra una superficie a estilo de un horno y observamos, descubrimos que:
       lmaxT = C0 = 0,2898 cm K
que se conoce como la Ley desplazamiento de Wien, que da que C0 es constante universal. La distribución espectral independiente de la forma de la cavidad y del material de la superficie del cuerpo negro es aquella que absorve toda radiación que incide sobre ella. La radiación de cuerpo negro es aquella que emerge por el orificio. Planck resuelve el misterio en 1900: solo se puede tomar o ceder electrones en cantidades de energía en porciones:  E=hv
Se conoce como la Ley de radiación de Planck a:

2. Efecto fotoeléctrico:
Si luz incide sobre una superficie metálica emite electrones, pero la energía cinética de los electrones independientemente de la intensidad de la luz. En 1905 Einstein da solución:
      Ecin = E-W = hv-W
donde W es el trabajo de extracción. Millikan lo probó experimentalmente. Si hay una diferencia de potencial debe de ser debido a que: 
      eV > E(cinética)
siendo el potencial crítico: 
      V(0) = (hv-W) / e
(Más información en el blog de Verónica Casanova Astrofísica y Física)
3. Estabilidad y tamaño de los átomos:
En 1910 Rutherford descubre que el átomo se compone de núcleo una capa de electrones. En 1913 Bohr formula lo que se conocen como Condiciones cuánticas de Bohr
 descubrió que en el estado fundamental no emite radiación.
(Más información sobre partículas elementales en el post Partículas elementales en el Universo)



Detección de los rayos gamma

Hay tres formas de realizar la detección de estas energéticas partículas:
Efecto fotoeléctrico:
El rayo gamma interactúa con un electrón transfiriéndole su energía. El electrón es expulsado del átomo. Es válido para fotones de energía inferior a 0,5 MeV.
Efecto Compton:
El rayo gamma incide en un electrón, expulsándolo del átomo. La energía restante de transforma en una reemisión de una nuevo fotón de rayo gamma de baja energía, aunque en diferente dirección del fotón incidente. El rango de energías va de 100 KeV a 10 MeV (típicamente las que se dan en explosiones nucleares).
Creación de pares:
La energía del fotón gamma, al estar próximo a un núcleo atómico y debido a su interacción con el campo eléctrico, crea un par electrón-positrón. posteriormente este par se combinan en la creación de dos fotones gamma de 0,51 MeV cada uno.


Telescopios espaciales de rayos gamma

Observan directamente los rayos gamma desde el espacio y se basan dos técnicas:
– Mediante el uso de espejos concéntricos que envían los rayos a un foco, desviando el rayo poco a poco: dado que los rayos gamma pueden penetrar  la materia, la desviación de los rayos debe ser poco a poco y gradualmente
– Mediante detectores de partículas, en particular en la producción de pares electrón-positrón.
La mejor resolución viene dada por las más altas energías, ya que es más fácil la detección de los pares electrón-positrón, ya que su dirección es más próxima al rayo gamma original.

 

Uno de los telescopios espaciales de rayos gamma más conocidos es el Fermi, lanzado en Junio de 2008. Su principal instrumento es el Telescopio de Gran Superficie LAT, que estudia rayos gamma entre 100 MeV y 100 GeV y tiene un campo visual del 20% del cielo. En 2010 descubrió dos grandes burbujas procedentes del centro de la Vía Láctea.


Telescopios Cherenkov

Cuando las energías son muy altas, en la alta atmósfera se crea una cascada de partículas que dan origen a la conocida radiación Cherenkov. Se suele producción a unos 10 kilómetros por encima de la superficie terrestre y la cascada forma un cono de unos 2º y cubre un área en la superficie de 120 metros de radio. Esta radiación se caracteriza por ser débil, extensa y breve (en el orden de nanosegundos).

 

Esta radiación es uno de los modos de hacer astronomía de rayos gamma desde la superficie terrestre. Para ello se usan los llamados telescopios Cherenkov. El telescopio HESS está situado en Namibia y trabaja con energías de los 100 GeV. Consta de cuatro antenas de 13 metros cada una. En España tenemos el MAGIC, situado en La Palma. Se trata de un telescopio Cherenkov de 17 metros y formado de 1000 espejos. Una característica de este instrumento es la posibilidad de focalizar los espejos a distancias entre 5 y 40 kilómetros. Cara al futuro está previsto la puesta en marcha del Cherenkov Telescope Array (CTA), formado por 50 telescopios y que mejoraría en un factor 5 la resolución actual.

Introducción

En el mes de diciembre publique una serie artículos donde mostraba una forma de observar el Universo muy diferente a la que habitualmente se conoce. En aquella ocasión se presentaron los fundamentos de la radioastronomía. En esta ocasión presento otra forma de estudiar el universo: la astronomía de rayos gamma.La astronomía de rayos gamma es aquella en la que se observan fotones de rayos gamma. Estos fotones, de alta energía, se originan en fenómenos violentos tales como GRBs, explosiones de supernovas o chorros de partículas. Al igual que ocurrió con la radioastronomía, veremos que es una técnica radicalmente diferente a los clásicos telescopios ópticos.


Los rayos gamma

Los rayos gamma son un tipo de radiación electromagnética, por lo que está formada por fotones, pero en este caso, a diferencia de los que observamos en el visible, son de muy alta energía. Es tal la energía, que pueden penetrar la materia. Su longitud de onda típica es de 10^(-11) metros y se producen por la desexcitación de un nucleón en estado excitado a otro nivel de menor energía, aunque también se pueden generar a partir de una desintegración radiactiva (en tal caso es uno de los tipos de radiaciones radiactivas  junto con la alfa y la beta). Otra característica importante es que no interaccionan con los campos magnéticos. La capacidad de penetración de los rayos gamma en la materia viene expresada mediante la siguiente fórmula:

I(d) = I(0) exp (-md)
donde m es el coeficiente de absorción y d el grosor.

Sin embargo estas partículas son detenidas en la alta atmósfera terrestre, no llegando a la superficie. Sin embargo, cuando la energía de estos fotones supera el GeV puede causar una cascada de partículas, las cuales generan la conocida radiación Cherenkov.

Historia de la astronomía de rayos gamma

Debido a que los fotones de rayos gamma son detenidos por la alta atmósfera, las primeras observaciones se realizaron mediante globos sonda y cohetes, y posteriormente, por  satélites artificiales. A continuación se presenta una breve cronología:
– 1948: Feenberg y Primakoff indican que puede haber un gran número de fenómenos que producen la emisión de rayos gamma.
– 1961: El satélite Explorer-XI se convierte en el primer telescopio de rayos gamma, aunque únicamente detecta poco más de 100 fotones.
– 1967: El satélite OSO III realiza la primera detección de rayos gamma procedentes de la Vía Láctea.
– 1972: El satélite SAS-2 establece la relación entre las emisiones de rayos gamma y la estructura galáctica.
– 1975: El satélite COS-B realiza dos grandes aportaciones: realiza un mapa de la Vía Láctea y descubre 25 nuevas fuentes.
– 1991: El Compton se convierte en el primer gran telescopio de rayos gamma.
– 1996: El satélite BeppoSAX tiene una resolución de 5′, lo que es una auténtica revolución en la astronomía de rayos gamma, y le permite estudiar remanentes de rayos gamma en galaxias distantes.
– 2002: El Integral tiene una resolución de 3′, mejorando la del BeppoSAX.
– 2010: El telescopio espacial Fermi descubre dos burbujas gigantes procedentes del centro de la Vía Láctea.