Entrada  | El Universo  | Cosmología  | Teoría  | Galería  | Autores  | Indice  | CD-ROM

 

El verdadero significado del descubrimiento de la partícula Higgs

Sergio Torres Arzayús

 
(Adaptado del artículo en Revista Javeriana, septiembre 2012)

Breve historia del universo

ATLAS event El universo se originó hace 13.700 millones de años. Durante la primera diez mil millonésima de segundo (1/10.000.000.000) solo existían partículas elementales y energía conformando un fluido de altísima densidad y temperatura. No existían átomos ni moléculas ni rocas, planetas o estrellas. Una propiedad extraña de esa época del universo era que las partículas elementales no tenían masa. Afortunadamente esa situación no se mantuvo por mucho tiempo. Otra propiedad del universo es que el espacio se expande causando una caída en la densidad y la temperatura. Gracias a ello más adelante la presencia de un campo subyacente "el campo de Higgs" se manifestó haciendo que las partículas adquirieran masa. Esto sucede porque las partículas "sienten" la presencia del campo como algo que ofrece resistencia al movimiento. A partir de este momento de la historia del universo el fluido primordial contiene los ingredientes necesarios --aun sin mezclar-- para fabricar todo lo que observamos en el universo: cuatro tipos de fuerza, el campo Higgs y 12 partículas elementales agrupadas en dos categorías rotuladas "quarks" y "leptones".

El famoso electrón descubierto por Joseph John Thomson en 1897 es un ejemplo de partícula elemental tipo "leptón". De los quarks ya hablaremos. En resumen: 4 fuerzas, 6 quarks, 6 leptones y el Higgs es todo lo que necesitamos para armar el universo visible. Eso es todo. El resto de la historia es dejar que continúe la expansión del espacio para que el universo se enfríe y así permita la formación de objetos más complejos a partir de esos elementos primordiales. Por ejemplo los neutrones y protones, que se encuentran en los núcleos atómicos, se formaron a partir de quarks (un protón está conformado por tres quarks) cuando la temperatura bajó a un billón de grados Kelvin. Pasados los primeros dos minutos del universo la temperatura bajó a 1.000 millones de grados Kelvin permitiendo así formar los primeros núcleos atómicos que aparecieron en el universo: el hidrogeno y el helio. Para ser más precisos: el núcleo de hidrogeno es un simple protón -- no hay que formarlo; el de helio se produce con reacciones nucleares que terminan fusionando dos neutrones y dos protones. En pocos minutos la temperatura baja aun más y ya las reacciones nucleares necesarias para formar los núcleos más pasados no se dan. Para la formación del carbono, el nitrógeno, el oxigeno, y los otros núcleos más pesados, tenemos que esperar 1.000 millones de años cuando se forman las primeras estrellas donde se producen las reacciones necesarias.

Con esto queda expuesta la historia del universo visible, que apenas es el 5% de lo que hay en el universo. El resto del universo está compuesto en un 22% de materia oscura y 73% de energía oscura. Como ven, la física del micro-cosmos y del macro-cosmos están íntimamente abrazadas y el campo de Higgs está justo ahí en medio del abrazo. Recientemente la prensa ha anunciado el descubrimiento de la partícula Higgs en el laboratorio CERN de Ginebra. Contando la historia del universo podemos atisbar el significado de este descubrimiento en un contexto más amplio de lo que cabe en la escueta noticia o comunicado de prensa.

¿Qué es el bosón Higgs? ¿Cómo se descubrió el Higgs y qué significa "confianza de 5-sigma"? ¿Cuáles son las implicaciones del descubrimiento? ¿Qué nos dice el descubrimiento del Higgs sobre cómo funciona el proceso científico?¿Cómo sabemos que la teoría de partículas es verdadera? ¿Qué aplicaciones prácticas tiene este descubrimiento? Y, ¿vale la pena financiar esos costosos proyectos? Este listado de preguntas es apenas una muestra de las inquietudes que el público manifiesta cuando presento estos temas en conferencias. Aquí hay tema para todo un libro; intentaré dar un minúsculo esbozo de respuesta.

¿Qué es el bosón Higgs?

CMS detector Comencemos aclarando el origen de los nombres. La partícula fue bautizada con el nombre de dos físicos: Satyendra Nath Bose y Peter Higgs. Bose desarrolló en 1924 una teoría que describe el comportamiento de un conglomerado de fotones. Los fotones son las partículas asociadas con la luz cuando ésta manifiesta un comportamiento corpuscular (dependiendo de las condiciones experimentales la luz también se manifiesta como onda). A partir del trabajo de Bose los físicos de partículas clasifican a las partículas como el fotón con el nombre de bosón. En esta familia de partículas encontramos a las partículas asociadas con las fuerzas, lo cual nos conduce al tema de fuerzas y campos. Por ejemplo, el campo magnético del cual todos hemos oído hablar. Coja un trozo de hierro en su mano y acérquela a un imán. Nuestros músculos van a sentir la presencia del campo magnético cuando experimentamos la fuerza con la que el imán atrae al trozo de hierro. En la física cuántica, a cada campo de fuerza le corresponde una partícula (de la familia de los bosones). Por ejemplo la fuerza electromagnética es transmitida por el fotón.

El modelo estándar de partículas y fuerzas iba por buen camino en la década de los 60, excepto que padecía un gran problema: todas las partículas elementales del modelo carecían de masa. En 1964 el físico inglés Peter Higgs (y separadamente otros 5 investigadores) se imaginó una estrategia para resolver el problema metiendo en las ecuaciones un término asociado con la masa de las partículas. En las ecuaciones ese término juega el papel de un campo (el campo de Higgs), así como el campo magnético, excepto que es un campo que no tiene una fuente. La fuente del campo magnético son cargas en movimiento, el campo de Higgs está en el vacío. Resumen: el bosón de Higgs es la partícula asociada al campo de Higgs que en las ecuaciones genera la masa de las otras partículas. En los aspectos relacionados con el comportamiento de un conglomerado de partículas, las partículas de Higgs siguen las propiedades de los bosones, de ahí su nombre "bosón de Higgs".

¿Cómo se descubrió el bosón de Higgs y qué significa "confianza de 5-sigma"?

El proceso es el siguiente: se cogen dos manojos de protones, se aceleran a una velocidad de 99.999% de la velocidad de la luz y se lanzan uno contra el otro de tal forma que uno de los quarks dentro de un protón se choque con uno de los quarks de otro protón. Eso fue justamente lo que hicieron en el laboratorio CERN. Como los protones están acelerados a velocidades extremadamente altas, la energía de movimiento de los protones se convierte en energía pura en el momento de la colisión. De ese almacén de energía pura se producen todo tipo de partículas, incluyendo el bosón de Higgs. El problema es que el Higgs es una partícula de mucha masa (un factor de 134 veces más pesada que el protón) y los productos de la colisión incluyen miles de partículas más ligeras que el Higgs, las cuales son más fácil de producir. Una vez producido el Higgs, éste tiene una vida media de pocas fracciones de segundo, después de lo cual decae en dos fotones o en cuatro leptones (existen otros modos de decaimiento). La tarea entonces es la de detectar esos dos fotones. La tarea es inmensamente complicada porque todos los otros productos del choque también generan fotones y otras partículas que pueden fácilmente simular el decaimiento del Higgs. Analogía: imagínese usted parado en el medio de un estadio donde simultáneamente están en concierto 10 grupos rock a todo volumen, con ese ruido de fondo se le pide a usted que detecte el sonido de un fino diapasón que emite un tono a una frecuencia específica. En caso de que usted reporte haber escuchado al diapasón, inmediatamente los físicos le van a preguntar: ¿cuál es la probabilidad de que ese sonido que usted atribuye al diapasón haya sido producto del ruido de fondo? Bueno, igual sucede con los físicos del CERN. Antes de poder reportar la observación del Higgs, para que el descubrimiento gane credibilidad los físicos tienen que demostrar que lo observado tiene muy baja probabilidad de ser mero producto del ruido de fondo. La norma es que esa probabilidad debe estar por debajo de 1/3.500.000. Este es un test estadístico que se llama "5-sigma".

Higgs decay

Señales recogidas por los detectores del proyecto CMS en el momento en el que una partícula Higgs decae en dos fotones (columnas laterales de color rojo). Las trazas de color amarillo son producidas por otras partículas que se producen en la colisión

¿Cuáles son las implicaciones del descubrimiento del Higgs?

Implicaciones para la cosmología: El modelo estándar de partículas y fuerzas solo explica el 5% del universo, sin embargo, fue muy importante haber descubierto el Higgs porque demuestra que el marco teórico de la teoría cuántica de campos y partículas sí funciona. Observar la materia y la energía oscura es el problema más saliente de la cosmología científica. Se espera que extensiones de ese marco teórico nos ayuden a entender el problema de la materia y la energía oscura.

Implicaciones para el entendimiento del proceso científico por parte del público: Los experimentos ATLAS y CMS que detectaron la partícula Higgs son colosalmente costosos y complejos, cada equipo cuenta con más de 3.000 científicos, CMS es un detector del tamaño de un edificio y pesa 14.000 toneladas. Es una maravilla ver como un experimento de esta magnitud muestra que una ecuación escrita en 1964 describe el mundo de una forma precisa y acertada. Esto demuestra que el proceso científico genera conocimiento valedero. La ciencia no es la única forma de aproximarse al universo, pero es una aproximación que goza de ventajas epistémicas. En general el público no tiene problemas aceptando resultados científicos, excepto cuando se trata de temas que intersecan la cosmovisión del individuo. Cuando doy conferencias sobre cosmología observo que algunas personas rechazan los razonamientos científicos, o inclusive la evidencia empírica, que explican el origen del universo. Es natural. La cosmovisión científica se basa en principios epistémicos diametralmente opuestos a la cosmovisión de muchos individuos. El problema es cuando, por razones ideológicas, encontramos rechazo de resultados científicos en asuntos que tienen graves consecuencias para la sociedad. Un ejemplo muy relevante es la situación que se está viviendo ahora en Estados Unidos en relación al tema del calentamiento global. El tema, que es eminentemente científico, es ahora manipulado por ideologías para avanzar fines políticos y comerciales. Esta situación me parece muy grave.

Volviendo al Higgs, el físico Leon Lederman escribió un libro sobre la partícula Higgs titulado "la partícula de Dios". El título es un infortunio descomunal, es producto de un estratagema publicitario para generar controversia y vender más libros. Es incalculable el daño que ese título le ha hecho al debate científico, porque lo que ha generado es mayor polarización en el debate público relacionado a la aceptación de los resultados científicos. Colocando a "Dios" en este debate lo que hace es polemizar, generar confusión y rechazo y confrontar la cosmovisión científica con la cosmovisión del individuo, lo cual en este caso no conlleva a desarrollos positivos.

¿Qué nos dice el descubrimiento del Higgs sobre cómo funciona el proceso científico?

Ecuacion Higgs

La ecuación que escribió Peter Higgs en 1964 (arriba) tiene consecuencias observables. La curva muestra el exceso de eventos detectados donde aparecen dos fotones con una energía total cercana a 126 GeV. Este tipo de eventos revelan la producción de la partícula de Higgs cuyo campo aparece en la ecuación.

De la experiencia ganada con la teoría y los experimentos en torno a la partícula de Higgs vale la pena resaltar los siguientes puntos: (a) los avances importantes en el conocimiento de la naturaleza están relacionados con entidades de las cuales no tenemos experiencia directa con nuestros sentidos; (b) gran parte de los productos de la ciencia son de naturaleza probabilística; y (c) el proceso científico avanza con la construcción de modelos del mundo.

En una época la elaboración de las teorías físicas se basaba en "el sentido común", es decir en datos de acceso directo a nuestros sentidos. Conocemos muy bien los errores a los que este modo de pensar nos condujo: pensábamos que la Tierra era el centro del universo porque eso era lo que nosotros experimentábamos. Hoy hablamos de entidades a las cuales no tenemos acceso directo: quarks, campo de Higgs, materia oscura, energía oscura, etc. El debate metafísico sobre si esas construcciones mentales tienen correspondencia con el mundo externo no ha generado avances útiles en el entendimiento de la naturaleza. Más importante es preguntarnos si esas ideas tienen capacidad explicativa y predictiva.

En 1860 el físico escocés James Clerk Maxwell desarrolló una teoría que explicaba de manera unificada todas las observaciones conocidas sobre electricidad y magnetismo. En el proceso predijo las ondas electromagnéticas y descubrió que la luz era una onda electromagnética. Para llegar a este logro fabuloso Maxwell suponía que el espacio estaba lleno de un sustrato material llamado éter que servía de medio para propagar las ondas electromagnéticas. Usando las propiedades mecánicas del éter, Maxwell desarrolló el formalismo matemático que hoy es fundamento de la física del electromagnetismo. El éter resultó ser una quimera, pero ¿qué importa? Fue un instrumento mental que sirvió de andamio para construir una teoría útil de la cual se derivaron aplicaciones (comunicación inalámbrica por ejemplo) de considerable impacto para la sociedad.

Que las teorías científicas tengan que apelar a instrumentos de la imaginación y a substancias imponderables no quiere decir que los resultados de la ciencia son arbitrarios. A medida que maduran las teorías y se consolida la evidencia empírica esas ideas se pueden convertir en realidades empíricas incontrovertibles. La esfericidad de la Tierra no la experimentamos directamente con nuestros sentidos, sin embargo los razonamientos de Eratóstenes (alrededor del año 250 a.C.) para medir la circunferencia de la Tierra dieron argumentos sólidos sobre la forma de nuestro planeta. Hoy gozamos de las maravillosas fotografías de la Tierra tomadas desde el espacio donde se aprecia la esfericidad de la Tierra. La interpretación de que las nebulosas espirales son galaxias enteras causó mucho debate al comienzo del siglo XX. Hoy la realidad de la existencia de las galaxias se acepta como hecho empírico incontrovertible. Otros instrumentos de la imaginación no corren la misma suerte. Los epiciclos de Tolomeo fueron abandonados, igual que el calórico, el éter y el flogisto. La ciencia funciona.

Gran parte de los productos de la ciencia son de naturaleza probabilística. Vamos al médico a enterarnos del resultado de un test de laboratorio y él nos informa que el diagnostico indica una probabilidad del 60% de que el tumor haga metástasis. El Panel Intergubernamental de Cambio Climático reporta que con una probabilidad del 90% el aumento registrado en la temperatura global del planeta desde la mitad del siglo XX es debido a acciones humanas. Los científicos del CERN reportan la observación de un evento en sus detectores consistente con los productos esperados del decaimiento la partícula Higgs dando una probabilidad de 1/3.500.000 de que esa observación pueda darse al azar por ruido de fondo (productos de la colisión). La naturaleza estadística de los resultados no le resta valor a la validez de las teorías científicas. Todo lo contrario, la capacidad de generar el margen de error de resultados y predicciones es una de las característica que le da a la aproximación científica ventajas epistémicas. Los astrólogos y los chamanes no nos dan un margen de error en sus predicciones.

La ciencia ha avanzado elaborando modelos que expliquen los datos y el proceso científico incorpora mecanismos para rechazar modelos que no son consistentes con las observaciones. Sí, es cierto que los teóricos siempre pueden modificar hipótesis auxiliares de sus teorías para acomodar los datos, como le recordó W. V. Quine a Popper. Sin embargo, un repaso a la historia de la ciencia, como lo recomienda Kuhn, también nos enseña que tarde o temprano los modelos que no funcionan terminan siendo desechados. Hoy no enseñamos en la universidad la teoría del calórico, o la del flogisto, tampoco la del éter, todas ellas propuestas por respetables científicos (o filósofos naturales) de en su época.

¿Cómo sabemos que la teoría de partículas es verdadera?

El modelo estándar de partículas y fuerzas fue desarrollado durante la década de 1960 y miles de experimentos realizados desde la fecha han producido resultados que cuadran con las predicciones de la teoría. Podemos decir entonces que la teoría es válida dentro del dominio experimental explorado hasta el momento. Eso es todo lo que podemos decir. Afirmar que una teoría es falsa o verdadera es de poca utilidad. La falsación de teorías científicas es una noción muy de moda durante los años en los que el positivismo lógico ejercía influencia (el circulo de Viena, Karl Popper, Rudolf Carnap, y otros durante comienzos del siglo XX). Si insistimos en clasificar a las teorías como "falsas" y "verdaderas" pues la mayoría de teorías que hoy enseñamos en la universidad son falsas. La mecánica de Newton, por ejemplo, que aprenden nuestros ingenieros para construir puentes y edificios ha sido falseada porque no explica el comportamiento de sistemas mecánicos a alta velocidad (estamos hablando de velocidades que se aproximan a la velocidad de la luz). Es más útil hablar del dominio de validez de la teoría. La teoría de Newton tiene un dominio de validez conocido, y más allá de esa frontera tenemos que usar la relatividad de Einstein, pero eso no significa que tenemos que quemar los libros de mecánica clásica y enseñarle relatividad a los estudiantes de ingeniería civil para que puedan construir puentes.

¿Qué aplicaciones prácticas tiene este descubrimiento? Y, ¿vale la pena financiar estos costosos proyectos?

Devolvámonos en el tiempo a 1897, entremos al laboratorio donde está J. J. Thomson justo después de haber descubierto el electrón. Señor Thomson: ¿Qué aplicaciones prácticas tiene su descubrimiento? Nadie pone en duda hoy en día las profundas implicaciones que la electricidad y la electrónica ejercen en la sociedad moderna.

En 1928 el físico inglés Paul Dirac, mientras escribía ecuaciones en una hoja de papel se dio cuenta que en las ecuaciones aparecían términos correspondientes a una partícula idéntica en todo al electrón excepto que poseía carga eléctrica de signo opuesto (positiva) y, más sorpresivo aun, cuando ese electrón positivo entra en contacto con uno negativo, las dos partículas desaparecen y toda la masa en ellas se convierte en luz. Así Dirac descubrió la antimateria. Hoy la antimateria es un producto rutinario de laboratorios y en los hospitales se usa en la tecnología de diagnostico llamada tomografía por emisión de positrones. Año 1928: Señor Dirac: ¿Qué aplicación práctica tiene su descubrimiento? Pregunta al lector: ¿valió la pena financiar los trabajos de investigación de Thomson y Dirac?