Medir lo “inmedible”

30 septiembre, 2012 | Por | Categoría: Ideas
Vivimos rodeados de objetos que necesitamos cuantificar. El agua que consumimos en nuestras casas, el trayecto que recorremos para llegar al trabajo o la cantidad de harina que lleva nuestro pastel favorito. Todos ellos ejemplos cotidianos cuya medida nos resulta familiar y sencilla. Basta con una balanza, una cinta métrica o un cronómetro y el problema queda resuelto. Pero, ¿qué ocurre si lo que necesitamos medir es diez millones de veces más pequeño que un cabello, o sucede en un intervalo de tiempo otras tantas veces menor que un abrir y cerrar de ojos?

Experimento Isolde Laser en el CERN. Foto: Press Office CERN.

Intentando responder a la pregunta de cómo medir, podemos empezar por definir qué medir. Si hablamos de metrología –la ciencia que estudia las mediciones– en niveles tan pequeños como los nanomateriales, nanoestructuras y nanodispositivos, no todas las magnitudes físicas son de interés. Con el uso de la microscopia se hacen caracterizaciones superficiales para conocer tamaños de dominios nanométricos, en otras ocasiones se hacen mediciones indirectas de parámetros mecánicos y ópticos los cuales nos permiten conocer el comportamiento de objetos con composición nanométrica, etcétera. Por ejemplo en el estudio de la nanoquímica es importante conocer la composición de los materiales a la hora de obtener una nanoestructura, sin embargo no es importante medir la masa de los dominios de tamaño nanométrico. Por este motivo lo más importante es saber para qué medimos. El éxito o fracaso de un experimento necesita de mediciones precisas de las magnitudes involucradas.

En la actualidad, los campos más importantes de la física se dedican a lo muy grande o a lo muy pequeño. Desentrañar los secretos de planetas a trillones de años luz del nuestro o caracterizar las partículas fundamentales. Hemos comenzado por las nanopartículas, invisibles al ojo humano, que han marcado grandes avances en la tecnología. Un nanómetro es el resultado de dividir un metro en mil millones de partes iguales. Los virus, por ejemplo, miden entre 100 y 300 nanómetros, lo que significa que en la cabeza de un alfiler podríamos meter 10.000 de ellos sin que faltara espacio. Los objetos de esta dimensión no fueron observables hasta la invención de la microscopía electrónica, a principios de los años treinta. Hoy día, la construcción de mecanismos inteligentes a partir de partículas nanométricas supone un reto para los científicos, pero aún más caracterizar estas partículas. Un esfuerzo que ha servido para dar el primer paso hacia la  obtención de resultados precisos sobre partículas un billón de veces más pequeñas, como los neutrinos.

Un punto a tener en cuenta es que, hasta hace tres décadas, ni siquiera existían instrumentos capaces de medir objetos nanométricos, cuanto menos que pudieran determinar la masa de un átomo. Así que los avances en el campo de la nanotecnología han contribuido a mejorar esta área de la metrología. Por ejemplo, se han llevado a cabo experimentos para obtener la masa de átomos a través de instrumentos basados en nanoestructuras. Unos nanotubos de carbono sobre los que los investigadores proyectan los átomos que quieren cuantificar. La nanoestructura se comporta como una cuerda de guitarra que vibra en cada golpe, y los átomos lanzados contra los tubos quedan adheridos a su superficie, lo que hace aumentar su masa y reducir su frecuencia de resonancia. A partir de la variación de frecuencia, los científicos pueden deducir la masa del grupo de átomos adheridos.

Observamos a través de estos experimentos cómo la ciencia de la medición ha evolucionado con herramientas nuevas y más precisas, tratando de establecer  patrones fiables y reproducibles. Si descendemos en la escala métrica hasta la metrología a nivel cuántico, la búsqueda de avances se centra en mejorar las mediciones vinculando la teoría cuántica  con las constantes fundamentales de la naturaleza, con objeto de pasar desde ahí a la normalización. Imaginemos un grupo de investigadores que estudia el Alzheimer y utiliza isótopos como marcadores o como unidades de transporte de otras partículas de tamaño infinitesimal. Si los científicos quieren medir la composición de los elementos químicos o la constitución de los isótopos atómicos deberán usar un espectrómetro. Se trata de un instrumento que permite que se analice la composición con suma precisión. Para ello, esta herramienta separa los núcleos atómicos, siempre teniendo en cuenta la relación entre la masa y la carga. Este elemento puede medir razones de carga y de masa de iones mediante el proceso de calentamiento de un haz de material del compuesto que se quiere analizar, hasta que éste alcance un estado de vaporización de todos los átomos correspondientes.

Más allá de los límites

Muchas de las mejoras que se han producido en el campo de la metrología surgen de desafiar los límites. Desde hace algunos años, la parte de la ciencia que ocupa la física de partículas se ha centrado en el estudio del Bosón de Higgs. Para ello, se construyó el LHC (siglas en inglés del Gran Colisionador de Hadrones), el mayor acelerador de partículas del mundo, que recientemente ha conseguido detectar esta partícula. El bosón es, en este caso, lo que los investigadores buscaban, pero, para definir este hallazgo, se encuentran de nuevo con el problema de qué medimos y cómo lo medimos. En los aceleradores se encuentran los detectores de partículas, instrumentos encargados de registrar y visualizar las explosiones de partículas que resultan de las colisiones. La información obtenida sobre la velocidad de una partícula, su masa (dada GeV/c, es decir, unidades de energía cinética divididas por la velocidad de la luz en el vacío) y su carga eléctrica ayuda a los físicos a identificar la partícula.

El trabajo que llevan a cabo los científicos del laboratorio de física de partículas es hallar la identidad de la partícula, que ha pasado a través del detector de forma similar a un arqueólogo que sigue los rastros dejados a su paso por una antigua civilización a fin de caracterizar su sociedad. Para ayudar a identificar las partículas producidas en las colisiones, el detector incluye generalmente un campo magnético debido a que una partícula que normalmente viaja en línea recta, en presencia de este campo, dobla su trayectoria formando una curva. A partir de la curvatura de la trayectoria, los físicos pueden calcular el momento de la partícula que ayuda en la identificación de su tipo.

Las partículas de las que hablamos pueden compararse con aviones que vuelan a una gran altura, invisibles a un primer vistazo,  pero que pueden identificarse por las estelas que dejan a su paso. Así, cuando las partículas pasan a través de determinadas sustancias, presentes en el medio, interactúan con ellas dejando un rastro detectable. No se trata de un rastro tan visible como en el caso del avión, sino de señales eléctricas que se pueden traducir y grabar como datos informáticos. Por último, el programa informático reconstruye los patrones de pistas grabadas por el detector y los muestra en una pantalla. Los ingenieros que diseñan estos detectores suelen compararlos con enormes cámaras digitales en tres dimensiones, que llegan a tomar 40 millones de fotografías por segundo que, a su vez, son digitalizadas por decenas de millones de sensores.

Siguiendo con el ejemplo del Bosón de Higgs, los resultados de su hallazgo estiman su masa en 130 veces la masa de un protón, estableciendo un nivel de confianza del 95%. El patrón de medida del protón ha sido, durante décadas, el átomo de hidrógeno, compuesto por un electrón y protón. Las técnicas de microscopía actuales hacen incidir la luz en el átomo de este elemento hasta conseguir observar el protón y medir su radio de carga, unas medidas con las que los físicos calculan el tamaño de objetos de una escala 1000 billones de veces menor que un metro.

Como vemos, en muchos casos la magnitud de interés no es directamente la final requerida sino que se utilizan medidas de magnitudes intermedias. Además, las medidas se toman en conjuntos de modo que puedan establecerse intervalos de confianza en cuanto a la precisión de la medida. Esta tarea se hace complicada por la inmensa cantidad de parámetros a tener en cuenta para minimizar lo que se conoce como ruido en la medición, que afecta tanto a la exactitud como a la precisión de la medida. Los temas de mayor preocupación entre los investigadores de la rama de metrología cuántica incluyen: las normas apropiadas de medición, las técnicas de calibración y los métodos de detección teniendo en cuenta los factores de influencia.

A modo de ejemplo, en la medida de las fuentes de radionúclidos y los campos de neutrones es necesario, para alcanzar estándares, la caracterización con exactitud, en términos de energía, espectros de campo, propiedades direccionales, y tasas de fluencia (número de electrones atravesando un área determinada). Pero la exactitud se ve influenciada por las técnicas de calibración, que comparan entre lo que indica un instrumento y lo que debiera indicar de acuerdo a un patrón de referencia con valor conocido, mucho más difíciles de manejar a estos niveles. Se crea así la necesidad de conocer y tener en cuenta los factores de influencia externos e internos a la medida. Un ejemplo de factor externo serían las condiciones del lugar donde se realiza la medición, de tal forma que las diferencias de temperatura entre un punto de medición y el laboratorio en el que se llevó a cabo la medida de referencia darían lugar a un fallo de calibración si no se aplica la consiguiente corrección a todas las mediciones.

Si observamos todos los experimentos señalados podemos advertir que un factor de influencia que apenas interfiere en la medida de una reacción química puede aumentar enormemente la incertidumbre en la medición de partículas fundamentales. En este sentido, las investigaciones en el campo de las mediciones avanzan hacia la mejora de los instrumentos pero sobre todo hacia la mejora de las metodologías de trabajo estadístico y de la calibración de instrumentos. Esto ayudará a minimizar los errores introducidos tanto en la práctica experimental como en la posterior obtención de resultados.

Por todo lo expuesto, parece natural pensar que las incertidumbres a nivel cuántico, la imposibilidad de tomar una medida sin que la propia acción de medir interfiera sobre ella, pueden limitar aún más la precisión alcanzable en la detección de una señal o en la medida de cualquier magnitud. Pero la existencia de tales límites está en cuestión, ya que cabe la posibilidad de que, en el futuro, se puedan eliminar totalmente los efectos de las fluctuaciones cuánticas o al menos llevarlos a una escala lo suficientemente pequeña como para que no interfieran.

El tic-tac de la ciencia

El tiempo merece un lugar destacado en el universo de la metrología. La obtención de una medida altamente precisa de esta magnitud fundamental ha abierto un abanico de posibilidades en el campo de la ciencia de las mediciones. Para empezar, la unidad en la que se mide el tiempo es el segundo. En un segundo un colibrí bate sus alas setenta veces y, cada tres milésimas de segundo, será una mosca la que bata sus alas. No fue hasta la década de los sesenta cuando se estableció la medida actual del segundo, al tiempo que los átomos se empezaron a usar como instrumentos de medición. Así, el tiempo fue definido a partir de la frecuencia de oscilación del átomo de cesio, lo que conocemos como reloj atómico, y es la medida de esta oscilación interna la que equivale a la duración de un segundo. Los relojes atómicos actuales son tan precisos que el patrón universal sólo pierde o gana menos de un segundo en 138 millones de años. Con la ayuda del reloj atómico y utilizando señales de GPS puede obtenerse la medición de la velocidad de las partículas en los aceleradores o la distancia a la que viaja la luz.

Los intervalos de tiempo más rápidos que la ciencia puede observar alcanzan, en su mayoría, escalas de attosegundos. Si parpadeamos hasta diez veces en un segundo cuesta mucho imaginar lo que supone una unidad de tiempo tan corta. Para entenderlo basta decir que cien attosegundos son a un segundo lo que ese mismo segundo es a trescientos millones de años. Con el perfeccionamiento de las herramientas láser encontramos ejemplos láseres de alta velocidad que  han emitido destellos luminosos de tan solo 100 attosegundos. Estos equipos son, en la actualidad, los únicos capaces de tomar medidas en tiempo real a una escala de intervalos de tiempo tan pequeña. Por tanto, cuando se trata de medir tiempos ultracortos se utiliza un haz láser ultra intenso que es capaz de ionizar un átomo (o una molécula) por efecto túnel. El electrón liberado puede oscilar debido al efecto del campo de luz láser y volver a recombinarse con el ión original, emitiendo radiación gracias a un proceso llamado generación de armónicos. La generación de armónicos permite medir tiempos en la escala de los attosegundos, tanto el tiempo de ionización como el tiempo retorno del electrón.

Más allá de este límite se ha demostrado cómo medir el tiempo con una incertidumbre de 12 attosegundos, estableciendo un récord para la menor escala de tiempo controlable. El nuevo método aplicado consigue dividir a la mitad la unidad atómica de tiempo definida en 24 attosegundos. Esto supera la precisión de los métodos anteriores y tiene potencial para resolver incluso las más rápidas transiciones en la física atómica o molecular. La física define tiempos aún más cortos, siendo el tiempo de Planck el intervalo de tiempo más corto que puede ser medido. Corresponde al tiempo que tarda un fotón en recorrer una distancia igual a la longitud de Planck, y tiene un valor del orden de 10^-44 segundos.

Compartir:
  • Facebook
  • Twitter
  • LinkedIn
  • email
  • RSS
  • Meneame

Más temas

Tags:

Deja un comentario

Debes acceder para comentar.