domingo, 26 de febrero de 2012

Taller de Energía en los Baños de Ciencia


Hoy me tocó acompañar a aproximadamente 40 niños (de edades entre 4 y 13 años) en las instalaciones del Consejo Puebla de Lectura para compartirles un Taller sobre Energía ("¿Qué es la energía?" decía el título en el cartel).

La experiencia fue fascinante, en particular por la participación entusiasta de los pequeños. Iniciamos preguntándonos ¿qué es la energía? y ¿qué tipos de fuentes de energía conocían? y por supuesto que entre todos armaron un mapa de ideas que básicamente tocó todos los puntos que deben considerarse. A lo largo del taller, los pequeñines desarrollaron las ideas iniciales y experimentaron de manera libre con distintas maneras de generar energía.

Entre los experimentos realizados en las 2 horas del taller estuvieron:


  • Quitándole el aire al refresco (un desplazamiento de volumen gaseoso por un sólido),

  • El infierno de los ositos de goma (una combustión química de azúcares empleando clorato de potasio fundido),

  • Un volcán de glicerina (combustión química de glicerina con permanganato de potasio),

  • Reciclando y generando hidrógeno (disolución de latas de refresco en una solución de sosa cáustica al 15% para generar hidrógeno, combustible del futuro),

  • Preparación de alcohol sólido,

  • Sacándo energía del sol (celdas fotovoltáicas, aprendiendo como usar un multímetro),

  • Sacándo energía de los alimentos (celdas galvánicas con papas, zanahorias y limones),

  • Celda de combustible de hidrógeno (con lápices y una pila de 9V)

  • Convirtiendo movimiento en electricidad (un dínamo generador de electricidad por movimiento).

Al final, los niños fueron invitados a acudir a la Biblioteca del Consejo Puebla de Lectura para ahondar en los conceptos alrededor de la energía a través de la lectura.


¡Hasta el próximo Baño de Ciencia!

miércoles, 15 de febrero de 2012

Sismos: renovación total

En 1880, Sir James Alfred Ewing, Thomas Gray y John Milnelos (británicos) realizaron investigación para la detección de terremotos en Japón, y posteriormente fundaron la Sociedad Sismológica de Japón. John Milne tiene el crédito de la invención del sismógrafo de péndulo horizontal, (predecesor del sismógrafo actual). Este consistía en un péndulo con una aguja suspendida sobre una plancha de cristal ahumado y esta fue la primera invención que permitía mostrar una idea clara entre las ondas primarias y secundarias. El sismógrafo moderno fue inventado por el sismólogo Borís Golitzyn (ruso). El cual es un péndulo magnético suspendido entre los polos de un electroimán.

Año 2012. Estamos en una cúspide de ciencia y tecnología a nuestro alcance, entonces, ¿Por qué seguimos confiando en métodos de detección de sismos anticuados? Esto sabiendo que la precisión de nuestros sismógrafos es mínima, Según nos dice Emilio Carreño, director de la Red Sísmica Nacional Española: "Cuando se produce un terremoto, lo preceden otros muchos fenómenos pero se ha comprobado que no siempre se dan todos. En la actualidad, es imposible medir al mismo tiempo tantos parámetros, esto sin la garantía de que se vaya a producir, de ahí la dificultad para detectarlos con antelación".

Actualmente los geólogos tienen una nueva herramienta para estudiar cómo los terremotos cambian el paisaje, y, tienen una nueva idea de cómo se comportan las fallas sísmicas. En el número 10 de la revista Science, un equipo de científicos de Estados Unidos, México y China; entre ellos el geofísico Eric Fielding, del Laboratorio de Propulsión a Chorro en Pasadena California, nos muestra una fotografía después del sismo con una magnitud de 7.2 grados Richter, el cual sacudió a Mexicali en norte de México, en abril de 2010.

Esta ruptura de la superficie de 1,5 metros de altura se formo en cuestión de segundos a lo largo de la falla Borrego durante el terremoto de 7.2 grados de magnitud. Imagen Gracias a: Centro de Investigación Científica y de Educación Superior de Ensenada de BC (CICESE)

"Este estudio proporciona nueva información sobre cómo las rocas en los alrededores de las zonas de falla se deforman durante los terremotos", en palabras de Fielding. "Esto ayuda a los científicos a entender los acontecimientos pasados y evaluar la probabilidad de futuros terremotos en otras fallas tectónicas."


El equipo, en colaboración con el Centro Nacional de Asignación de láser aerotransportado, sobrevoló la zona con LIDAR (Light Detection and Ranging) el cual fue financiado por la National Science Foundation, el Servicio Geológico de EE.UU., Consejo Nacional de Ciencia y Tecnología (México) y la NASA. LIDAR hace que reboten pulsos láser dirigidos a la tierra y mide la reflexión para determinar la altura de la superficie. LIDAR puede medir las características de la altura de la superficie con una precisión de unos pocos centímetros. Los investigadores fueron capaces de hacer un análisis detallado después del terremoto de más de alrededor de 363 kilómetros cuadrados, en menos de tres días, según Michael Oskin, profesor de geología en la Universidad de California (autor principal del estudio).

Imagen de LIDAR de la Falla de Borrego, tomada después del terremoto, muestra una amplia zona de numerosas fallas pequeñas que cortan la superficie del suelo y el desplazamiento del suelo rodeado por la falla principal. Imagen gracias a: Universidad de California.

Oskin, dijo que identificaron la zona mediante mapeos con LIDAR en el año 2006, esto por el gobierno mexicano. Cuando ocurrió el terremoto, los científicos de Arizona State University, solicitaron una inspección de la zona para así poder comparar ambas mediciones, y poder hacer un preámbulo sobre la eficiencia de LIDAR.

Los co-autores John Fletcher y Orlando Terán, del Centro de Investigación Científica y de Educación Superior de Ensenada en Baja California (CICESE) llevaron a cabo una inspección sobre el terreno tradicional de la ruptura de la falla, lo que ayudó a guiar la planificación de la inspección de LIDAR sobre la área y la interpretación de los resultados. Fielding ayudó en la planificación de la inspección de LIDAR y en la interpretación final de las mediciones, esto se analizo con la modificación de las rocas cerca de la falla.


Mediante la comparación de pre y post-terremoto de las inspecciones, los miembros del equipo pudieron ver exactamente dónde y cuanto se movió el suelo.Las inspecciones revelan la deformación de todo el sistema de fallas, esto por medio de pequeñas deformaciones previas al terremoto, ademas las mediciones proporcionaron claves para entender cómo estas actúan sobre el movimiento mayoritario.

Imagen sobrepuesta en las rupturas de la falla (líneas rojas) del terremoto de abril 2010 en el norte de Baja California, imagen del 03 de febrero 2012 gracias a: Aerial Vehicle Synthetic Aperture Radar (UAVSAR), overlaid on a Google Earth map. Image credit: NASA-JPL/Caltech/USGS/Google Earth.

El terremoto del 2010 en Mexicali no fue por una falla importante (como la falla de San Andrés), pero se produjo a través de una serie de pequeñas fallas en la corteza terrestre. Estas fallas leves son comunes alrededor de las fallas más importantes, pero individualmente son "descartables", dijo Oskin, "Este tipo de sismo ocurre de la nada y la inspección nueva del LIDAR muestra cómo siete de estas pequeñas fallas se unieron para provocar un gran terremoto”.Desde el 2009, el JPL ha estado volando sobre la región fronteriza de California para medir la deformación del suelo en la zona. UAVSAR ( Uninhabited Aerial Vehicle Synthetic Aperture Radar), que vuela en un avión Gulfstream III de la NASA, utiliza una técnica diferente la cual funciona mediante un radar interferométrico de apertura sintética para medir la deformación del suelo en grandes superficies con una precisión de 0,1 a 0,5 centímetros. UAVSAR es guiado por GPS y ha pasado por la frontera de California dos veces en 2009 y seis veces desde el terremoto de Baja California, capturando imágenes y sus deformaciones continuas desde entonces.Fielding dijo que la NASA obtuvo recientemente la aprobación del gobierno mexicano y comenzó a volar UAVSAR en febrero de 2012 al sur de la frontera de California (zona del terremoto de Baja California). Estos vuelos se llevarán a cabo cada tres meses para vigilar los movimientos de fallas.


En pocas palabras podemos decir que cada vez estamos mas cerca de predecir estos movimientos telúricos, ya que mediante la inspección periódica de las zonas sísmicas se pueden detectar fallas minoritarias, las cuales en conjunto desencadenan un terremoto, y, al identificarlas, con el tiempo, lograremos predecir cuando estas pueden llegar a provocar un movimiento sísmicode gran importancia.

Japón, en donde todo esto comenzó, Aquí se tiene un punto de referencia en nuestro futuro, ya que un atraso científico da como resultado un colapso tecnológico (sismo de Japón que daño los reactores nucleares), y, el dar innovaciones hacia la comprensión de nuestra naturaleza nos daría la ventaja de tener una paso adelante hacia nuestras invenciones, nuestra tecnología, pero sobre todo nuestro bienestar.

Bibliografía:

http://www.elmundo.es/elmundo/2010/01/13/ciencia/1263390561.html

http://www.answers.com/topic/milne-john

http://www.nasa.gov/topics/earth/features/borregoquake20120209.html

Para mayor información:

http://www.news.ucdavis.edu/search/news_detail.lasso?id=10143

http://www-radar.jpl.nasa.gov/CrustalDef/baja/index.html

Para mayor información del UAVSAR:

http://uavsar.jpl.nasa.gov

Por: Joab Martin Lira Acosta

viernes, 3 de febrero de 2012

HACIA UNA NUEVA REVOLUCIÓN DE LA CIENCIA.

Especular sobre el desarrollo futuro de la ciencia y la tecnología, parece estar programado en nuestro código genético. Como un deporte popular, todos lo hemos hecho. No nos parece aventurado asegurar que en unos cuantos años nuestros automóviles se moverán a merced de energías alternativas como la electricidad generada por celdas de hidrógeno o celdas fotovoltáicas. Tampoco lo es suponer que encontraremos curas para las enfermedades más terribles y complejas, o que llegaremos a vivir más de 100 años conservando todas nuestras facultades y salud casi intactas. ¿Especulamos ya que nos parece divertido o por qué es una actividad humana importante y necesaria? ¿Es la ciencia en sí una actividad especulativa o un proceso a través del cual entendemos el mundo que nos rodea? ¿Es importante y necesaria la ciencia?

Las sociedades avanzan cuando son capaces de eliminar de entre sus pertenencias culturales las suposiciones erróneas o las que son innecesarias. Hacemos suposiciones sobre el futuro de la ciencia porque queremos saber qué marcará una diferencia, y si dicha diferencia será para bien, para mal o para ambas cosas. Claro que esto dependerá del contexto, de la apreciación social o personal de las circunstancias. Normalmente empezamos con las ideas científicas actuales y tratamos de extrapolarlas hacia suposiciones de cómo podríamos emplearlas en el futuro. Tal vez lo más apropiado sería imaginar los escenarios futuros en donde sería importante un cambio y luego preguntarnos qué tipo de ciencia imaginable los haría posibles.

En el marco de este proceso de cambio y avances, la Química, más que otra ciencia, se revela en su papel de “ciencia central” que no solo descubre, sino crea. Pero en un mundo en donde la palabra química se encuentra desvalorizada, en donde incluso se le considera como una disciplina decadente y con una pésima imagen pública, en donde incluso (en palabras del físico Paul Dirac) “…se ha visto reducida a un mero pasatiempo, pues toda la química puede ser deducida de las leyes de la mecánica cuántica…”, ¿quién apostaría por la Química como una fuerza revitalizadora y protagonista en las transformaciones del conocimiento científico actual y futuro? Es cierto que los avances actuales de la Biotecnología y la Nanotecnología prometen impactar de manera directa el crecimiento de la industria farmacéutica, el desarrollo de nuevos materiales, muchos de ellos biocompatibles y adecuados para reparara o incluso reemplazar tejidos u órganos enfermos. Pero para explotarlos y comprenderlos de manera adecuado, será necesario acudir a la ciencia de las moléculas y sus transformaciones, pues no habrán avances significativos en la biología molecular o la genética o la biología o las ciencias biomédicas, sin la comprensión precisa de los fenómenos moleculares, sus equilibrios y delicados balances energéticos y sus interrelaciones complejas. En pocas palabras: el futuro de las ciencias biológicas y biomédicas dependerá de su habilidad de comprender y explotar a las biomoléculas, es decir, de conocer adecuadamente su química.

Afirma el Dr. George M. Whitesides, profesor de Química en la Universidad de Harvard que la ciencia se encuentra en uno de los mejores momentos de su historia, teniendo frente a sí enormes retos y oportunidades tanto de investigación básica como aplicada, en temas en los que la sociedad en general está interesada por sus implicaciones. Para hacer frente a estas oportunidades que la ciencia tiene frente a sí y cómo pueden cambiar el mundo en el que vivimos, es preciso entender la manera en que se estructuran las revoluciones científicas.

Existen dos teorías generales, ampliamente difundidas, sobre las revoluciones científicas. Una fue desarrollada por Freeman Dyson y Peter Gallison y hace énfasis en el papel que juegan las nuevas técnicas experimentales en las nuevas revoluciones: si por una parte inventamos microscopios de fuerza atómica, esto tiene consecuencias importantes en el desarrollo de la nanotecnología; si se inventa la reacción en cadena de la polimerasa (PCR), sin duda tendrá implicaciones importantes en la genética y la biología molecular; si construimos computadoras, podremos aplicarlas en numerosas cosas, etc. En otras palabras, la analogía sería que si contamos con nuevas llaves, abriremos puertas nuevas.

La otra teoría fue desarrollada por Thomas Kuhn y argumenta que las revoluciones científicas ocurren cuando las teorías actuales son incompatibles con la evidencia experimental. Incita a buscar una salida a dicha limitación: la mecánica cuántica surge ante el fracaso de la física clásica para explicar la radiación de cuerpo negro; la existencia del oxígeno es postulada por Priestley luego del inevitable fracaso de la teoría del flogisto. Kuhn sugiere que la actividad científica tiene dos formas: la ciencia normal, la cual trabaja sobre ideas o paradigmas que son ampliamente aceptados pues ya existen, y el descubrimiento, que es la base del cambio fundamental en nuestro pensamiento y es, por tanto, una revolución. La ciencia normal resuelve rompecabezas, para los cuáles ya conocemos la respuesta y lo fundamental es llegar a ella a través de una solución elegante. El descubrimiento por su parte se enfoca a preguntas de mayor alcance, en donde las respuestas son importantes, pero desconocemos la estrategia para ir detrás de éstas e incluso, no sabemos si existe una solución al problema.

Por lo regular, la sociedad considera al descubrimiento como una actividad más relevante que la ciencia normal. En ese sentido, damos al “descubridor” un trato especial, enfocamos sobre él los reflectores y lo incorporamos a la cultura pública, junto con los artistas, los deportistas y los políticos del momento. Al permitirlo, descontextualizamos el quehacer científico y damos la falsa impresión que los avances ocurren por saltos, por fuerzas del destino y no como punto culminante de un proceso complejo, pero progresivo. Ambas son esenciales (y entrelazadas), ya que la ciencia normal nos permite darnos cuenta de las limitaciones de nuestro conocimiento y ocasionalmente nos conduce a reconsideraciones importantes que nos llevan a las revoluciones científicas (el descubrimiento).

Por todo lo anterior, podemos considerar cuatro razones simples que nos permitirán aceptar que estamos en presencia de una nueva revolución científica:

1. Vivimos en una época en donde tenemos la responsabilidad intelectual de resolver algunos de los problemas más interesantes de la ciencia y la tecnología.
2. Hemos desarrollado y contamos con herramientas que pueden hacer posible la investigación necesaria para buscar soluciones al punto anterior.
3. A través de distintas disciplinas, pero en especial de la Química, poseemos un balance sutil de habilidades necesarias para conseguir nuestros objetivos.
4. Tenemos certidumbre de nuestras limitaciones sobre que no podemos resolver los problemas que nos rodean sólo con el conocimiento actual; a través de la Química tenemos la posibilidad de identificar mejor los detalles que la física o la biología por su propia cuenta.

Ya que existen varios problemas ambiciosos y complejos para resolver y poseemos las herramientas interdisciplinarias para enfrentarlos, reconozcamos no con una, sino varias posibles revoluciones científicas, en el sentido de la teoría de Kuhn, que nos aguardan. Todas ellas se encuentran en la interesante interfase que comparten la biología, la biomedicina y la química.

· La célula y la naturaleza de la vida. Entender la célula es una pregunta que se apoyará mucho en la Química. Una célula, viéndola de una forma burda y simplificada, es una bolsa conteniendo otras pequeñas bolsas, que a su vez contienen reactivos químicos, y que tiene la habilidad de autoreplicarse. El principal problema será entender porqué la vida (y la célula) es dinámicamente estable y entender cómo sus reacciones se interconectan entre ellas, de forma organizada en el tiempo y el espacio.

· Energía, Medio Ambiente y Conciencia Global. Así como ocurre con la célula y la vida, el medio ambiente –y el ecosistema llamado Tierra en el cuál coexistimos con miles de otras especies- , está fundamentado en una red compleja de reacciones químicas interrelacionadas, así como procesos de intercambio de materia y energía. Debemos conocer dichas reacciones y entender la manera en que funcionan y se mantienen para aprender el principio de la sustentabilidad. Numerosos procesos biológicos simples no son aun incomprensibles. ¿Cómo funciona la fotosíntesis? ¿Cómo podríamos secuestrar de manera eficiente el dióxido de carbono y disminuir así su efecto de gas invernadero? ¿Cómo podremos mejorar las celdas solares para aprovechar la abundante –y prácticamente ilimitada- energía solar?

· El Origen de la Vida. Este es uno de los problemas más interesantes de la ciencia. Existen numerosas ideas al respecto, pero ninguna nos da una visión clara y precisa de cómo ocurrió. Necesitamos nuevas ideas, al menos una nueva que nos marque el camino a la revolución.

· Las bases moleculares del pensamiento. Da la misma forma que la vida, la célula y el medio ambiente, los proceso fisiológico a través del cual almacenamos y recuperamos nuestros recuerdos, razonamos procesos, tomamos decisiones ocurren mediante una compleja red de reacciones químicas: conexiones sinápticas se forman y rompen continuamente, millones de veces, neurotransmisores se encargan de llevar el mensaje químico que nos permitirá recuperar los aromas del perfume materno o el sabor característico de una taza de café. Este es un problema sobre ese algo que nos hace humanos; lo complicado es intuir por donde comenzar a buscar las soluciones.

Estos retos han estado ahí desde hace mucho tiempo. ¿Por qué no los hemos resuelto? ¿Qué ha causado nuestra lentitud para atacarlos de manera eficiente? Kuhn nos dice que no es objetivo de la ciencia normal la búsqueda de nuevos tipos de fenómenos; todo lo que no encaja con lo que ya se conoce, por lo regular lo ignoramos. De esa manera, no corresponde al ser humano el inventar nuevas teorías, por lo que con frecuencia somos intolerantes antes aquellas que otros inventan. Esta intolerancia por lo novedoso, por lo diferente, es parte de lo que limita el desarrollo de las revoluciones científicas, pero además:

1. Nuestra conciencia sobre lo que sabemos y lo que ignoramos. Hay más cosas que desconocemos que las que creemos conocer. En el proceso de enfrentarnos a un problema nuevo, nos percatamos de nuestra ignorancia, pero no siempre comprendemos por qué nuestro conocimiento es insuficiente para entender las cosas.

2. El proceso de evaluación y aprobación por nuestros pares. Hasta el momento el peer review ha sido un proceso conservador y limitante: filtra las malas ideas, pero también las nuevas y las poco usuales. Esta intolerancia hacia las ideas podría resolverse si diéramos la bienvenida a lo diferente.

3. El empuje (o frenado) que nos da el modelo capitalista. Hay mucha presión por maximizar las ganancias en un tiempo corto. Pero la ciencia avanza a su propio paso, las empresas al suyo, más acelerado. Hay que incentivar a las pequeñas empresas (start-ups) en vez de esperar a que las grandes empresas inviertan en las nuevas y arriesgadas ideas. Comienza tu propia mini-compañía basada en tus propias ideas. Conviértete en un emprendedor.

4. Nuestros métodos de enseñanza y los libros de texto. Por lo regular lo que enseñamos está en los libros. Excepto el conocimiento nuevo. Y en numerosas ocasiones lo que encontramos no es necesariamente lo que necesitamos enseñar, sino lo que vende más. Pero los maestros podemos elegir qué enseñar. Podemos ignorar los libros de texto y enseñar a los alumnos a resolver problemas por su cuenta. Enseñar a aprender, no solamente a repetir lo escrito.

5. La estructura del sistema social-académico en que nos desenvolvemos. Hemos creado un sistema piramidal, en cuya cima se encuentra el “gran investigador”, las vacas sagradas, que son mantenidas en su posición por una pléyade de estudiantes de posgrado y asistentes, cada quien con una función específica, una posición en el sistema, sin muchas posibilidades para que las nuevas ideas se implementen o reconozcan. Debemos dar la bienvenida a nuevos rostros, gente joven, de orígenes diversos y transdisciplinarios. Incentivar a los estudiantes a tomar problemas complejos y resolverlos. Darles libertad, hacerlos independientes, respetar sus ideas y su energía.


Siempre es tiempo para que ocurra una revolución. Pero estamos viviendo en un momento en donde esto puede ocurrir mas probablemente que en otras épocas de la historia. Si perdemos el tiempo estaremos contra la pared. Podrías convertirte en el líder del movimiento, en protagonista de la historia. Eventualmente, dados el tiempo y las circunstancias, los físicos aprenderán lo suficiente sobre las moléculas y los biólogos adquirirán las herramientas matemáticas que requerirán para afrontar la interdisciplina que los problemas requieren. Este es el tiempo para quien busque aprovechar la oportunidad. Si no lo haces tú, otros lo harán.

Si no es tu revolución, lo será de alguien más. No hay forma de evitar que ocurra.


Referencias:


  • Whitesides, G. M. “Revolutions in Chemistry”, Chemical & Engineering News, 85(13), 12-17, 2007.

  • Bensaude-Vincent, B. “The new identity of chemistry as biomimetic and nanoscience”, 6th International Conference on the History of Chemistry, 2007.

  • Beyond the Molecular Frontier, reporte de la National Academy of Sciences, Estados Unidos de Norteamerica, 2003.

  • Whitesides, G. M. “Asumptions: Taking chemistry in new directions”, Angewandte Chemie International Edition in English, 43, 3632-3641, 2004.


Dr. Miguel Ángel Méndez Rojas

Departamento de Ciencias Químico-Biológicas

Universidad de las Américas, Puebla

miguela.mendez@udlap.mx

¿Por qué el cielo es azul?

Quiza tu seas de aquellas personas que al mirar hacia arriba, se preguntan todavía "¿Por qué es azul el cielo?". Bueno, fuera de las explicaciones teológicas o en broma, hay que hacer uso de un poco de conocimiento de física y química para entender el asunto en serio.
La atmósfera de la Tierra esta compuesta por numerosos gases, así como materiales de distinta composición química que se encuentran dispersos en ésta (en forma de sólidos o líquidos suspendidos). Aproximadamente un 78% de esta atmósfera es nitrógeno (N2), mientras que un 21% es oxígeno (O2). El 1% restante se reparte entre el argón (Ar), agua en forma de vapor, gotas microscópicas o microcristales de hielo (H2O) y otros gases, partículas sólidas de tamaño menor a una micra (una micra es una millonésima parte de un metro), pólen, cenizas, microorganismos y sal marina (proveniente de la evaporación de los oceanos).

Ahora, la radiación electromagnética que nos alcanza desde el Sol, viaja a través del espacio en forma de ondas, cuya energía dependerá de su frecuencia y longitud de onda. En particular, la luz visible (que es parte de el espectro electromagnético) se encuentra en un rango entre 350 y 850 nm, aproximadamente, y ahí se reparten los colores que por lo regular distinguimos, desde el amarillo, hasta el violeta.

Cuando la radiación electromagnética viaja a través del espacio sin ningún obstáculo, sigue trayectorias lineales. Al pasar por la atmósfera, su movimiento lineal continúa hasta que choca con una partícula sólida o una molécula de gas. Al ocurrir esta colisión, la luz puede cambiar (en su frecuencia o longitud de onda) dependiendo del tamaño del objeto con que colisiona. Ya que las gotas de agua y las partículas de polvo son por lo regular MAS GRANDES que la longitud de onda de la radiación visible, la luz puede reflejarse o dispersarse en otras direcciones, pero sin afectar notablemente el color de la misma. Sin embargo, las moléculas de los gases son menores a la radiación visible y además, parte de su energia puede ser absorbida por éstas. De esta forma, cuando la radiación interactúa con las moléculas, el color de la radiación que se refleja puede cambiar, dependiendo de qué color sea absorbido por la molécula. Estadísticamente, es mas probable que la radiación absorbida sea de alta frecuencia (azul) que de baja frecuencia (rojo), por un fenómeno denominado Dispersión de Rayleigh.

Por tanto, la dispersión de Rayleigh es la responsable del color azul del cielo. La radiación de onda corta es absorbida y dispersada en distintas direcciones, a cualquier dirección en que miremos para ser mas precisos.
Pero si miras hacia el horizonte, el color del cielo se hace más pálido, casi blanco. El color azul se va perdiendo al ocurrir una mayor cantidad de dispersiones de la radiación.

Quiza ahora te preguntes, ¿por qué los atardeceres son rojizos?
Bueno, ese es tema interesante para otra entrada en este blog.

Miguel Mendez (UDLAP).