10 agosto, 2022 Español

Cadena Politica

Periódico Digital

José Martín Columnista

Imperios de la mente—Cambio climático, COP26 y sus predicciones

 

Autor: Dr. José Martín Méndez González

 

 

 

Los científicos pueden plantear los problemas que afectarán al medio ambiente con base en la evidencia disponible, pero su solución no es responsabilidad de los científicos, es de toda la sociedad

Dr. Mario Molina (1943-2020)

Un 28 de junio de 1974, se publicaba en la revista Nature los resultados clave de una investigación que les daría a sus autores el premio Nobel de Química en 1995. El artículo mostraba que los compuestos químicos usados como refrigerantes o propelentes (técnicamente llamados clorofluorocarbonos—CFCs, y comercialmente conocidos, algunos de ellos, como freón) estaban acumulándose en el medio ambiente, mayoritariamente en la atmósfera. Se ha estimado que esta clase de compuestos químicos pueden “vivir” en la atmósfera entre 40 a 150 años. A pesar de dichos compuestos son químicamente inertes (no reaccionan con otros compuestos) algo curioso ocurría cuando entraba en la ecuación la radiación a la que estaban expuestos en la estratósfera: se disociaban. Los átomos de cloro liberados en la disociación conducían a una destrucción de la capa de ozono (O3), esa delgada “piel química” con la que cuenta nuestro planeta para absorber la radiación solar y mitigar sus efectos nocivos antes de que llegue a la superficie. Por ejemplo, la radiación ultravioleta (UV) puede llegar causar cáncer de piel, cataratas en los ojos, o dañar las plantas al grado de impedir su crecimiento adecuado.

Uno de los autores de ese artículo que se constituyó en una alerta científica de proporciones mundiales era el Dr. Mario Molina (su coautor fue Sherwood Rowland), hasta el momento el único mexicano al que se la ha concedido el premio Nobel de Química por “su trabajo en la química atmosférica, particularmente en lo concerniente a la formación y descomposición del ozono”.

El adelgazamiento de la capa de ozono se verificó en años subsecuentes, en lo que hoy llamamos “agujero de la capa de ozono” (especialmente en la Antártida), cuyo tamaño se ha monitoreado con ayuda de satélites de la NASA. El desentrañar científicamente el cómo y el por qué de la falta de ozono en la atmósfera terrestre condujo a un acuerdo internacional que prohibió el uso de CFCs: el protocolo de Montreal, aunque adoptado en 1987 entró en vigor en 1989. En él, los países firmantes se comprometían a reducir a la mitad la producción de CFCs en un plazo de 10 años.

¿Ha funcionado el acuerdo? Digamos que va a paso de elefante: lento pero seguro. La concentración de ozono se ha mantenido en niveles bajos pero estables desde la década de los 90s. De acuerdo con una publicación de la NASA de 2015, se estimó un aumento en los niveles de ozono alrededor del 2020, y podría estar cerca de alcanzar los niveles de 1971 aproximadamente en el año 2075. Sin embargo, esta tendencia podría retrasarse una década aproximadamente debido a la variabilidad atmosférica y cambios inesperados en la emisión de gases clorados. A pesar de estas estimaciones, el protocolo de Montreal ha sido uno de esos pocos acuerdos medioambientales considerados como exitosos. Hay resultados tangibles en una escala de tiempo relativamente de corto plazo.

La investigación de Mario Molina nos muestra el delicado balance que existe en el medio ambiente (una concentración normal de ozono es aproximadamente de 3 moléculas por cada 10 millones de moléculas de aire) y el enorme impacto (negativo) que puede llegar a tener el uso de la tecnología por parte de la humanidad, en este caso los CFCs. Más aún, apenas nos estamos dando una idea de la escala de tiempo y magnitud de los esfuerzos que se requiere para restaurar ese balance.

La semana pasada finalizó la conferencia sobre calentamiento global de la ONU en Glasgow, Escocia (COP26, Conferencia de las Partes por sus siglas en inglés, y el 26 es porque es la vigésima sexta ocasión que se reúnen). Allí, se dieron cita jefes de estado, presidentes de gobierno, diplomáticos, etcétera, con la finalidad de establecer acuerdos que conduzcan a minimizar el cambio climático, en específico, el calentamiento global ocasionado por los gases de efecto invernadero (por ejemplo, el bióxido de carbono, metano y óxido nitroso). Las concentraciones atmosféricas de estos gases han aumentado notablemente debido a las actividades industriales humanas.

Por lo que he leído, parece haber consenso en los medios de comunicación al catalogar el evento como un fracaso, ya que los compromisos son insuficientes para realmente comenzar a ver resultados positivos con relación a la temperatura global al corto plazo. Para darnos una idea, se estima que para mantener un cambio de temperatura de 1.5 °C por encima de los niveles preindustriales, habría que reducir para el 2030 en un 45 % las emisiones de gases de efecto invernadero observados en 2010. Sin embargo, con los actuales compromisos de reducción, las emisiones serán de un 14% más altas que las de 2010 para el 2030. Algunos estiman que, aunque los países firmantes cumplen con sus objetivos del 2030, la temperatura global de todos modos aumentará 2.4 °C por encima de los niveles preindustriales para el 2100. En ese ínterin, se espera que desaparezcan más especies y los eventos climáticos se vuelvan más extremos.

Así, el problema por enfrentar es monumental y, como reveló la investigación de Mario Molina, las perturbaciones a la atmósfera pueden desencadenar una respuesta del planeta de mayores proporciones a la que originalmente representa la perturbación. Afortunadamente, hoy se cuenta con avances computacionales que permiten modelar sistemas tan complejos como el clima en la Tierra. De hecho, recordemos que el premio Nobel de Física 2021 se otorgó a Syukuro Manabe y Klaus Hasselmann por “el modelado físico del clima de la Tierra, cuantificando la variabilidad y prediciendo de manera confiable el calentamiento global”. Las simulaciones nos permiten explorar los potenciales escenarios futuros, identificar variables a la cuales el sistema global es más sensible y proponer políticas o acuerdos que minimicen el aumento de la temperatura, por ejemplo.

Sin embargo, como todo sistema complejo, la divulgación de las predicciones obtenidas por los modelos requiere mesura, lo cual no siempre es fácil de lograr en una época donde el clickbait es la norma en muchos medios de comunicación. Un ejemplo de lo sensible (y crítico) que puede ser modelar el calentamiento global es la presentación “¿Es real el calentamiento global?” del Dr. Julien Sprott, un experto en lo que a sistemas dinámicos se refiere. En su presentación se analizan diversos modelos para predecir cuándo se derretiría un lago. Después de usar 8 modelos, logró obtener hasta 80 predicciones que variaban ampliamente; incluso, la predicción de una red neuronal era caótica.

Lo que me gusta de la historia de Mario Molina y su descubrimiento es que, en el lapso de una vida, identificó un problema global, planteó acciones correctivas, las cuales fueron seguidas por varios países, y sus resultados (positivos) están haciéndose visibles, aunque sea poco a poco, para que futuras generaciones tengan la posibilidad de habitar un mundo que sea testigo de los destellos de madurez humana de la que es capaz la especie humana.

Para finalizar, si están interesados en ahondar en el tema del cambio climático, no puedo dejar de recomendar la serie de tres conferencias de “El Colegio Nacional” sobre este tema a llevarse a cabo del 16 al 18 de noviembre: “La evidencia científica y los resultados de la COP26”, “Desastres vinculados a fenómenos climáticos extremos: una visión histórica y actual”, y “Transformaciones estructurales y de financiamiento para atender el desafío del cambio climático”.

About Post Author