IPCC: los 4 factores que explican el lenguaje más robusto

En 1990, en el primer informe del IPCC, el lenguaje era lo suficientemente fuerte, excepto que reconocimos que todavía había un margen de incertidumbre. “La detección inequívoca del mayor efecto de las emisiones de gases de efecto invernadero probablemente no ocurrirá en la próxima década”. En pocas palabras: la culpa humana aún no se ha probado, pero nos estamos acercando. Y en 1995, en el segundo informe del IPCC, estuvimos cerca un poco más: “El conjunto de pruebas sugiere una notable influencia humana en el clima planetario”.

Para el climatólogo estadounidense Ben Santer, que ha participado en cada uno de los seis informes desde 1990, que fueron provocando paulatinamente esta evolución del lenguaje, hay dos factores principales:

  • Observaciones del cambio climático distribuidos durante un largo período de tiempo y de mejor calidad. Desde el suelo o desde la órbita, desde la superficie de los océanos o desde la atmósfera superior o inferior, varias tecnologías proporcionan cantidades gigantescas de datos con una gran cantidad de detalles que serían impensables en un momento dado: la cantidad de agua en las nubes, los brotes de plancton. en los océanos, etc.
  • El desarrollo de mejores modelos computacionales de diferentes sistemas climáticos. Solo había media docena en 1990 y estaban limitados por los recursos de las computadoras en ese momento. Desde entonces, han aumentado en potencia, en calidad. y en precisión, con la adición de parámetros que van desde la cantidad de carbono absorbido y liberado por los océanos hasta la química de la atmósfera, incluido el impacto del derretimiento de una capa de hielo. en las corrientes oceánicas. Cada nuevo elemento se puede colocar en relación con los demás para tratar de evaluar sus respectivos roles.
READ  Nuevo libro explora diferentes y sorprendentes

Y, sin embargo, a pesar de sus limitaciones en ese momento, los modelos climáticos no estaban llegando tan lejos, como un análisis de 2019 que compara la realidad de 2017 con 17 predicciones de modelos de cuál sería la temperatura global demostrada en 2019. tierra seca. Algunos de estos modelos se remontan a la década de 1970 y sus resultados fueron en su mayor parte “muy confiables – para predecir el calentamiento global varios años después de su publicación”.

Su debilidad fue la incapacidad de predecir parámetros distintos a la temperatura, así como, en algunos casos, un margen de incertidumbre muy grande. Es este margen de incertidumbre lo que ha reducido el progreso tecnológico desde entonces.

Santer identifica otros dos factores, secundarios pero vinculados a los dos primeros.

  • Desde 1990, los científicos han desarrollado protocolos más estrictos para evaluar y probar los límites de estos modelos, y todo junto con plataformas que permiten un mejor intercambio de datos a escala internacional.
  • Y, sorprendentemente, dirán algunos, las respuestas a los escépticos del clima ayudaron a elevar el nivel de certeza. Por ejemplo, escribió, en 1995 la elección de la frase “influencia humana perceptible en el clima” había provocado críticas, y algunos afirmaron que los datos satelitales no mostraban “calentamiento” en la capa inferior de la atmósfera. La afirmación iba a resultar falsa, pero aún tenía que demostrarse con un análisis más profundo de los datos existentes y un refuerzo de la capacidad de observación satelital. Trabaja con esa “ciencia avanzada que conduce a mejores observaciones satelitales, observaciones que muestran un fuerte calentamiento de la atmósfera inferior”.
READ  Gigante del análisis de datos y la ciencia, Databricks recauda mil millones de dólares

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *