Desmontando a Tony Heller

Me invitan a leer en Principia Scientific, uno de esos sitios «escépticos» que dicen tratar de ciencia y registrado en una conocida sede virtual del Reino Unido, un artículo de manual redactado por Tony Heller, bloguero negacionista del cambio climático que se hacía llamar Steven Goddard, titulado «The Climate Fraud Conspiracy: Key Evidence Explained» (La conspiración del fraude climático : La evidencia clave explicada).

En el invierno boreal de 2017 abundaban escritos como el de este mediático «enfriólogo», donde pretende colarnos como evidencias las erróneas conclusiones, típicas falacias y falsedades que componen el argumentario contra el cambio climático:
1. El manido período cálido medieval

  • «En 1990, Tom Karl y el IPCC mostraron que la Tierra estuvo mucho más caliente hace 900 años, durante el período cálido medieval»
  • «Pero en 1995, los científicos del clima tomaron la decisión de eliminar el molesto período cálido medieval»
  • «Para 2001, Michael Mann y el IPCC continuaron con sus planes y borraron el período cálido medieval»

Una curva sin escala extraída del capítulo 7 del Informe de 1990 del Panel Intergubernamental sobre Cambio Climático (IPCC), una declaración sin referencias de 2006 realizadas por Deming, correligionario profesor ultraconservador ligado al petróleo, y un único gráfico sacado del Tercer Informe de Asesoramiento del IPCC diez años posterior al primero y de hace ya quince años. Esa es toda la artillería pesada de Heller para acusar a la comunidad científica internacional de «ocultar» un supuesto calentamiento medieval.

Lo que esconde el bloguero es que el texto que acompaña el diagrama de KARL ET AL (página 202) cita:

El último décimo de los trece siglos más recientes (sobre los años 950-1250) parece haber sido excepcionalmente cálido en Europa occidental, Islandia y Groenlandia (ALEXANDRE 1987, LAMB, 1988) . Este período se conoce como el óptimo climático medieval. China estuvo, sin embargo, fría en la misma época (principalmente en invierno) aunque el sur de Japón estuvo cálido (YOSHINO, 1978)

Esto es, un episodio más bien local.

Basta con verificar en la bibliografía que el estudio de ALEXANDRE está concretamente basado en fuentes narrativas (Le Climat en Europe au Moyen Age. Contribution à l’histoire des variations climatiques de 1000 à 1425 d’après les sources narratives de l’Europe Occidentale) para no atribuir exactitud a lo que los propios autores denominan diagrama esquemático.

Heller también soslaya que el gráfico de 2001 es una muestra del hemisferio norte (no de Europa Occidental ni de todo el planeta) y sobre todo se abstiene de citar el amplio margen de error para el período 1000-1600 y la evolución de los métodos de estimación. En efecto, la calibración de datos combinados terrestres y marinos (dendrocronología, núcleo del hielo, documentos históricos, corales) no evidencia una mayor calidez de este período respecto del siglo XX. El detractor pone la mira en MANN pero obvia que otros investigadores llegaron a similares conclusiones con datos y métodos diferentes.

Este francotirador podría aprender un poco del párrafo Was there a «Little Ice Age» and a «Medieval Warm Period»? y, sobre todo, tener un poco de respeto por la revisión y la actualización científicas. Sirva como muestra el que en Science Direct aparecen 58.000 publicaciones sobre climatic change en libros y revistas entre 1823 y 1990, mientras que se catalogaron 66.000 en el decenio 1991-2001 y 300.000 desde 2002 hasta hoy.


2. La infundada sospecha de los satélites desaparecidos

  • «El informe IPCC de 1990 también detallaba los datos satelitales de la NOAA sobre el Ártico, que mostraban cómo la extensión del hielo oceánico ártico era mucho menor en 1973 que en 1979»
  • «Los científicos del gobierno también sabían en 1985 que la extensión del hielo marino ártico era mucho menor en los 40’s y en los 50’s que en 1973»
  • «Los datos anteriores a 1979 sobre el hielo del Ártico eran extremadamente molestos, luego la NOAA los hizo simplemente desaparecer. Ahora sus gráficos comienzan justo en el pico del año 1979. He estado intentando encontrar los datos satelitales del IPCC anteriores a 1979 por el NOAA durante más de seis meses y aparecen como ‘imposibles de localizar’.»

Nótese cómo, para intentar obtener credibilidad, Heller denomina «científicos del gobierno» a Martin I. HOFFERT, de la universidad de Nueva York, y a Brian P. FLANNERY, de la petrolera Exxon, autores del capítulo 5 Model projections of the time-dependent response to increasing carbon dioxide (1985) donde se reproduce el gráfico de hielo del océano Ártico de VINNIKOV ET AL extraído de Current Climate Estimates in the Northern Hemisphere (1980). No deja de resultar curioso que, de un compendio que supera las 400 páginas, el bloguero no recupere más que una imagen para su osada intención de desmentir a la comunidad científica internacional. Pero lo que más llama la atención es que las estimaciones de hielo en ese gráfico se refieren solamente al sector del Océano Ártico entre 1920 y 1975 y están en escala absoluta (extensión entre 5,5 y 7,5 millones de km2), cuando los gráficos del IPCC se refieren al hielo marino de todo el Hemisferio Norte y sus escalas representan anomalías, una en km2 (1990) y otra en porcentaje (2001). No son gráficos comparables, ni en el espacio, ni a escala temporal, ni por las unidades indicadas.

Veamos qué representa el gráfico de 1980 respecto de las últimas modelizaciones del Quinto Informe del IPCC (2013):

ipcc-ar5-wg1-2013_vs_heller

IPCC AR5 WG1 fig 4-03 contra Tony Heller

Por otra parte, antes de editar un gráfico de 1990 sobre el hielo ártico con la afirmación «datos satelitales ilocalizables», Heller podría haberse asegurado de si esos datos existen realmente visitando el observatorio de hielo oceánico de la NASA, donde precisamente se indica que «Desde 1979, una colección de satélites ha suministrado un registro continuo y casi completo de la capa de hielo oceánico«. No es muy difícil colegir que los datos obtenidos de satélites previos eran discontinuos y dispersos.

En efecto, aunque en el informe IPCC de 1990 se cita (pág 224) que se han utilizado observaciones satelitales de rutina para representar la extensión de hielo ártico desde los primeros años 70, las limitaciones iniciales se evidencian en el informe IPCC de 2001:

La extensión del hielo marino (el área interior de las márgenes del hielo oceánico) se observó desde el espacio de 1973 a 1976 usando el instrumento ESMR (Electrically Scanning Microwave Radiometer) basado en satélites, y luego continuamente desde 1978 mediante los instrumentos SSMR (Scanning Multichannel Microwave Radiometer) de 1978 a 1987, y SSM / I (Special Sensor Microwave/Imager) de 1987 hasta hoy.

La intercalibración de datos de los diferentes satélites no llegó hasta 1997.

En cualquier caso, los picos de hielo en los años setenta quedan patentes en los gráficos de la NASA; sólo que hay que querer mostrarlo en relación con la evolución conocida :

sea_ice_1953-2016

NASA Earth Observatory. Anomalías de extensión del hielo oceánico 1953-2016 contra Heller

3. Los antiguos relatos imprecisos tomados como fuentes autorizadas

  • «En los 50’s, los científicos eran muy conscientes de que la ‘delgada corteza’ del hielo marino del Ártico estaba desapareciendo y predijeron un Ártico sin hielo en una sola generación»
  • «Los científicos también eran conscientes de que hacia 1970 el hielo marino del Ártico se estaba volviendo mucho más grueso y extenso»
  • «El calentamiento previo y el posterior enfriamiento del Ártico no convenían, por lo que la NOAA y la NASA los hicieron desaparecer»

Heller tiene que recurrir a extractos de prensa de hace sesenta años sin referencias estacionales para intentar sostener su hipótesis. El de 1958 cita la opinión de algunos científicos que esperaban el deshielo completo del Ártico «en el período de vida de nuestros hijos», seguido de otro recorte de 1970 sobre investigaciones árticas en un contexto de enfriamiento temporal. Uno se pregunta si ha leído realmente el informe IPCC de 1990:

Los barcos han observado durante mucho tiempo los límites del hielo marino, y los registros de los puertos contienen a menudo fechas de aparición y desaparición de los hielos portuarios y costeros. Estas observaciones presentan muchos problemas de interpretación (BARRY, 1986) aunque se cree que son más fiables después de 1950. Los cambios y fluctuaciones en la extensión del hielo marino del Ártico han sido analizados por MYSAK y MANAK (1989). No encontraron tendencias a largo plazo en la extensión del hielo marino entre 1953 y 1984 en una serie de regiones del océano Ártico, pero hubo una evidente variabilidad sustancial a escala de decenios en el área atlántica […] Desde 1976, la extensión del hielo marino en el Hemisferio Norte ha variado alrededor de un nivel climatológico constante, aunque en 1972-1975 la extensión del hielo marino fue significativamente menor.

En cualquer caso, nada de ocultación de esos episodios puntuales: El informe IPCC de 2001 dejó claro que el conjunto de datos hemisféricos y regionales para el Ártico permiten contextualizar las tendencias derivadas de los satélites a la escala de un siglo:

La Figura 2.15 muestra las series temporales anuales de la extensión de hielo del hemisferio norte por estación de 1901 a 1999, utilizando datos in situ antes de la era de los satélites (VINNIKOV ET AL, 1999). Cabe destacar que la cobertura espacial de los datos antiguos no está completa, con los mayores vacíos de datos en otoño e invierno. Debido a que se disponía de pocos datos, la variabilidad de las series de otoño e invierno en la Figura 2.15 es menor durante las primeras décadas del siglo. Globalmente, no hay datos de verano ni de otoño durante la Segunda Guerra Mundial.

Y para colmo, escoge las temperaturas de una sola estación como Reykjavik, que ni siquiera forma parte oficialmente de la región ártica, para que su teoría aparente evidencia.

4. El culto al salto térmico de los 40

  1. «En 1985, Phil Jones, de la CRU, mostró un gran pico de calentamiento global por 1940, seguido de un enfriamiento de unos 0,5ºC»
  2. «El pico de los 40’s era incómodo para Phil Jones y el resto de sus correligionarios, de modo que discutieron cómo deshacerse de él»
  3. «Y lo hicieron. Suprimieron totalmente el hito de los 40’s y el enfriamiento siguiente. Ya no existe en los registros de temperaturas»
  4. «La NASA también ha eliminado el molesto calentamiento de los 40’s y el posterior enfriamiento, tal y como los citados científicos hicieron»

4.1) Vuelve Heller/Goddard a utilizar el documento de 1985, esta vez por los picos del gráfico 5.1 extraído de Variations in Surface Air Temperature; Part 1, Northern Hemisphere, 1881-1980 (JONES, WIGLEY ET AL, 1982). HOFFERT y FLANNERY declaraban que «La temperatura superficial del aire mostrada en la figura 5.1 indica un calentamiento global de más de 0,5ºC de los años 1880 a los 1940. Este calentamiento no continúa; al contrario, estuvo seguido de una aparente nivelación y una tendencia decreciente con importantes variabilidades superpuestas«. En el hemisferio norte, recordemos.

4.2) Aunque esta teoría ya había sido rebatida en 2008, viene a colocar en el anzuelo uno de los correos electrónicos de la Universidad de Anglia Oriental (UEA) hackeados y seleccionados por escépticos antes de la cumbre de Copenhague de 2009 para crear el Climategate con el fin de desacreditar a los científicos de la CRU. En ese mail, WIGLEY (UCAR, Estados Unidos) discute con JONES (UEA, Reino Unido) repecto de la corrección de un enfriamiento oceánico incoherente con la tendencia terrestre.

Además de relacionar inapropiadamente un gráfico de temperaturas aéreas del hemisferio norte con un tratamiento de temperaturas marinas globales, el bloguero convierte un mero y necesario ajuste estadístico en una terrible conspiración sobre la manipulación de resultados. Esperará que nadie haya leído la explicación de las mediciones oceánicas a la baja en los 40’s ni cómo la Revisión Independiente de los E-mails sobre el Cambio Climático, una de las comisiones creadas para investigar el asunto, ya concluyera en 2010 en el capítulo 6 de su informe final que:

En cuanto a a los ajustes de datos, no hay base para alegar que la CRU realizara ajutes de datos que tuvieran un efecto significativo sobre la medias globales ni que con ello generara evidencias sobre el calentamiento reciente (…) No encontramos nada en el comportamiento por parte de los científicos de la CRU, objeto de las alegaciones tratadas en este capítulo, que socave la validez de su trabajo.

4.3) A continuación, el gurú negacionista pretende probar que el salto de los años 40 ha sido eliminado plantando aisladamente un gráfico multianálisis de anomalías de temperaturas globales, cuando su referencia de partida (HOFFERT & FLANNERY, 1985) representaba cambios de temperatura en el hemisferio norte probablemente medida sólo en estaciones. Cuando se cruza la curva de VINNIKOV ET AL con la que realmente corresponde de la NASA (anomalías térmicas del hemisferio norte registradas en estaciones en base 1881-1980), la coincidencia es evidente:

Mediciones de Vinnikov coincidentes prácticamente con los datos del GISS (NASA) contra Tony Heller

4.4) Para colmo, compone un montaje donde por fin llega a demostrar algo : Sus carencias en la correlación básica de conceptos climatológicos. A la sazón, compara un antiguo gráfico de cambios de temperatura global tierra-océano con base 1881-1980 (Climate Impact of Increasing Atmospheric Carbon Dioxide, HANSEN ET AL, 1981) con el multianálisis de anomalías térmicas sólo en tierra respecto de la media 1951-1980 (GISS-NASA, 2017). De nuevo, la combinación del dibujo de 1981 con el gráfico correcto de la NASA basado en estaciones presenta una correlación casi fiel, desviada a partir de los años 60:

Mediciones de Hansen casi coincidentes con los datos apropiados del GISS (NASA) contra Tony Heller

Esta confusión de datos entre períodos, mediciones y espacios, esa recurrente comparación con un contexto que no les corresponde, muestra cuán extremadamente ridícula y hasta peligrosa resulta la ceguera negacionista. ¿De qué lado caen las actitudes deshonestas?

5. La pausa ¿definitiva? del calentamiento

  • «En 2013, la pausa del calentamiento global posterior a 2000 fue clave para el informe del IPCC»
  • «Lo que resultó incómodo para la NOAA y la NASA, de modo que Tom Karl y Gavin Schmidt la hiceron desaparecer»
  • «Este fraude fue tan flagrante que incluso el principal científico y timador del palo de hockey Michael Mann lo denunció a voces»

Heller no demuestra que el IPCC considerara un tema central la supuesta pausa (de hecho, sólo se trató en relación con las modelizaciones y entre otros 12 temas), sino que escoge simplemente un mero artículo de la BBC de 2013 a colación de a las reuniones del primer grupo de trabajo para el 5º informe donde se presentan dos gráficos sacados del documento de la Met Office The recent pause in global warming (2): What are the potential causes?. El primero -extraído expresamente por Heller para adornar el titular- muestra las tendencias de calentamiento de la superficie hasta entonces por bloques de nueve años, medidas en grados centígrados por década, de modo que solamente define si la tendencia decenal respecto de la media ha sido al alza o a la baja. El segundo gráfico representa la tendencia de ganancia de calor de las capas oceánicas superficiales, en cientos de zettajulios al año (y no la tendencia de ‘no se sabe qué’ en 10000 trillones de años, como indica la prensa).

En esa media decenal, escala que pone el foco más en ciclos meteorológicos que en tendencias climáticas, como aclararon a los medios varios expertos, se observan varios ciclos de bajadas y subidas desde 1880. Pero tanto el periodista como el bloguero han omitido las series evolutivas del calentamiento global (anomalías de temperatura, de calentamiento oceánico y de nivel marino) presentes en el mismísimo gráfico que les sirve de fuente y más fáciles de comprender por los lectores:

Is the current lack of warming unusual? (Met Office, 2013) contra Tony Heller

Hay intencionalidad en dirigir la atención sólo al período 1998-2013, que parte de un fenómeno excepcional como El Niño y se da en paralelo un tremendo almacenamiento térmico oceánico hasta 2002, efecto que puede explicar la disparidad entre las temperaturas en tierra y en la superficie oceánica.
Según el propio informe de la Met Office:

El análisis de la simulación de la variabilidad natural indica que aun con una tasa de calentamiento a largo plazo de 0,2 °C por década, cabría esperar de media en cada siglo al menos dos períodos con una tendencia aparentemente nula durante una década. La pausa actual en el aumento de la temperatura superficial global no es excepcional, según las simulaciones de modelos recientes (…) Las observaciones del contenido de calor oceánico y del aumento del nivel del mar sugieren que este calor adicional ha sido absorbido en el océano. Los cambios en el intercambio de calor entre el océano superior y el océano profundo parecen haber causado como poco parte de la pausa en el calentamiento superficial, y las observaciones sugieren que el Océano Pacífico puede desempeñar un papel clave.

Por otra parte, según el resumen técnico del 1er grupo de trabajo del IPCC de 2013, la diferencia entre tendencias simuladas y observadas «pueden estar causadas por alguna combinación de variabilidad climática interna, forzamientos radiativos no considerados o incorrectos, y error de respuesta del modelo«.

EN 2014 la NASA redactó un compendio con las contribuciones de ENGLAND ET AL explicando el efecto enfriador del patrón de vientos cambiantes del pacífico.

En 2015, KARL ET AL publicaron en la revista Science el estudio titulado Possible artifacts of data bases in the recent global surface warming hiatus (Posibles alteraciones en los patrones de datos sobre el reciente receso del calentamiento de la superficie global) que no resta méritos a los estudios anteriores, sino que reanaliza el patrón de datos empleados para calcular las temperaturas durante la «pausa» y llega a la conclusión de que las temperaturas estaban subestimadas. Este estudio levantó las suspicacias de algunos congresistas de EEUU, que solicitaron una investigación de los científicos de la NOAA .

Siguieron discusiones sobre la metodología pare estimar el intercambio térmico oceánico.

En 2016, un grupo de científicos encabezados por FYFE y entre los que se encontraban ENGLAND, MANN o HAWKINS elaboraron el estudio titulado Making sense of the early-2000s warming slowdown (Aportando sentido a la pausa del calentamiento en los primeros 2000), publicado en Nature, en el que contradecían la teoría de errores de KARL ET AL sin negar el aumento de la subida de temperaturas.

A inicios de 2017, Science publicaba un estudio independiente que confirmaba que no hubo pausa en el calentamiento global: Assessing recent warming using instrumentally homogeneous sea surface temperature records (Evaluación del reciente calentamiento mediante registros instrumentalmente homogéneos de la temperatura superficial del mar), elaborado por por HAUSFATHER ET AL. Sus conclusiones daban la razón al análisis de la NOAA:

Encontramos un gran sesgo de enfiamiento en la versión 3b de ERSST y sesgos de enfriamiento menores pero significativos en HadSST3 y COBE-SST desde 2003 hasta el presente, con respecto a la mayoría de las series examinadas. Estos resultados sugieren que los ratios extraídos de calentamiento sobre las temperaturas superficiales marinas en los últimos años se han subestimado en estos tres conjuntos de datos.

«La ‘pausa’ del cambio climático no existe, dicen los científicos, golpe mortal a los negacionistas del calentamiento global» titulaba The Independent.

En efecto, si estamos en 2017, ¿por qué Heller no publica datos actualizados? Puesto que se trata de una cuestión estadística, bastarían unos pocos años de elevado calentamiento tras 2013 para echar por tierra los argumentos sobre su freno. Quizá los últimos gráficos de la Met Office ayuden a comprender ese silencio:

Temperatura media global 1850-2016 (Met Office, 2017) contra Tony Heller

El gráfico habla por sí solo. Y los insultos a los científicos sobran.

6. La guinda negacionista : falsear datos para acusar de falsear datos

  1. «En 1990, la NASA determinó que las temperaturas satelitales eran más fiables que las superficiales, y que deberían ser tomadas como modelo»
  2. «Los datos de los satélites no dan a la NASA la respuesta que desean, por lo que la agencia espacial estadounidense ignora los satélites y en su lugar suministra temperaturas de superficie fraudulentas»
  3. «El fraude no se limita a los datos de temperatura. En 1982, James Hansen de la NASA mostró que el nivel del mar dejó de aumentar desde mediados de los años 50 durante 20 años. Desde entonces, la NASA ha borrado esta pausa para convertirla en una aceleración»

6.1) Esta es la seriedad del bloguero: Un artículo del Cranberra Times de 1990, sin referencias, citado como evidencia definitiva en varias páginas negacionistas:

Un informe emitido por la agencia espacial estadounidense NASA concluyó que no ha habido ninguna señal de que el efecto invernadero aumentara las temperaturas globales durante los años ochenta. Sobre la base de un análisis por satélite de la atmósfera entre 1.500 y 6.000 metros sobre el nivel del mar, el informe dijo que el estudio encontró «un patrón aparentemente aleatorio de cambio de año en año». Mientras varios meteorólogos gubernamentales y universitarios de todo el mundo han llegado a la conclusión de que las temperaturas promedio de la superficie han aumentado significativamente en los últimos años, los autores del informe dijeron que su análisis por satélite de la atmósfera superior es más preciso y debería ser adoptado como la forma estándar de monitorizar el cambio de la temperatura global.

El informe en cuestión lo habían publicado en 1990 en Science dos científicos, SPENCER y CHRISTY, con el título Precise Monitoring of Global Temperature Trends from Satellites (Monitoreo preciso de las tendencias de temperaturas globales desde satélites). Ambos aplicaron auto-correcciones posteriores al haber detectado sesgos a la baja de los datos recolectados por los instrumentos satelitales. Más tarde, en 2004, FU ET AL publicaron en Nature el artículo Contribution of stratospheric cooling to satellite-inferred tropospheric temperature trends (Contribución del enfriamiento estratosférico a las tendencias de la temperatura troposférica inferida por satélites), donde explican cómo esas mediciones fueron subestimadas porque el instrumento registra parcialmente temperaturas estratosféricas cuya gran tendencia de enfriamiento compensa las contribuciones del calentamiento troposférico. Y por fin en 2006, WIGLEY, el propio CHRISTY y otros autores redactaron Temperature Trends in the Lower Atmosphere – Understanding and Reconciling Differences (Tendencias de temperatura en la atmósfera inferior. Comprensión y reconciliación de las diferencias), donde se señalaba que :

Los datos de superficie mostraron un calentamiento promedio mundial sustancial, mientras que las primeras versiones de los datos satelitales y de radiosonda mostraron poco o ningún calentamiento sobre la superficie. Esta importante discrepancia ya no existe porque se han identificado y corregido los errores en los datos del satélite y la radiosonda. También se han desarrollado nuevos conjuntos de datos que no muestran tales discrepancias.

Este informe conjunto concluye al respecto que es más probable que las diferencias entre la superficie y la troposfera provengan de errores en los datos troposféricos que de errores en los datos de superficie, así como que hay muy probablemente errores en los conjuntos de datos de las sondas derivados de métodos de corrección inapropiados para enfriamientos espúreos, y que se dan diferencias tendenciales entre diferentes versiones de satélites por los distintos cruces de datos.

6.2) En lo que concierne los registros del GISTEMP, puestas en relación con las de la UAH y el RSS en un gráfico de Woodfortrees editado, hay que tener mucho descaro para rebuscar el inicio que más le interesa (1995, en un histórico de temperaturas que comienza en 1979), el promedio que más le conviene (60 meses en lugar de 12) y series no comparables (mediciones satelitales modernas de la temperatura en el suelo contra registros más antiguos interpolados de temperatura del aire).

He aquí lo que ocurre cambiando el origen de la serie a 1979:

woodfortrees.org – Curvas desde 1979 con mayores anomalías RSS, contra Heller

El propio autor de la web que implementa los gráficos advierte en sus notas del posible mal uso de la herramienta y explica cómo realizar correctamente las comparaciones, incidiendo en que las fuentes disponibles refieren anomalías de temperaturas mensuales respecto de líneas base diferentes:

GISTEMP 01/1951 – 12/1980 (30 años)
HADCRUT4 01/1961 – 12/1990 (30 años)
RSS 01/1979 – 12/1998 (20 años)
UAH 01/1981 – 12/2010 (30 años)

GISTEMP se basa en un período base más lejano, durante el cual las temperaturas eran más frías, de modo que las anomalías aparecen más elevadas. UAH, por el contrario, utiliza un período base más reciente y cálido, por lo que las anomalías aparecen más bajas. No es una cuestión de fraude, sino de pura estadística.

Y he aquí la comparativa correcta del autor de la web con las series apropiadas:

GISTEMP LOTI global mean
HADCRUT4 global mean
RSS MSU LT global mean
UAH 6.0 NSSTC LT global mean

woodfortrees.org – Comparaciones correctas del autor, contra Heller

En ningún momento la NASA confía deliberadamente más en las estaciones meteorológicas que en las mediciones satelitales. Según GISTEMP, la metodología Land-Ocean Temperature Index (LOTI), que trabaja con anomalías térmicas combinadas del aire sobre suelo y de la superficie marina «muestra una representación más realista de las tendencias de media global» que las dTs [estaciones meteorológicas, que sólo toman las anomalías térmicas del aire sobre el suelo] ; [LOTI] subestima ligeramente las tendencias de calentamiento o enfriamiento, ya que la capacidad calorífica calor mucho mayor del agua en comparación con el aire causa una reacción más lenta y reducida a los cambios; dTs por el contrario sobreestima las tendencias, ya que no tiene en cuenta la mayoría de los efectos amortiguadores de los océanos que cubren aproximadamente dos tercios de la superficie de la Tierra«.

6.3) De nuevo el recurso al montaje mal calibrado de un gráfico antiguo, intentando oponer un estudio de GORNITZ, HANSEN ET AL (GISS, NASA, 1982) a las mediciones del CSIRO (gobierno australiano) por una falta de correlación puntual. El bloguero subtitula que «sólo es un pequeño ejemplo del fraude climático ejecutado ante nuestras narices por la NASA, el NOAA y el CRU», antes de hacer una llamada a que Trump pare estos trabajos y a que los funcionarios denuncien con medios dudosos a los científicos.

La NASA explica las diferencias entre las distintas evaluaciones:

Los investigadores han ideado una variedad de métodos para superar estas brechas e identificar las tendencias en el aumento mundial del nivel del mar durante el siglo XX. El resultado: un acuerdo sustancial sobre la tendencia a largo plazo pero diferencias en la evaluación de las variaciones a lo largo de los años y las décadas.

Y es que las mediciones con mareógrafos son especialmente complejas por la combinación de datos de instrumentos diferentes de varias generaciones, muchos de ellos sujetas a inspecciones oculares e inscripciones manuales y dependientes de la zona del muelle en que se sitúen. Hoy se dispone de más datos y mejores técnicas para reconstruir los niveles, se introducen márgenes de error para las mediciones más tempranas y escasas y se combina desde 1993 mareógrafos y satélites, objeto de una reciente corrección.

La actualización de las fuentes hasta 2013 ha permitido reconstruir los registros de muchos mareógrafos antes indisponibles. El CSIRO dispone hoy de una larga lista con casi 550 mareógrafos anteriores a 1982, frente a los 193 considerados en el estudio de GORNITZ, HANSEN ET AL (donde al final sólo se emplean 86 concentrados en la Costa Este norteamericana, Escandinavia y el Báltico sur):

Gráficos CSIRO 2013 y Gornitz et al 1982 con sus muestras, contra Heller

Heller/Goddard se escandaliza por algo que se hace a diario en todos los campos: la revisión científica (incluso la propia de los autores). Se aferra a unos pocos registros con gran probabilidad de error entre la totalidad de las observaciones y esconde cínicamente, tras las absurdas acusaciones de fraude, las conclusiones de sus propias fuentes:

El aumento continuo de los niveles del mar es probable en un futuro próximo si las predicciones del calentamiento global son correctas. La expansión térmica del agua del mar puede aumentar el nivel marino de 20 a 30 cm en los próximos 70 años; si la lenta fundición del hielo aumenta al mismo ritmo que en los últimos 100 años, se producirá un aumento del nivel del mar entre 40 y 60 cm hacia 2050.

Cherry picking, gráficos no comparables, declaraciones sin referencias, documentación obsoleta, acusaciones infundadas, confusión de conceptos, omisión de conclusiones…

Otro amasijo de burdas falacias con que alimentar el credo conspiranoide contra el consenso científico del cambio climático.

Anuncio publicitario