Desmontando a Tony Heller

Me invitan a leer en Principia Scientific, uno de esos sitios «escépticos» que dicen tratar de ciencia y registrado en una conocida sede virtual del Reino Unido, un artículo de manual redactado por Tony Heller, bloguero negacionista del cambio climático que se hacía llamar Steven Goddard, titulado «The Climate Fraud Conspiracy: Key Evidence Explained» (La conspiración del fraude climático : La evidencia clave explicada).

En el invierno boreal de 2017 abundaban escritos como el de este mediático «enfriólogo», donde pretende colarnos como evidencias las erróneas conclusiones, típicas falacias y falsedades que componen el argumentario contra el cambio climático:
1. El manido período cálido medieval

  • «En 1990, Tom Karl y el IPCC mostraron que la Tierra estuvo mucho más caliente hace 900 años, durante el período cálido medieval»
  • «Pero en 1995, los científicos del clima tomaron la decisión de eliminar el molesto período cálido medieval»
  • «Para 2001, Michael Mann y el IPCC continuaron con sus planes y borraron el período cálido medieval»

Una curva sin escala extraída del capítulo 7 del Informe de 1990 del Panel Intergubernamental sobre Cambio Climático (IPCC), una declaración sin referencias de 2006 realizadas por Deming, correligionario profesor ultraconservador ligado al petróleo, y un único gráfico sacado del Tercer Informe de Asesoramiento del IPCC diez años posterior al primero y de hace ya quince años. Esa es toda la artillería pesada de Heller para acusar a la comunidad científica internacional de «ocultar» un supuesto calentamiento medieval.

Lo que esconde el bloguero es que el texto que acompaña el diagrama de KARL ET AL (página 202) cita:

El último décimo de los trece siglos más recientes (sobre los años 950-1250) parece haber sido excepcionalmente cálido en Europa occidental, Islandia y Groenlandia (ALEXANDRE 1987, LAMB, 1988) . Este período se conoce como el óptimo climático medieval. China estuvo, sin embargo, fría en la misma época (principalmente en invierno) aunque el sur de Japón estuvo cálido (YOSHINO, 1978)

Esto es, un episodio más bien local.

Basta con verificar en la bibliografía que el estudio de ALEXANDRE está concretamente basado en fuentes narrativas (Le Climat en Europe au Moyen Age. Contribution à l’histoire des variations climatiques de 1000 à 1425 d’après les sources narratives de l’Europe Occidentale) para no atribuir exactitud a lo que los propios autores denominan diagrama esquemático.

Heller también soslaya que el gráfico de 2001 es una muestra del hemisferio norte (no de Europa Occidental ni de todo el planeta) y sobre todo se abstiene de citar el amplio margen de error para el período 1000-1600 y la evolución de los métodos de estimación. En efecto, la calibración de datos combinados terrestres y marinos (dendrocronología, núcleo del hielo, documentos históricos, corales) no evidencia una mayor calidez de este período respecto del siglo XX. El detractor pone la mira en MANN pero obvia que otros investigadores llegaron a similares conclusiones con datos y métodos diferentes.

Este francotirador podría aprender un poco del párrafo Was there a «Little Ice Age» and a «Medieval Warm Period»? y, sobre todo, tener un poco de respeto por la revisión y la actualización científicas. Sirva como muestra el que en Science Direct aparecen 58.000 publicaciones sobre climatic change en libros y revistas entre 1823 y 1990, mientras que se catalogaron 66.000 en el decenio 1991-2001 y 300.000 desde 2002 hasta hoy.


2. La infundada sospecha de los satélites desaparecidos

  • «El informe IPCC de 1990 también detallaba los datos satelitales de la NOAA sobre el Ártico, que mostraban cómo la extensión del hielo oceánico ártico era mucho menor en 1973 que en 1979»
  • «Los científicos del gobierno también sabían en 1985 que la extensión del hielo marino ártico era mucho menor en los 40’s y en los 50’s que en 1973»
  • «Los datos anteriores a 1979 sobre el hielo del Ártico eran extremadamente molestos, luego la NOAA los hizo simplemente desaparecer. Ahora sus gráficos comienzan justo en el pico del año 1979. He estado intentando encontrar los datos satelitales del IPCC anteriores a 1979 por el NOAA durante más de seis meses y aparecen como ‘imposibles de localizar’.»

Nótese cómo, para intentar obtener credibilidad, Heller denomina «científicos del gobierno» a Martin I. HOFFERT, de la universidad de Nueva York, y a Brian P. FLANNERY, de la petrolera Exxon, autores del capítulo 5 Model projections of the time-dependent response to increasing carbon dioxide (1985) donde se reproduce el gráfico de hielo del océano Ártico de VINNIKOV ET AL extraído de Current Climate Estimates in the Northern Hemisphere (1980). No deja de resultar curioso que, de un compendio que supera las 400 páginas, el bloguero no recupere más que una imagen para su osada intención de desmentir a la comunidad científica internacional. Pero lo que más llama la atención es que las estimaciones de hielo en ese gráfico se refieren solamente al sector del Océano Ártico entre 1920 y 1975 y están en escala absoluta (extensión entre 5,5 y 7,5 millones de km2), cuando los gráficos del IPCC se refieren al hielo marino de todo el Hemisferio Norte y sus escalas representan anomalías, una en km2 (1990) y otra en porcentaje (2001). No son gráficos comparables, ni en el espacio, ni a escala temporal, ni por las unidades indicadas.

Veamos qué representa el gráfico de 1980 respecto de las últimas modelizaciones del Quinto Informe del IPCC (2013):

ipcc-ar5-wg1-2013_vs_heller

IPCC AR5 WG1 fig 4-03 contra Tony Heller

Por otra parte, antes de editar un gráfico de 1990 sobre el hielo ártico con la afirmación «datos satelitales ilocalizables», Heller podría haberse asegurado de si esos datos existen realmente visitando el observatorio de hielo oceánico de la NASA, donde precisamente se indica que «Desde 1979, una colección de satélites ha suministrado un registro continuo y casi completo de la capa de hielo oceánico«. No es muy difícil colegir que los datos obtenidos de satélites previos eran discontinuos y dispersos.

En efecto, aunque en el informe IPCC de 1990 se cita (pág 224) que se han utilizado observaciones satelitales de rutina para representar la extensión de hielo ártico desde los primeros años 70, las limitaciones iniciales se evidencian en el informe IPCC de 2001:

La extensión del hielo marino (el área interior de las márgenes del hielo oceánico) se observó desde el espacio de 1973 a 1976 usando el instrumento ESMR (Electrically Scanning Microwave Radiometer) basado en satélites, y luego continuamente desde 1978 mediante los instrumentos SSMR (Scanning Multichannel Microwave Radiometer) de 1978 a 1987, y SSM / I (Special Sensor Microwave/Imager) de 1987 hasta hoy.

La intercalibración de datos de los diferentes satélites no llegó hasta 1997.

En cualquier caso, los picos de hielo en los años setenta quedan patentes en los gráficos de la NASA; sólo que hay que querer mostrarlo en relación con la evolución conocida :

sea_ice_1953-2016

NASA Earth Observatory. Anomalías de extensión del hielo oceánico 1953-2016 contra Heller

3. Los antiguos relatos imprecisos tomados como fuentes autorizadas

  • «En los 50’s, los científicos eran muy conscientes de que la ‘delgada corteza’ del hielo marino del Ártico estaba desapareciendo y predijeron un Ártico sin hielo en una sola generación»
  • «Los científicos también eran conscientes de que hacia 1970 el hielo marino del Ártico se estaba volviendo mucho más grueso y extenso»
  • «El calentamiento previo y el posterior enfriamiento del Ártico no convenían, por lo que la NOAA y la NASA los hicieron desaparecer»

Heller tiene que recurrir a extractos de prensa de hace sesenta años sin referencias estacionales para intentar sostener su hipótesis. El de 1958 cita la opinión de algunos científicos que esperaban el deshielo completo del Ártico «en el período de vida de nuestros hijos», seguido de otro recorte de 1970 sobre investigaciones árticas en un contexto de enfriamiento temporal. Uno se pregunta si ha leído realmente el informe IPCC de 1990:

Los barcos han observado durante mucho tiempo los límites del hielo marino, y los registros de los puertos contienen a menudo fechas de aparición y desaparición de los hielos portuarios y costeros. Estas observaciones presentan muchos problemas de interpretación (BARRY, 1986) aunque se cree que son más fiables después de 1950. Los cambios y fluctuaciones en la extensión del hielo marino del Ártico han sido analizados por MYSAK y MANAK (1989). No encontraron tendencias a largo plazo en la extensión del hielo marino entre 1953 y 1984 en una serie de regiones del océano Ártico, pero hubo una evidente variabilidad sustancial a escala de decenios en el área atlántica […] Desde 1976, la extensión del hielo marino en el Hemisferio Norte ha variado alrededor de un nivel climatológico constante, aunque en 1972-1975 la extensión del hielo marino fue significativamente menor.

En cualquer caso, nada de ocultación de esos episodios puntuales: El informe IPCC de 2001 dejó claro que el conjunto de datos hemisféricos y regionales para el Ártico permiten contextualizar las tendencias derivadas de los satélites a la escala de un siglo:

La Figura 2.15 muestra las series temporales anuales de la extensión de hielo del hemisferio norte por estación de 1901 a 1999, utilizando datos in situ antes de la era de los satélites (VINNIKOV ET AL, 1999). Cabe destacar que la cobertura espacial de los datos antiguos no está completa, con los mayores vacíos de datos en otoño e invierno. Debido a que se disponía de pocos datos, la variabilidad de las series de otoño e invierno en la Figura 2.15 es menor durante las primeras décadas del siglo. Globalmente, no hay datos de verano ni de otoño durante la Segunda Guerra Mundial.

Y para colmo, escoge las temperaturas de una sola estación como Reykjavik, que ni siquiera forma parte oficialmente de la región ártica, para que su teoría aparente evidencia.

4. El culto al salto térmico de los 40

  1. «En 1985, Phil Jones, de la CRU, mostró un gran pico de calentamiento global por 1940, seguido de un enfriamiento de unos 0,5ºC»
  2. «El pico de los 40’s era incómodo para Phil Jones y el resto de sus correligionarios, de modo que discutieron cómo deshacerse de él»
  3. «Y lo hicieron. Suprimieron totalmente el hito de los 40’s y el enfriamiento siguiente. Ya no existe en los registros de temperaturas»
  4. «La NASA también ha eliminado el molesto calentamiento de los 40’s y el posterior enfriamiento, tal y como los citados científicos hicieron»

4.1) Vuelve Heller/Goddard a utilizar el documento de 1985, esta vez por los picos del gráfico 5.1 extraído de Variations in Surface Air Temperature; Part 1, Northern Hemisphere, 1881-1980 (JONES, WIGLEY ET AL, 1982). HOFFERT y FLANNERY declaraban que «La temperatura superficial del aire mostrada en la figura 5.1 indica un calentamiento global de más de 0,5ºC de los años 1880 a los 1940. Este calentamiento no continúa; al contrario, estuvo seguido de una aparente nivelación y una tendencia decreciente con importantes variabilidades superpuestas«. En el hemisferio norte, recordemos.

4.2) Aunque esta teoría ya había sido rebatida en 2008, viene a colocar en el anzuelo uno de los correos electrónicos de la Universidad de Anglia Oriental (UEA) hackeados y seleccionados por escépticos antes de la cumbre de Copenhague de 2009 para crear el Climategate con el fin de desacreditar a los científicos de la CRU. En ese mail, WIGLEY (UCAR, Estados Unidos) discute con JONES (UEA, Reino Unido) repecto de la corrección de un enfriamiento oceánico incoherente con la tendencia terrestre.

Además de relacionar inapropiadamente un gráfico de temperaturas aéreas del hemisferio norte con un tratamiento de temperaturas marinas globales, el bloguero convierte un mero y necesario ajuste estadístico en una terrible conspiración sobre la manipulación de resultados. Esperará que nadie haya leído la explicación de las mediciones oceánicas a la baja en los 40’s ni cómo la Revisión Independiente de los E-mails sobre el Cambio Climático, una de las comisiones creadas para investigar el asunto, ya concluyera en 2010 en el capítulo 6 de su informe final que:

En cuanto a a los ajustes de datos, no hay base para alegar que la CRU realizara ajutes de datos que tuvieran un efecto significativo sobre la medias globales ni que con ello generara evidencias sobre el calentamiento reciente (…) No encontramos nada en el comportamiento por parte de los científicos de la CRU, objeto de las alegaciones tratadas en este capítulo, que socave la validez de su trabajo.

4.3) A continuación, el gurú negacionista pretende probar que el salto de los años 40 ha sido eliminado plantando aisladamente un gráfico multianálisis de anomalías de temperaturas globales, cuando su referencia de partida (HOFFERT & FLANNERY, 1985) representaba cambios de temperatura en el hemisferio norte probablemente medida sólo en estaciones. Cuando se cruza la curva de VINNIKOV ET AL con la que realmente corresponde de la NASA (anomalías térmicas del hemisferio norte registradas en estaciones en base 1881-1980), la coincidencia es evidente:

Mediciones de Vinnikov coincidentes prácticamente con los datos del GISS (NASA) contra Tony Heller

4.4) Para colmo, compone un montaje donde por fin llega a demostrar algo : Sus carencias en la correlación básica de conceptos climatológicos. A la sazón, compara un antiguo gráfico de cambios de temperatura global tierra-océano con base 1881-1980 (Climate Impact of Increasing Atmospheric Carbon Dioxide, HANSEN ET AL, 1981) con el multianálisis de anomalías térmicas sólo en tierra respecto de la media 1951-1980 (GISS-NASA, 2017). De nuevo, la combinación del dibujo de 1981 con el gráfico correcto de la NASA basado en estaciones presenta una correlación casi fiel, desviada a partir de los años 60:

Mediciones de Hansen casi coincidentes con los datos apropiados del GISS (NASA) contra Tony Heller

Esta confusión de datos entre períodos, mediciones y espacios, esa recurrente comparación con un contexto que no les corresponde, muestra cuán extremadamente ridícula y hasta peligrosa resulta la ceguera negacionista. ¿De qué lado caen las actitudes deshonestas?

5. La pausa ¿definitiva? del calentamiento

  • «En 2013, la pausa del calentamiento global posterior a 2000 fue clave para el informe del IPCC»
  • «Lo que resultó incómodo para la NOAA y la NASA, de modo que Tom Karl y Gavin Schmidt la hiceron desaparecer»
  • «Este fraude fue tan flagrante que incluso el principal científico y timador del palo de hockey Michael Mann lo denunció a voces»

Heller no demuestra que el IPCC considerara un tema central la supuesta pausa (de hecho, sólo se trató en relación con las modelizaciones y entre otros 12 temas), sino que escoge simplemente un mero artículo de la BBC de 2013 a colación de a las reuniones del primer grupo de trabajo para el 5º informe donde se presentan dos gráficos sacados del documento de la Met Office The recent pause in global warming (2): What are the potential causes?. El primero -extraído expresamente por Heller para adornar el titular- muestra las tendencias de calentamiento de la superficie hasta entonces por bloques de nueve años, medidas en grados centígrados por década, de modo que solamente define si la tendencia decenal respecto de la media ha sido al alza o a la baja. El segundo gráfico representa la tendencia de ganancia de calor de las capas oceánicas superficiales, en cientos de zettajulios al año (y no la tendencia de ‘no se sabe qué’ en 10000 trillones de años, como indica la prensa).

En esa media decenal, escala que pone el foco más en ciclos meteorológicos que en tendencias climáticas, como aclararon a los medios varios expertos, se observan varios ciclos de bajadas y subidas desde 1880. Pero tanto el periodista como el bloguero han omitido las series evolutivas del calentamiento global (anomalías de temperatura, de calentamiento oceánico y de nivel marino) presentes en el mismísimo gráfico que les sirve de fuente y más fáciles de comprender por los lectores:

Is the current lack of warming unusual? (Met Office, 2013) contra Tony Heller

Hay intencionalidad en dirigir la atención sólo al período 1998-2013, que parte de un fenómeno excepcional como El Niño y se da en paralelo un tremendo almacenamiento térmico oceánico hasta 2002, efecto que puede explicar la disparidad entre las temperaturas en tierra y en la superficie oceánica.
Según el propio informe de la Met Office:

El análisis de la simulación de la variabilidad natural indica que aun con una tasa de calentamiento a largo plazo de 0,2 °C por década, cabría esperar de media en cada siglo al menos dos períodos con una tendencia aparentemente nula durante una década. La pausa actual en el aumento de la temperatura superficial global no es excepcional, según las simulaciones de modelos recientes (…) Las observaciones del contenido de calor oceánico y del aumento del nivel del mar sugieren que este calor adicional ha sido absorbido en el océano. Los cambios en el intercambio de calor entre el océano superior y el océano profundo parecen haber causado como poco parte de la pausa en el calentamiento superficial, y las observaciones sugieren que el Océano Pacífico puede desempeñar un papel clave.

Por otra parte, según el resumen técnico del 1er grupo de trabajo del IPCC de 2013, la diferencia entre tendencias simuladas y observadas «pueden estar causadas por alguna combinación de variabilidad climática interna, forzamientos radiativos no considerados o incorrectos, y error de respuesta del modelo«.

EN 2014 la NASA redactó un compendio con las contribuciones de ENGLAND ET AL explicando el efecto enfriador del patrón de vientos cambiantes del pacífico.

En 2015, KARL ET AL publicaron en la revista Science el estudio titulado Possible artifacts of data bases in the recent global surface warming hiatus (Posibles alteraciones en los patrones de datos sobre el reciente receso del calentamiento de la superficie global) que no resta méritos a los estudios anteriores, sino que reanaliza el patrón de datos empleados para calcular las temperaturas durante la «pausa» y llega a la conclusión de que las temperaturas estaban subestimadas. Este estudio levantó las suspicacias de algunos congresistas de EEUU, que solicitaron una investigación de los científicos de la NOAA .

Siguieron discusiones sobre la metodología pare estimar el intercambio térmico oceánico.

En 2016, un grupo de científicos encabezados por FYFE y entre los que se encontraban ENGLAND, MANN o HAWKINS elaboraron el estudio titulado Making sense of the early-2000s warming slowdown (Aportando sentido a la pausa del calentamiento en los primeros 2000), publicado en Nature, en el que contradecían la teoría de errores de KARL ET AL sin negar el aumento de la subida de temperaturas.

A inicios de 2017, Science publicaba un estudio independiente que confirmaba que no hubo pausa en el calentamiento global: Assessing recent warming using instrumentally homogeneous sea surface temperature records (Evaluación del reciente calentamiento mediante registros instrumentalmente homogéneos de la temperatura superficial del mar), elaborado por por HAUSFATHER ET AL. Sus conclusiones daban la razón al análisis de la NOAA:

Encontramos un gran sesgo de enfiamiento en la versión 3b de ERSST y sesgos de enfriamiento menores pero significativos en HadSST3 y COBE-SST desde 2003 hasta el presente, con respecto a la mayoría de las series examinadas. Estos resultados sugieren que los ratios extraídos de calentamiento sobre las temperaturas superficiales marinas en los últimos años se han subestimado en estos tres conjuntos de datos.

«La ‘pausa’ del cambio climático no existe, dicen los científicos, golpe mortal a los negacionistas del calentamiento global» titulaba The Independent.

En efecto, si estamos en 2017, ¿por qué Heller no publica datos actualizados? Puesto que se trata de una cuestión estadística, bastarían unos pocos años de elevado calentamiento tras 2013 para echar por tierra los argumentos sobre su freno. Quizá los últimos gráficos de la Met Office ayuden a comprender ese silencio:

Temperatura media global 1850-2016 (Met Office, 2017) contra Tony Heller

El gráfico habla por sí solo. Y los insultos a los científicos sobran.

6. La guinda negacionista : falsear datos para acusar de falsear datos

  1. «En 1990, la NASA determinó que las temperaturas satelitales eran más fiables que las superficiales, y que deberían ser tomadas como modelo»
  2. «Los datos de los satélites no dan a la NASA la respuesta que desean, por lo que la agencia espacial estadounidense ignora los satélites y en su lugar suministra temperaturas de superficie fraudulentas»
  3. «El fraude no se limita a los datos de temperatura. En 1982, James Hansen de la NASA mostró que el nivel del mar dejó de aumentar desde mediados de los años 50 durante 20 años. Desde entonces, la NASA ha borrado esta pausa para convertirla en una aceleración»

6.1) Esta es la seriedad del bloguero: Un artículo del Cranberra Times de 1990, sin referencias, citado como evidencia definitiva en varias páginas negacionistas:

Un informe emitido por la agencia espacial estadounidense NASA concluyó que no ha habido ninguna señal de que el efecto invernadero aumentara las temperaturas globales durante los años ochenta. Sobre la base de un análisis por satélite de la atmósfera entre 1.500 y 6.000 metros sobre el nivel del mar, el informe dijo que el estudio encontró «un patrón aparentemente aleatorio de cambio de año en año». Mientras varios meteorólogos gubernamentales y universitarios de todo el mundo han llegado a la conclusión de que las temperaturas promedio de la superficie han aumentado significativamente en los últimos años, los autores del informe dijeron que su análisis por satélite de la atmósfera superior es más preciso y debería ser adoptado como la forma estándar de monitorizar el cambio de la temperatura global.

El informe en cuestión lo habían publicado en 1990 en Science dos científicos, SPENCER y CHRISTY, con el título Precise Monitoring of Global Temperature Trends from Satellites (Monitoreo preciso de las tendencias de temperaturas globales desde satélites). Ambos aplicaron auto-correcciones posteriores al haber detectado sesgos a la baja de los datos recolectados por los instrumentos satelitales. Más tarde, en 2004, FU ET AL publicaron en Nature el artículo Contribution of stratospheric cooling to satellite-inferred tropospheric temperature trends (Contribución del enfriamiento estratosférico a las tendencias de la temperatura troposférica inferida por satélites), donde explican cómo esas mediciones fueron subestimadas porque el instrumento registra parcialmente temperaturas estratosféricas cuya gran tendencia de enfriamiento compensa las contribuciones del calentamiento troposférico. Y por fin en 2006, WIGLEY, el propio CHRISTY y otros autores redactaron Temperature Trends in the Lower Atmosphere – Understanding and Reconciling Differences (Tendencias de temperatura en la atmósfera inferior. Comprensión y reconciliación de las diferencias), donde se señalaba que :

Los datos de superficie mostraron un calentamiento promedio mundial sustancial, mientras que las primeras versiones de los datos satelitales y de radiosonda mostraron poco o ningún calentamiento sobre la superficie. Esta importante discrepancia ya no existe porque se han identificado y corregido los errores en los datos del satélite y la radiosonda. También se han desarrollado nuevos conjuntos de datos que no muestran tales discrepancias.

Este informe conjunto concluye al respecto que es más probable que las diferencias entre la superficie y la troposfera provengan de errores en los datos troposféricos que de errores en los datos de superficie, así como que hay muy probablemente errores en los conjuntos de datos de las sondas derivados de métodos de corrección inapropiados para enfriamientos espúreos, y que se dan diferencias tendenciales entre diferentes versiones de satélites por los distintos cruces de datos.

6.2) En lo que concierne los registros del GISTEMP, puestas en relación con las de la UAH y el RSS en un gráfico de Woodfortrees editado, hay que tener mucho descaro para rebuscar el inicio que más le interesa (1995, en un histórico de temperaturas que comienza en 1979), el promedio que más le conviene (60 meses en lugar de 12) y series no comparables (mediciones satelitales modernas de la temperatura en el suelo contra registros más antiguos interpolados de temperatura del aire).

He aquí lo que ocurre cambiando el origen de la serie a 1979:

woodfortrees.org – Curvas desde 1979 con mayores anomalías RSS, contra Heller

El propio autor de la web que implementa los gráficos advierte en sus notas del posible mal uso de la herramienta y explica cómo realizar correctamente las comparaciones, incidiendo en que las fuentes disponibles refieren anomalías de temperaturas mensuales respecto de líneas base diferentes:

GISTEMP 01/1951 – 12/1980 (30 años)
HADCRUT4 01/1961 – 12/1990 (30 años)
RSS 01/1979 – 12/1998 (20 años)
UAH 01/1981 – 12/2010 (30 años)

GISTEMP se basa en un período base más lejano, durante el cual las temperaturas eran más frías, de modo que las anomalías aparecen más elevadas. UAH, por el contrario, utiliza un período base más reciente y cálido, por lo que las anomalías aparecen más bajas. No es una cuestión de fraude, sino de pura estadística.

Y he aquí la comparativa correcta del autor de la web con las series apropiadas:

GISTEMP LOTI global mean
HADCRUT4 global mean
RSS MSU LT global mean
UAH 6.0 NSSTC LT global mean

woodfortrees.org – Comparaciones correctas del autor, contra Heller

En ningún momento la NASA confía deliberadamente más en las estaciones meteorológicas que en las mediciones satelitales. Según GISTEMP, la metodología Land-Ocean Temperature Index (LOTI), que trabaja con anomalías térmicas combinadas del aire sobre suelo y de la superficie marina «muestra una representación más realista de las tendencias de media global» que las dTs [estaciones meteorológicas, que sólo toman las anomalías térmicas del aire sobre el suelo] ; [LOTI] subestima ligeramente las tendencias de calentamiento o enfriamiento, ya que la capacidad calorífica calor mucho mayor del agua en comparación con el aire causa una reacción más lenta y reducida a los cambios; dTs por el contrario sobreestima las tendencias, ya que no tiene en cuenta la mayoría de los efectos amortiguadores de los océanos que cubren aproximadamente dos tercios de la superficie de la Tierra«.

6.3) De nuevo el recurso al montaje mal calibrado de un gráfico antiguo, intentando oponer un estudio de GORNITZ, HANSEN ET AL (GISS, NASA, 1982) a las mediciones del CSIRO (gobierno australiano) por una falta de correlación puntual. El bloguero subtitula que «sólo es un pequeño ejemplo del fraude climático ejecutado ante nuestras narices por la NASA, el NOAA y el CRU», antes de hacer una llamada a que Trump pare estos trabajos y a que los funcionarios denuncien con medios dudosos a los científicos.

La NASA explica las diferencias entre las distintas evaluaciones:

Los investigadores han ideado una variedad de métodos para superar estas brechas e identificar las tendencias en el aumento mundial del nivel del mar durante el siglo XX. El resultado: un acuerdo sustancial sobre la tendencia a largo plazo pero diferencias en la evaluación de las variaciones a lo largo de los años y las décadas.

Y es que las mediciones con mareógrafos son especialmente complejas por la combinación de datos de instrumentos diferentes de varias generaciones, muchos de ellos sujetas a inspecciones oculares e inscripciones manuales y dependientes de la zona del muelle en que se sitúen. Hoy se dispone de más datos y mejores técnicas para reconstruir los niveles, se introducen márgenes de error para las mediciones más tempranas y escasas y se combina desde 1993 mareógrafos y satélites, objeto de una reciente corrección.

La actualización de las fuentes hasta 2013 ha permitido reconstruir los registros de muchos mareógrafos antes indisponibles. El CSIRO dispone hoy de una larga lista con casi 550 mareógrafos anteriores a 1982, frente a los 193 considerados en el estudio de GORNITZ, HANSEN ET AL (donde al final sólo se emplean 86 concentrados en la Costa Este norteamericana, Escandinavia y el Báltico sur):

Gráficos CSIRO 2013 y Gornitz et al 1982 con sus muestras, contra Heller

Heller/Goddard se escandaliza por algo que se hace a diario en todos los campos: la revisión científica (incluso la propia de los autores). Se aferra a unos pocos registros con gran probabilidad de error entre la totalidad de las observaciones y esconde cínicamente, tras las absurdas acusaciones de fraude, las conclusiones de sus propias fuentes:

El aumento continuo de los niveles del mar es probable en un futuro próximo si las predicciones del calentamiento global son correctas. La expansión térmica del agua del mar puede aumentar el nivel marino de 20 a 30 cm en los próximos 70 años; si la lenta fundición del hielo aumenta al mismo ritmo que en los últimos 100 años, se producirá un aumento del nivel del mar entre 40 y 60 cm hacia 2050.

Cherry picking, gráficos no comparables, declaraciones sin referencias, documentación obsoleta, acusaciones infundadas, confusión de conceptos, omisión de conclusiones…

Otro amasijo de burdas falacias con que alimentar el credo conspiranoide contra el consenso científico del cambio climático.

Anuncio publicitario

¿Fiasco fotovoltaico, o infundio analítico?

Leo en el blog de Carlos Rebato una -califico tras analizarla- desafortunada publicación, titulada:

El «futurista» carril-bici solar de Ámsterdam es en realidad un fiasco

Bueno, en realidad el autor le debe mucho -casi todo- en esa entrada a un friki de los coches que escribe en Jalopnik con aires de autoridad en la materia, prefiriendo encabezar con:

That Fancy New Solar Bike Path In Amsterdam Is Utter Bullshit

(El maravilloso nuevo carril-bici de Ámsterdam es una absoluta mierda)

La cuestión es que en noviembre de 2014 abrió en fase de pruebas, que durarán tres años, el primer carril-bici solar en la localidad de Krommenie, en Países Bajos, que cuenta con uno existente cuyo pavimento ha de ser sustituido. El diseño cuenta con dos vías, una con distintos pavimentos de ensayo y otra de 1,5 m con paneles solares integrados protegidos por vidrio templado de 10 mm de espesor, cuya producción eléctrica se vierte a la red. El tramo-test, de 70 metros de longitud y que se extenderá a 100 metros, está construido con losas prefabricadas de hormigón de 3,5 m de ancho por 2,5 m de largo. La capa protectora de un módulo sufrió una rotura en diciembre y ha sido reparada. Es el primer prototipo concebido por SolaRoad, consorcio que ha contado con 3,5 M€ de financiación tanto para el proyecto SolaRoad como para otro más ambicioso, como los autobuses eléctricos, y ha invertido cinco años en investigación y desarrollo.

Me explico aquí puesto que mi comentario en su blog parece estar condenado al purgatorio de los pendientes de moderación.

Venía a decir que estoy de acuerdo en que hay que buscar la eficiencia, que no invertiríamos por el alto mantenimiento y por los riesgos de alterabilidad de este sistema a lo largo de los años, como se ha visto, pero que tampoco hay que ensañarse embrollando las cifras y debemos ser un poco serios:

1. PRODUCCIÓN

Los resultados, publicados por SolaRoad tras ese primer medio año de pruebas, son de 3000 kWh para los 70 metros de carril instalado, suficiente como para abastecer las necesidades energéticas de una casa pequeña durante un año. “Si lo trasladamos a una escala anual, esperamos que puedan producirse 70 kw por hora y metro cuadrado. Los resultados son muy superiores a lo esperado” aseguró la compañía en el momento. Las estimaciones iniciales, de acuerdo con SolaRoad, eran de 50 kW por metro cuadrado y año.

Las mediciones de 3.000 kWh a las que se enlaza presentan una curva de noviembre 2014 a abril 2015, un semestre invernal:

Producción de electricidad desde la puesta en marcha. SolaroadProducción de electricidad desde la puesta en marcha. SolaRoad Netherlands

70 metros de longitud de carril x 1,75 de anchura de carril = 122, 5 metros cuadrados. 3000 kWh en 6 meses x 122,5 m cuadrados = 24,5 kWh por metro cuadrado en 6 meses. 24,5 kWh por metro cuadrado en 6 meses x 2 = 49 kWh al año.

49 kWh es, irónicamente, lo que SolaRoad esperaba obtener en primer lugar. Y eso si no nos atenemos a los cambios estacionales, no se irradia la misma cantidad de luz solar a lo largo de los diferentes meses del año.

Según los datos de la NASA para la situación de Krommenie:

  • La media de radiación horizontal de noviembre a abril (semestre analizado) es de 1,7 kWh/m2/día.
  • La media de radiación horizontal de mayo a octubre es de 4,3 kWh/m2/día, un 250% respecto del semestre analizado.

No se trata de dos semestres idénticos. Y precisamente el medido es el de menor insolación; este parámetro esencial parece haber pasado desapercibido para los hachas de los cálculos.

Esos 70 kWh/m2/año que espera SolaRoad por 122,5 m2 son 8.575 kWh/año.
Esos 8.575 kWh esperados menos los 3.000 kWh medidos dan 5.575 kWh estimados para el semestre más soleado. Un 85% más de producción de mayo a octubre respecto de noviembre a abril, aunque éste hubiera sido más soleado de lo normal, resulta perfectamente posible.
No siempre se van a dar las condiciones de limpieza y arbolado desnudo del primer semestre como afirma el marketing, pero no es descabellado.

2. COMPARACIÓN

La cosa empeora. Cuando se compara (más datos aquí y aquí) contra estaciones solares cercanas, y haciendo cálculos que tienen en cuenta las variaciones estacionales, la salida total al año es de 100 kWh al año. El doble.

No sólo eso, los paneles solares que se colocan en tejados están orientados de un modo específico para maximizar la luz solar que son capaces de captar.

Las comparaciones hechas en EEVblog con esas tres instalaciones cercanas inclinadas 20, 28 y 30 grados y sin sombras, aparte de evidentes, son injustas con la horizontalidad general del carril-bici y con el rendimiento de las células: La sola diferencia por el ángulo supone un incremento del 13 al 17% en la radiación solar media anual. Pero además, mientras las instalaciones citadas están realizadas con silicio policristalino (eficiencias de 14%15%) y monocristalino (16%) e incorporan estupendos inversores, los módulos de SolaRoad llevan revestimiento transúcido y son de silicio amorfo, con eficiencias que rondarán del 6 al 9%:

Luwte (p-Si, 20º): 743 kWh de noviembre a abril / 16,3 m2 = 45,6 kWh/m2
MK1o2 (p-Si, 28º): 681 kWh de noviembre a abril / 17,5 m2 = 38,9 kWh/m2
Gadgetfrank (m-Si, 30º): 812 kWh de noviembre a abril / 16,5 m2 = 49 kWh/m2

Gadgetfrank 2 (m-Si, 25º, sombras): 255 kWh noviembre – abril / 6,5 m2 = 39,3 kWh/m2
SolaRoad (a-Si, 0º): 3.000 kWh de noviembre a abril / 122,5 m2 = 24,5 kWh/m2

En este punto, debe aclararse que un daño en uno de los 28 módulos no menoscaba todo el sistema, sino que reduce un 4 – 5% la producción en tanto no se repare. En este caso, al parecer el vidrio templado ha quedado afectado por retracciones térmicas.

3. COSTE Y MANTENIMIENTO

La compañía no ha facilitado datos con los costos de instalación por metro cuadrado pero no tiene que ser precisamente baratos. Y no más baratos, en cualquier caso, que una instalación de paneles solares tradicional.

Estos paneles además, como vimos cuando hablamos del rentabilidad energética con las baterías de Tesla, se instalan con una amortización en mente. Una amortización que puede prolongarse hasta 10 años (…) En el caso de SolaRoad no es sólo que eso no ocurra sino que además obvia los costes mencionados de: mantenimiento, instalación, cuidado y reparaciones, costes que probablemente multipliquen en varios exponentes el precio final.

Bastaba con leer en la FAQ de SolaRoad, que el propio bloguero enlaza, lo siguiente:

«En la fase actual de desarrollo es demasiado pronto para hacer afirmaciones fiables sobre [costes por metro cuadrado y costes comparativos con construcciones ordinarias]. El punto de partida para el desarrollo es que el balance de costes y beneficios de la vida útil sea positivo, comparado con las superficies de viales existentes (…)».

«El estudio de viabilidad técnico-económica indica que es posible lograr un retorno de la inversión dentro de una vida útil de 20 años. Aparte hay que decir que la producción, gestión y mantenimiento de este nuevo tipo de vía están aún por optimizar. Eventualmente, nuestro objetivo es un período de retorno de 15 años o menos«.

«En el desarrollo de SolaRoad, el punto de partida es que SolaRoad reúna los mismos requisitos que los tipos de pavimento convencionales. Durante los estudios actuales, asumimos regímenes de mantenimiento normales. Conforme a las expectativas aún cabe optimización, en la que se integrará el mantenimiento de los sistemas técnicos».

Esto es, que el consorcio integrado por industriales, institutos y autoridades ha tenido evidentemente en cuenta los costes de mantenimiento y la rentabilidad.

Pero no está tan claro que el pavimento fotovoltaico, de células de silicio amorfo adheridas y protegidas con vidrio templado, resulte más caro que un tejado de paneles cristalinos sobre soporte anti-robo.

En cuanto a los costes materiales, puesto que el a-Si ronda los 800 $/kWp (53 €/m2) y el vidrio templado de 10mm cuesta 35 €/m2, el conjunto suma 88 €/m2 frente a los 1.400 $/kWp (156 € /m2) alcanzados por el p-Si. Con una producción anual de 70 kWh/m2 para el silicio amorfo en suelo y de 120 kWh/m2 para el cristalino en tejado, el coste de la inversión en material, repartida a lo largo de 15 años, será de 8,4 c€/kWh para el primer caso y 8,7 c€/kWh para el segundo.

Por la extensión del carril pueden estimarse 10 kWp – 9 kW, cuyo coste en material fotovoltaico sin IVA habrá rondado los 11.000 – 12.000 €.

Por otro lado, el silicio amorfo puede presentar una menor tasa de retorno energético que los cristalinos.

4. FINANCIACIÓN Y RENTABILIDAD

SolaRoad es una empresa con fondos públicos y privados que ha recibido la friolera de 3,5 millones de euros por parte de la Unión Europea.

En Holanda el precio medio del kWh al año es de 0,12 euros (12 céntimos). Ateniéndonos a los datos proporcionados tras los 3000 kWh en 6 meses (6000 kWh al año), eso supone un ahorro de unos de 720 euros al año. Pongamos que han usado un, comedido, 20% de ese dinero, 640.000 euros:

640.000 euros/720 euros al año: aproximadamente 888 años

Hace 888 años ni siquiera habíamos descubierto América. Los números tampoco salen con otros porcentajes, un 10% son 540 años, un 5% 222, incluso aunque se hubiesen dejado sólo un 1% (32.000 euros, una cifra ridícula), todavía se tardaría medio siglo en amortizar. Sin contar con costes de reparación y mantenimiento, por supuesto.

Según algunos cálculos, para que fuese rentable el metro cuadrado debería costar unos $7 dólares (y mantenimiento aparte). A día de hoy ese número está muy lejos de poder ser una realidad.

Publius Ixxii [usuario ‘escéptico’ sobre el cambio climático y el CO2]: «En el centro oeste de EEUU se pueden adquirir 70 kWh por menos de 7 dólares al detalle. Para que esto tuviera una oportunidad de viabilidad económica, los costes amortizados de instalación inicial, sustitución futura (descontada con un ratio prorrateado) y costes de mantenimiento periódico tendría que resultar en algún lugar del vecindario a 7 dólares por metro cuadrado. Me resulta difícil creer que en algún momento sea posible presentar una cifra tan baja (…)».

Es falso que SolaRoad se haya financiado con 3,5 millones de euros de la UE. El proyecto, presentado en Interreg-IVb, es uno de los cuatro del gobierno de Holanda Septentrional, que obtuvieron casi medio millón de euros comunitarios:

«La provincia puso en marcha cuatro proyectos en el ámbito del transporte eléctrico.
Se trata de la investigación sobre el uso de renovables para la energía del transporte público, la realización de estaciones de transferencia fuera de la ciudad y una red de estaciones de carga rápida, así como un centro de conocimiento. Además de la investigación sobre los dilemas administrativos en la transición a la movilidad eléctrica.
Para estos proyectos se dispone una cantidad de 900.000 euros, habiendo recibido el Consejo Ejecutivo una subvención de 450.000 euros del programa europeo Interreg. El proyecto E-movilidad europea es un programa donde once regiones de siete países trabajan juntas para promover los vehículos eléctricos».

La inversión de 3,5 millones de euros -de los cuales 1,5 han sido aportados por las autoridades locales– se destina a todo un proceso de investigación y desarrollo, obra civil, monitorización, mantenimiento e instalación solar, como declara SolaRoad:

«Los 3,5 millones de euros fueron invertidos por los diversos socios en el proceso de investigación y desarrollo, que ha llevado cinco largos años. El carril de ensayo en Krommenie solamente representa una pequeña parte. Optamos conscientemente por un proyecto piloto de corta longitud y que generara una pequeña cantidad de energía (electricidad equivalente a unas tres viviendas). Ello es suficiente para generar una gran cantidad de información práctica con bajos costes de ensayo de manera que podamos reservar la mayor parte de los fondos disponibles para convertir SolaRoad en un producto comercializable».

Por otra parte, el autor considera que 32.000 euros es una cifra ridículamente baja para construir un carri-bici de 70 metros, ignorando que una única vía -en este caso hay dos- de carril-bici de hormigón tipo “5-foot wide concrete sidewalk with concrete curb” puede costar 206 $/ft (600 €/m) ella solita. Una inversión que se debe al tráfico, no al sistema accesorio de energía.

Y por si fuera poco, también es falso que en Holanda el precio medio del kWh sea de 12 c€. El cliente doméstico tipo pagó 14,7 c€/kWh sin IVA ni otros impuestos en 2014.

La fotovoltaica convencional en los Países Bajos se encuentra cerca de la paridad con la red. ¿Como se puede afirmar que sólo hay rentabilidad con costes inferiores a 7 $/m2, con o sin mantenimiento?

Generando, como se espera, 8.575 kWh/año durante 15 años en paridad con la red se habrán “ahorrado” (yo también sé hacer las cuentas de la vieja) 19.000 euros. En teoría es rentable respecto del coste material, asumiendo que la mayor parte de la mano de obra de instalación se debe al carril y no a los módulos.

5. CONCLUSIÓN

La empresa aclara que el coste de esta primera fase supone una pequeña parte del monto de la financiación y que sus objetivos económicos son una tasa de retorno de 15 años.  Es falaz atribuir a este tramo piloto la inversión entera, o siquiera un 20%, y jugar a calcular un hipotético coste del kWh, obviando que la costosa obra civil tiene un uso de tráfico -apto para camiones de bomberos- con o sin fotovoltaica. Es tan absurdo como incluir en el precio del kWh el coste de una casa solar que integra en su tejado paneles solares. ¿Por qué no hacer lo mismo entonces con las pérgolas solares del carril-bici sudcoreano que los detractores presentan como alternativa válida?

Con todo lo anterior, no pretendo justificar el proyecto ni considerar que el sistema es el adecuado, sino solamente ser más justo con los análisis y la atribución de costes. Examinar en lugar de presuponer.

Carril-bici existente en septiembre 2014. Google Maps

Carril-bici existente en septiembre 2014. Google Maps

Carril-bici existente en septiembre 2014. Street View

Carril-bici existente en septiembre 2014. Street View

Argumentaciones contra escépticos, I

Una de las conjeturas blandidas por los escépticos sobre el cambio climático antropogénico para oponerse a la responsabilidad humana sobre la reducción de emisiones de CO2, CH4 y N2O es que los ciclos de calentamiento y enfriamiento del planeta se deben únicamente a la actividad solar, no a los gases de efecto invernadero. Según esta afirmación, las temperaturas aumentarían de acorde a una mayor presencia de manchas en nuestra estrella, y descenderían paralelamente cuando se da menor cantidad.

Pero ¿cómo lo demuestran? Todo lo que publican es un gráfico parcial de los ciclos solares, acompañado de la aseveración de que las temperaturas siguen la misma curva y la promesa de que el planeta se enfiará en breve conforme a una prevista bajada en el número de manchas solares. Si cualquiera de esos especuladores del enfriamiento global tuviera un mínimo afán investigador no podría resistir a la tentación de contrastarlo con las anomalías térmicas en el mismo período para convencernos de sus manifestaciones, ¿cierto?

Les bastaría con cruzar los registros del GISS Surface Temperature Analysis (GISTEMP) y del International Space Environment Service (ISES), organismos de los que se sirven cuando tienen la ocasión de atrapar algún dato truncado que les convenga para sostener sus supuestos, como por ejemplo un mes puntual cuya anomalía a la baja no repita récord de calentamiento.

Pero ya les ahorro el trabajo; curioso que es uno.

He aquí las dos series comparadas a lo largo de los períodos comunes hasta la fecha (enero 1991 – agosto 2014), con gráficos presentados en diferentes referencias axiales, y con curvas de tendencia:

Número de manchas solares y anomalías térmicas de la superficie global en centésimas de °C. Gráfico monoaxial

DAVIDCABO-GISS-ISES-biaxial

Número de manchas solares y anomalías térmicas de la superficie global en centésimas de °C. Gráfico biaxial

Bien, ¿dónde está esa supuesta correlación entre la actividad solar y las variaciones de temperatura global?

Pues simplemente, al menos en la escala de los datos disponibles, no existe.

La mejor defensa, el humor

Que el anti-renovables y negacionista cambioclimático Mark Duchamp te acuse, en uno de sus innumerables blogs gemelos, de sesgo cognitivo, confusión y charlatanería, y te censure la réplica, es patológico, patético o, cuanto menos, el colmo.

Ante ese repetitivo tipo de dogmas, bajezas y distorsiones del comportamiento tengo tres opciones:

  1. Denuncia por difamación
  2. Perder el tiempo en una nueva defensa técnica que evidentemente no querrá ser entendida
  3. Volver a reírme un rato.

 

Empezaré optando por la tercera…