11/4/11

Fukushima I (3ª parte): reflexiones y claves para el futuro


Tras el accidente en la central nuclear de Fukushima I, cuyos problemas distan mucho de estar resueltos, eso que se ha dado en llamar “debate nuclear” ha saltado de nuevo a la palestra, con las posiciones extremistas de casi siempre.
Es curioso lo que ocurre con la energía nuclear: desde hace tiempo muchos preconizan su final, mientras desde no hace tanto tiempo otros muchos aventuran un gozoso renacer: ninguna de las dos opciones se ha concretado. Al final de este escrito quizá entendamos el por qué.

I.- Las reacciones al accidente: la percepción del riesgo.

Dejaré de lado las reacciones más demagógicas, desde las puramente electoralistas de Angela Merkel a las esperables de las organizaciones ecologistas, ancladas en un ideario fundacional que les conduce inevitablemente a la contradicción.
Me interesan más, por ejemplo, las intervenciones posteriores de algunos representantes tanto de la industria nuclear como del mundo académico, que dejaron bastante que desear (no todos), ya que pretendían hacer creer que todo estaba bajo control y que la cosa no era para tanto. Una vez más, el mundo nuclear pierde una oportunidad de generar confianza en el público y ganarse una credibilidad que nunca han conquistado del todo. Y lo digo con dolor, porque una vez formé parte de ese mundo.

Porque para el público, con pocos conocimientos reales sobre el funcionamiento de un reactor y sobre la radiactividad, pero muy mediatizado por los titulares de prensa y por la memoria histórica de Chernobyl, los hechos estaban siendo muy, muy alarmantes. Tanto como para olvidarse de los 10.000 muertos del terremoto y posterior tsunami, y centrarse en los evacuados, la radiactividad de las lechugas y los delfines con tres ojos.

Lo que ha ocurrido, es evidente, es que ha cambiado nuestra percepción del riesgo. Mientras nada sucede, todos aceptamos en mayor o menor medida que corremos unos riesgos cuando realizamos una actividad, ya sea conducir por una carretera o consumir electricidad generada por una nuclear. Y debe de ser que los beneficios obtenidos nos compensan de sobra por los riesgos incurridos, aunque no tengamos una conciencia muy clara de estos riesgos. Pero cuando ocurre algo, se nos olvida que había un riesgo subyacente (que alguien ha calculado o estimado) y que estábamos aceptando ese riesgo de forma tácita. Cuando ocurre el accidente, el riesgo se confirma y nuestra reacción es maximizarlo, de igual forma que hasta ese momento seguramente lo habíamos minimizado.

¿Tiene sentido esta reacción, y sobre todo la de muchos países que se han puesto a cuestionar sus programas nucleares? En mi opinión, existen pocos motivos para este cuestionamiento. Para que los hubiera, tendríamos que concluir que los cálculos sobre la probabilidad de un accidente con la que se diseñan las centrales nucleares están mal hechos. ¿Se puede deducir esto del accidente de Fukushima? Algunos dirán que sí, pero a falta de análisis más profundos, nada nos hace pensar que la probabilidad asociada a la ocurrencia e intensidad de terremotos, que se consulta a los expertos en geología, esté mal, bien o regular… sencillamente es la que se maneja, es aquella de la que disponemos en este nivel de conocimiento.

Es necesario recordar que toda actividad industrial tiene riesgos que es necesario estimar mediante el cálculo de probabilidades. El Análisis Probabilista de Riesgos más avanzado, de hecho, es posiblemente el del mundo nuclear, y ha conducido a los protocolos de seguridad (salvaguardas, procedimientos, sistemas redundantes…) más exigentes de la industria junto a los del mundo aeronáutico. Esto no quiere decir que después de un accidente importante no se aproveche para revisar los protocolos y tratar de cerrar esas “brechas” por donde se puede colar una catástrofe: así se hizo después de Three Miles Island o Chernobyl, así se está haciendo tras el accidente del avión de Spanair en Barajas… y así se hará con el avión de Air France estrellado en mitad del Atlántico… y también después de Fukushima.

Por lo tanto: ¿revisión de protocolos? ¿Lecciones aprendidas? Por supuesto. ¿Cuestionamiento de la energía nuclear?¿Cuestionamiento de la navegación aérea comercial? Será por otras razones, pero no por ésta…

II.- La medición del riesgo: terremotos imposibles y el arquero de Cauchy.

Está bien: intentemos aportar algo novedoso al debate. ¿Y si después de todo sí que hubiera algo que cuestionar? Al fin y al cabo, que los Análisis Probabilistas de Riesgos estén bien hechos no significa que no se puedan mejorar.

El análisis trata de elucubrar los peores eventos posibles que se pueden dar, a los que termina asignando una probabilidad. Muchas de estas probabilidades, como las de terremotos de gran magnitud, se estiman muy pequeñas (uno cada 1.000 años, o cada 10.000…).

El problema es que para estos eventos raros no se tiene registro histórico que permita una estimación precisa. Es más, la mayoría de las veces no puedo ni siquiera asignarle una distribución de probabilidad: sencillamente no tengo ni idea de a qué se puede parecer su distribución de probabilidad. Esto convierte un problema de cálculo de riesgos en un problema de manejo de la incertidumbre. Para más inri, la ocurrencia de uno de estos eventos raros suele tener un impacto catastrófico, bien sea económico o en vidas humanas. Todo ello nos debe hacer tomar estas estimaciones con mucho cuidado, y cuando sucesos que se estima que ocurren una vez cada 1000 años ocurren dos veces en un siglo, quizá deberíamos concluir que los riesgos asociados a los eventos raros son severamente subestimados. Es el argumento que defiende Joseph Stiglitz en éste post, comparando Fukushima y la debacle financiera, aunque él parece concluir que el mundo empresarial lo hace a propósito.

Yo prefiero pensar que es un problema de límites del conocimiento, al menos en el mundo industrial (por el financiero no pongo la mano en el fuego). Cuando estimamos la frecuencia de un suceso, hay una tendencia natural a considerar su distribución de probabilidad como una Campana de Gauss, principalmente porque permite un tratamiento matemático más o menos sencillo, y nos da una (falsa) sensación de que hemos dominado la incertidumbre. Por desgracia, tanto el mundo social como el natural demuestran a menudo no ajustarse a una distribución gaussiana, sino a lo que se llama “distribuciones de colas gruesas”. Estas distribuciones se conocen desde hace tiempo, y su principal característica es que permiten la aparición frecuente de sucesos que impactan dramáticamente a la media, desplazándola de su lugar. Es muy diferente de la Campana de Gauss, en la que la probabilidad de sucesos muy alejados de la media decae rápidamente y éstos, de producirse, apenas influyen en el valor medio.

Para ilustrar el comportamiento de una distribución de colas gruesas dejadme utilizar un ejemplo ideado por el matemático Augustin-Louis Cauchy: un arquero, con los ojos vendados, situado ante una diana pintada en un muro infinitamente largo. El arquero dispara al azar contra la diana, y si pensamos que se ajusta a una Campana de Gauss, la mayoría de sus tiros se situarían alrededor del centro y sólo unos pocos se apartarían mucho. Tras un número suficientemente grande de tiros, el promedio de su puntuación se estabilizaría cerca del centro de la diana, con una desviación estable. Pero esto no es lo que ocurre en realidad: resulta que muchos disparos de un arquero que dispara a ciegas tienen desviaciones enormes, de cientos de metros, tanto como para cambiar el promedio después de cada disparo: la puntuación nunca se estabiliza en un promedio predecible y en una variación consistente alrededor de dicho promedio.

Muchos fenómenos sociales, y lo más fascinante para mi, también muchos fenómenos naturales, parecen ajustarse a estas distribuciones de colas gruesas, desde las crecidas del Nilo, los aludes de nieve… hasta los terremotos. Y lo que nos viene a decir es que son fenómenos no totalmente aleatorios, en el sentido del lanzamiento de una moneda, sino dotados de un segundo nivel de aleatoriedad más profunda y difícil de comprender.

Lamentablemente, me parece que poco más nos pueden decir por el momento las distribuciones de colas gruesas que nos permitan una mejor estimación de los riesgos, pues es un campo de conocimiento aún en desarrollo. Lo que sí podemos concluir, como Stigliz, como Mandelbrot, como Nassim Taleb… es que posiblemente los riesgos de este tipo de eventos están en la actualidad fuertemente subestimados.

III.- El futuro ya no es lo que era…

Después de la pequeña digresión del apartado anterior (algo que sólo se les permite a los Premios Nobel o a los blogueros sin lectores), pongamos de nuevo los pies en la tierra. Es absurdo pretender que el accidente de Fukushima no supone un duro golpe (uno más) al ya de por sí dudoso “renacimiento nuclear”…pero no creo que una mejor o peor estimación de la probabilidad de un evento inesperado sea la clave que determine su futuro.

La clave está en otro punto, y es que ha ocurrido lo que se nos aseguraba que era prácticamente imposible: que todos los sistemas redundantes se seguridad se hayan mostrado insuficientes para evitar daños graves al núcleo y la expulsión de radiactividad al exterior. Es cierto, el terremoto y posterior tsunami han excedido toda previsión, son eventos “imposibles”… pero como vemos, los eventos “imposibles” suceden más a menudo de lo que parece, y pueden volver a suceder. Se nos aseguraba, sin embargo, que incluso frente a “lo inimaginable” existían muchas barreras de seguridad que no podían fallar todas a la vez, o una detrás de otra. Sin embargo, hemos visto que sí pueden fallar.

En cierta medida, gran parte de la seguridad de las centrales nucleares se basa en que los eventos graves que puedan afectar al núcleo no lleguen a ocurrir (básicamente, mantener a toda costa su refrigeración). Pues una vez que ocurren, ya estamos viendo lo difícil que es manejar un núcleo seriamente dañado y evitar que una cierta cantidad de radiactividad se expulse al exterior. No me cabe duda de que, tras meses de análisis calmado de lo sucedido, mucho después de estabilizar la situación del reactor, se tomarán medidas sobre los sistemas redundantes que ayudarán a mejorar la seguridad de todas las centrales del mundo. Es la hora de la ingeniería, de nuevo. Sin embargo, soy escéptico sobre que el nivel de seguridad que se llegue a conseguir con la tecnología de los reactores actuales suponga un salto cualitativo que haga cambiar al público su percepción. No lo suficiente, desde luego, como para garantizar el sosodicho “renacimiento nuclear”. Todo lo más (y no es poco), se mejorará incrementalmente la seguridad de las centrales ya existentes, inequívocamente destinadas a prolongar su vida útil si queremos energía barata y bajas emisiones de CO2.

¿Puede haber algo, después de este duro golpe de Fukushima, que provoque de verdad un renacimiento de la energía nuclear? Puede que lo haya: el petróleo.

IV.- ¿Puede el petróleo salvar a la energía nuclear?

Dejadme que me explique. Hemos concluido en el apartado anterior (por si algún lector despistado no se había dado cuenta) que el desarrollo de la tecnología de reactores parece haber alcanzado un cierto “plateau” de estancamiento… al menos en cuanto a su implantación comercial. Proyectos nuevos como el de Olkiluoto en Finlandia, bandera del renacimiento nuclear y que muchos países seguían con atención para ver la duración, coste y funcionamiento posterior del proyecto, están dando señales alarmantes a la industria por su complejidad de gestión y sus costes disparados.

Hace mucho que la industria, y sobre todo el mundo académico, nos promete otro concepto de reactores: más pequeños, más manejables, intrínsecamente seguros, con menos residuos… proyectos que una empresa pueda acometer sin embarcarse en una megainversión de alto riesgo por los costes y plazos asociados, por la incertidumbre regulatoria que suele acompañar en la mayoría de los países y por la oposición de una parte de la población.

Pero para que este tipo de reactores, tan solo a medio idear, puedan ser alguna vez realidad, hace falta I+D e Innovación, mucha Innovación. ¿Y qué podemos decir sobre la innovación de los últimos años en el campo nuclear? Pues que no sabemos casi nada, pues a menudo los desarrollos son secretos… pero lo que sí podemos hacer es utilizar la EPO/OECD World Patent Statistical Database (PATSTAT) para examinar el número de patentes asociadas al campo nuclear como proxy de las innovaciones en ese campo. Es lo que hace la Ecole des Mines de Paris en éste artículo. Veamos algunas de sus gráficas:



Como puede verse, a partir de Chernobyl las patentes cayeron fuertemente y hasta el 2005 se puede decir que se han estancado, al menos en comparación con el fuerte crecimiento que venían teniendo hasta 1984, accidente de TMI incluido.

Es mucho más relevante, sin embargo, la siguiente gráfica, donde podemos observar la fuerte correlación que existe entre el precio del petróleo y el número de invenciones en el campo nuclear.




Esto es algo lógico que no creo que pueda sorprendernos: cuando el coste de adquisición de crudo importado por parte de las refinerías empieza a subir, también tienden a subir las concesiones y los subsidios hacia la I+D de energías sustitutivas, incluida la nuclear.

La pregunta importante viene ahora: en un entorno de fuerte crecimiento de los precios del petróleo, con grandes posibilidades de que permanezca alto (en el entorno de 100-105 $/bbl para los próximos años según la AIE)… ¿servirá esto de revulsivo para la investigación nuclear, y por extensión para un posible desarrollo de una nueva industria, a pesar del accidente de Fukushima?



Esta pregunta, amigo lector, queda abierta a vuestras opiniones… en esto, todos somos como el arquero ciego de Cauchy.

ACTUALIZACIÓN 04/05/11: Mira por donde, los chicos del European Energy Policy Blog apuntan unos cuantos números que muestran cómo la frecuencia real de accidentes con daño al núcleo resulta que es bastante mayor que la que citan los PRAs (análisis probabilistas de riesgos). Esto apoya la tesis de que las probabilidades podrían estar mal calculadas, y deben ser revisadas.