mercredi 24 octobre 2012

Comme un tremblement de terre

L'Aquila, avril 2009. Un séisme, 309 morts, qui auraient selon certains pu être évitées, et au terme d'une procédure longue (3 ans et demi), une condamnation à 6 années de prison pour chacun des sept membres de la commission « grands risques » qui n'auraient pas su prévoir le séisme et auraient manqué de donner l'alerte.
Le présent billet n'aura pas pour objet de revenir sur le procès, d'autres plus compétents en la matière le feront certainement mieux que moi, d'autant que je n'ai pas connaissance du dossier en question. Cette affaire interroge toutefois sur le rôle des scientifiques, qui dans l'imaginaire populaire semble trop souvent reprendre le rôle des devins d'autrefois (et qui donc comme les devins se retrouvent accablés lorsque leurs prédictions sont mises en défaut). Je reviendrai donc aujourd'hui sur ce qu'est la prévision de risque sismique, et sur ce qui pourrait éventuellement (mais éventuellement seulement) pourrait être reproché aux membres de cette commission.

Peut-on réellement reprocher à ces six scientifiques de ne pas avoir prévu le séisme qui a frappé l'Aquila ? En soit je considère que non. Comme le rappelle cette explication du CNRS, un séisme reste encore à l'heure actuelle un événement imprévisible. Nul ne peut prévoir avec certitude qu'un séisme aura lieu ou non dans une région donnée à une date donnée. Tout au plus pouvons nous estimer raisonnablement le risque de séisme sur une longue période de temps, et parfois relever certains signes de risque, mais sans qu'ils soient une garantie, ni dans un sens, ni dans un autre.

Dans les problématiques touchant à la prévision (ou à la détection, qui pose les mêmes problèmes), il existe deux catégories d'erreurs de résultat distinctes : les faux positifs et les faux négatifs. Un faux positif survient quand vous pensez détecter un événement qui n'a en fait pas lieu (ex : l'alarme incendie se déclenche sans raison dans un bâtiment, ou Pierre criant au loup), un faux négatif survient quand vous échouez à détecter un événement qui pourtant se produit (ex : l'alarme incendie manque de se déclencher alors que le bâtiment dans lequel vous vous trouvez brûle, ou un virus envahit votre ordinateur sans que votre anti-virus favori ne réagisse).
Bien entendu le premier objectif d'un système de détection/prédiction est de minimiser la quantité globale de faux, quels qu'ils soient. Personne ne veut d'une alarme qui sonne pour rien et oublie de sonner au moment où l'incendie commence. Mais dans les cas où un système parfait n'existe pas (comme dans le cas de la prédiction des séismes, ou plus quotidiennement de la météo) il faut parfois faire un choix stratégique : doit-on minimiser en priorité les faux positifs ou les faux négatifs ? (ou dit autrement : vaut-il mieux une alarme qui sonne pour rien qu'une alarme qui ne sonne pas au moment crucial ? Et à partir de combien de « sonneries pour rien » finit-on par changer d'avis).
C'est là que l'on sort du rôle du scientifique et que l'on entre dans celui du décideur politique. En matière de risque sismique, le décideur souhaite généralement obtenir des réponses à des questions de forme oui/non : Doit-il faire évacuer une ville/région ? Doit-il fait appliquer des normes de construction plus coûteuses pour minimiser le danger pour la population ? D'un coté il doit préserver la population, d'un autre éviter de ruiner l'activité économique et dépeupler des régions entières pour un risque non avéré. Malheureusement la science ne rien peut lui offrir de plus que des statistiques et des probabilités, des indicateurs de risque, mais pas de prévoir l'avenir. Le décideur politique se trouve donc face à des probabilités, et des coûts, économiques et humains, associés à chaque scénario. Il devient alors délicat de prendre la « bonne » décision, un excès de prudence pouvant à long terme s'annoncer aussi dommageable qu'une prise de risque mal négociée (sinon toute la population mondiale vivrait dans des régions à risque sismique terriblement faible, et nous savons que ce n'est pas le cas).

Par exemple, si nous imaginons un million de localités fictives réparties sur la planète, et que chacune se trouve affectée d'une probabilité de 1% de risque de connaître un séisme dans la journée qui vient (ce n'est qu'un exemple, le risque sismique ne s'exprime pas d'un jour sur l'autre). Si nous ajoutons qu'évacuer une localité, donc fermer ses commerces, déplacer sa population, couper toutes ses productions (en bien manufacturés mais aussi en nourriture) représente un coût non négligeable (beaucoup moins que des vies humaines, tant qu'on se tient à une journée d'évacuation, mais le « coût » associé monte vite et devient préoccupant pour la population si elle reste « évacuée » pendant plusieurs semaines ou mois dans l'année), la plupart des décideurs se diront que pour un risque de 1% de séisme il n'y a pas motif à évacuer.
Pourtant d'après la théorie des grands nombres, sur ce million de localités, on peut estimer qu'environ 10 000 (à un milliers près) d'entre elles connaîtront un séisme le lendemain (un million divisé par cent). Le drame, les morts, la douleur et la colère compréhensibles des populations touchées. Les 10 000 décideurs politiques concernés auront-ils pour autant fait un moins bon travail que les 990 000 autres, en prenant la même décision à partir des mêmes informations ? Les scientifiques seront-ils à blâmer d'avoir estimé le risque à « seulement 1% » alors que le tremblement de terre a eu finalement lieu ? Aurait-il fallu tout évacuer, quitte à ce que la perturbation économique engendrée ne fasse peut-être plus de victimes (au niveau du million de localités) que les 10 000 séismes avérés ?

A chaque fois qu'un drame de ce genre arrive (pas seulement un séisme, mais aussi les typhons, tsunamis, éruptions, tornades et autres catastrophes naturelles) on se dit effectivement « plus jamais ». Mais lorsque l'on étudie le comportement globale de l'humanité face à ces risques, on comprend bien que la réalité n'est pas si tranchée. Après tout des populations n'hésitent finalement pas à s'installer sur les pentes de volcans en activité, parce que les terrains y sont fertiles, ou parfois même construisent de véritables mégalopoles sur des failles sismiques, sachant que le pire frappera à un moment ou à un autre. Face à ce genre d'événements rares mais dévastateurs, nous avons globalement tendance à minimiser voire ignorer le risque, en se disant que la foudre frappera toujours quelqu'un d'autre, ou qu'elle ne tombera que demain.

Alors que penser de ce comité d'experts ? Peut-on leur reprocher de ne pas avoir fait évacuer la population avant le désastre ? A mon avis non, ce n'est pas leur rôle. Leur rôle est d'informer les décideurs, pas de prendre la décision à leur place. Peut-on leur reprocher de ne pas avoir su qu'un séisme allait frapper ? A mon avis non plus, on ne peut pas face à un risque aussi imprévisible leur reprocher de ne pas avoir été omniscients. De mon point de vue, ce qui a pu éventuellement leur être reproché par cette cour de justice (et j'espère en savoir plus bientôt sur cette histoire) serait un manque d'implication dans leur mission ou des fautes caractérisées : ne pas avoir relevé certaines informations, avoir volontairement minimiser certains signaux d'alerte, ne pas avoir fait leur travail en respectant l'état de l'art en la matière.
Toujours est-il que cette condamnation pourrait avoir de graves répercussions sur la composition et l'implication de ce genre de comités de sécurité à travers le monde. Le risque de servir de fusible ou de bouc émissaire en cas de catastrophe et ainsi de se condamner à de la prison ferme va probablement peser sur le volontarisme des experts chargés de reprendre ce genre de comités. Personnellement si j'étais spécialiste en la matière, j'y réfléchirai à deux fois avant d'accepter ce genre de poste, et je m'assurerai que la rémunération soit largement à la hauteur du risque encouru (mais je suis un scientifique, donc forcément vénal).

Aucun commentaire:

Enregistrer un commentaire