L'Aquila, avril 2009. Un
séisme, 309 morts, qui auraient selon certains pu être évitées,
et au terme d'une procédure longue (3 ans et demi), une
condamnation à 6 années de prison pour chacun des sept membres
de la commission « grands risques » qui n'auraient pas su
prévoir le séisme et auraient manqué de donner l'alerte.
Le présent billet n'aura
pas pour objet de revenir sur le procès, d'autres plus compétents
en la matière le feront certainement mieux que moi, d'autant que je
n'ai pas connaissance du dossier en question. Cette affaire interroge
toutefois sur le rôle des scientifiques, qui dans l'imaginaire
populaire semble trop souvent reprendre le rôle des devins
d'autrefois (et qui donc comme les devins se retrouvent accablés
lorsque leurs prédictions sont mises en défaut). Je reviendrai donc
aujourd'hui sur ce qu'est la prévision de risque sismique, et sur ce
qui pourrait éventuellement (mais éventuellement seulement)
pourrait être reproché aux membres de cette commission.
Peut-on réellement
reprocher à ces six scientifiques de ne pas avoir prévu le séisme
qui a frappé l'Aquila ? En soit je considère que non. Comme le
rappelle cette
explication du CNRS, un séisme reste encore à l'heure actuelle
un événement imprévisible. Nul ne peut prévoir avec certitude
qu'un séisme aura lieu ou non dans une région donnée à une date
donnée. Tout au plus pouvons nous estimer raisonnablement le risque
de séisme sur une longue période de temps, et parfois relever
certains signes de risque, mais sans qu'ils soient une garantie, ni
dans un sens, ni dans un autre.
Dans les problématiques
touchant à la prévision (ou à la détection, qui pose les mêmes
problèmes), il existe deux catégories d'erreurs de résultat
distinctes : les faux positifs et les faux négatifs. Un faux
positif survient quand vous pensez détecter un événement qui n'a
en fait pas lieu (ex : l'alarme incendie se déclenche sans
raison dans un bâtiment, ou Pierre criant au loup), un faux négatif
survient quand vous échouez à détecter un événement qui pourtant
se produit (ex : l'alarme incendie manque de se déclencher
alors que le bâtiment dans lequel vous vous trouvez brûle, ou un
virus envahit votre ordinateur sans que votre anti-virus favori ne
réagisse).
Bien entendu le premier
objectif d'un système de détection/prédiction est de minimiser la
quantité globale de faux, quels qu'ils soient. Personne ne veut
d'une alarme qui sonne pour rien et oublie de sonner au moment où
l'incendie commence. Mais dans les cas où un système parfait
n'existe pas (comme dans le cas de la prédiction des séismes, ou
plus quotidiennement de la météo) il faut parfois faire un choix
stratégique : doit-on minimiser en priorité les faux positifs
ou les faux négatifs ? (ou dit autrement : vaut-il mieux
une alarme qui sonne pour rien qu'une alarme qui ne sonne pas au
moment crucial ? Et à partir de combien de « sonneries
pour rien » finit-on par changer d'avis).
C'est là que l'on sort
du rôle du scientifique et que l'on entre dans celui du décideur
politique. En matière de risque sismique, le décideur souhaite
généralement obtenir des réponses à des questions de forme
oui/non : Doit-il faire évacuer une ville/région ?
Doit-il fait appliquer des normes de construction plus coûteuses
pour minimiser le danger pour la population ? D'un coté il doit
préserver la population, d'un autre éviter de ruiner l'activité
économique et dépeupler des régions entières pour un risque non
avéré. Malheureusement la science ne rien peut lui offrir de plus
que des statistiques et des probabilités, des indicateurs de risque,
mais pas de prévoir l'avenir. Le décideur politique se trouve donc
face à des probabilités, et des coûts, économiques et humains,
associés à chaque scénario. Il devient alors délicat de prendre
la « bonne » décision, un excès de prudence pouvant à
long terme s'annoncer aussi dommageable qu'une prise de risque mal
négociée (sinon toute la population mondiale vivrait dans des
régions à risque sismique terriblement faible, et nous savons que
ce n'est pas le cas).
Par exemple, si nous
imaginons un million de localités fictives réparties sur la
planète, et que chacune se trouve affectée d'une probabilité de 1%
de risque de connaître un séisme dans la journée qui vient (ce
n'est qu'un exemple, le risque sismique ne s'exprime pas d'un jour
sur l'autre). Si nous ajoutons qu'évacuer une localité, donc fermer
ses commerces, déplacer sa population, couper toutes ses productions
(en bien manufacturés mais aussi en nourriture) représente un coût
non négligeable (beaucoup moins que des vies humaines, tant qu'on se
tient à une journée d'évacuation, mais le « coût »
associé monte vite et devient préoccupant pour la population si
elle reste « évacuée » pendant plusieurs semaines ou
mois dans l'année), la plupart des décideurs se diront que pour un
risque de 1% de séisme il n'y a pas motif à évacuer.
Pourtant d'après la
théorie des grands nombres, sur ce million de localités, on peut
estimer qu'environ 10 000 (à un milliers près) d'entre elles
connaîtront un séisme le lendemain (un million divisé par cent).
Le drame, les morts, la douleur et la colère compréhensibles des
populations touchées. Les 10 000 décideurs politiques concernés
auront-ils pour autant fait un moins bon travail que les 990 000
autres, en prenant la même décision à partir des mêmes
informations ? Les scientifiques seront-ils à blâmer d'avoir
estimé le risque à « seulement 1% » alors que le
tremblement de terre a eu finalement lieu ? Aurait-il fallu tout
évacuer, quitte à ce que la perturbation économique engendrée ne
fasse peut-être plus de victimes (au niveau du million de localités)
que les 10 000 séismes avérés ?
A chaque fois qu'un drame
de ce genre arrive (pas seulement un séisme, mais aussi les typhons,
tsunamis, éruptions, tornades et autres catastrophes naturelles) on
se dit effectivement « plus jamais ». Mais lorsque l'on
étudie le comportement globale de l'humanité face à ces risques,
on comprend bien que la réalité n'est pas si tranchée. Après tout
des populations n'hésitent finalement pas à s'installer sur les
pentes de volcans en activité, parce que les terrains y sont
fertiles, ou parfois même construisent
de véritables mégalopoles sur des failles sismiques, sachant
que le pire frappera à un moment ou à un autre. Face à ce genre
d'événements rares mais dévastateurs, nous avons globalement
tendance à minimiser voire ignorer le risque, en se disant que la
foudre frappera toujours quelqu'un d'autre, ou qu'elle ne tombera que
demain.
Alors que penser de ce
comité d'experts ? Peut-on leur reprocher de ne pas avoir fait
évacuer la population avant le désastre ? A mon avis non, ce
n'est pas leur rôle. Leur rôle est d'informer les décideurs, pas
de prendre la décision à leur place. Peut-on leur reprocher de ne
pas avoir su qu'un séisme allait frapper ? A mon avis non plus,
on ne peut pas face à un risque aussi imprévisible leur reprocher
de ne pas avoir été omniscients. De mon point de vue, ce qui a pu
éventuellement leur être reproché par cette cour de justice (et
j'espère en savoir plus bientôt sur cette histoire) serait un
manque d'implication dans leur mission ou des fautes caractérisées :
ne pas avoir relevé certaines informations, avoir volontairement
minimiser certains signaux d'alerte, ne pas avoir fait leur travail
en respectant l'état de l'art en la matière.
Toujours est-il que cette
condamnation pourrait avoir de graves répercussions sur la
composition et l'implication de ce genre de comités de sécurité à
travers le monde. Le risque de servir de fusible ou de bouc émissaire
en cas de catastrophe et ainsi de se condamner à de la prison ferme
va probablement peser sur le volontarisme des experts chargés de
reprendre ce genre de comités. Personnellement si j'étais
spécialiste en la matière, j'y réfléchirai à deux fois avant
d'accepter ce genre de poste, et je m'assurerai que la rémunération
soit largement à la hauteur du risque encouru (mais je suis un
scientifique, donc forcément vénal).
Aucun commentaire:
Enregistrer un commentaire