Biais de normalité

From Wikipedia, the free encyclopedia

Le biais de normalité est un biais cognitif qui conduit les individus à sous-estimer, minimiser voire nier la probabilité, la gravité ou la réalité d'un événement inhabituel, extrême ou catastrophique, en supposant que les choses continueront à se dérouler comme d'habitude. Il repose sur l'idée implicite que le futur ressemblera toujours au passé, que les perturbations majeures sont peu probables ou transitoires, ou qu'elles n'arrivent qu'aux autres. Ce biais affecte la perception des risques naturels, technologiques ou financiers, ainsi que la prise de décision en situation d'urgence ou la préparation face à des menaces telles que les catastrophes naturelles, les pandémies, les conflits ou les crises climatiques. Il peut conduire des personnes informées à ignorer des avertissements relatifs à un danger[1].

Ce biais est particulièrement documenté en psychologie sociale, en sociologie des catastrophes et en gestion des risques. Lors d'une alerte à l'évacuation (ex. : incendie), certaines personnes tendent à ignorer les consignes en pensant que « ce n'est rien » ou que « cela ne m'arrivera pas », retardant ainsi leur réaction[2]. Il est estimé qu'environ 70 % des personnes manifestent un biais de normalité lors d'une catastrophe[3],[4],[5],[6],[7].

Le biais de normalité peut être renforcé par des facteurs culturels, émotionnels ou institutionnels. Il est combattu par des stratégies de sensibilisation, de formation ou de simulation visant à rendre les risques plus tangibles (ex. : exercices sismiques au Japon). Il peut surgir en réponse à des alertes ou face à une catastrophe avérée (effondrement financier, guerre, catastrophe naturelle, accident de la route). Il est parfois décrit comme une « paralysie des facultés d'analyse » (analysis paralysis), le « effet autruche » (ostrich effect)[8], ou une « panique négative » (negative panic)[9].

Le comportement opposé est la surréaction, ou biais du scénario du pire (worst-case scenario bias), qui consiste à interpréter de légères anomalies comme les signes d'une catastrophe imminente[10],[11], qui consiste à voir de légères variations par rapport à la routine comme les indices d'une catastrophe imminente.

Exemples

La destruction de Pompéi à cause de l'éruption du Vésuve.
Conséquences de l'ouragan Katrina.

D'après le journaliste David McRaney, « le biais de normalité peut s'imposer au cerveau quelle que soit la gravité du problème. Il apparaît aussi bien quand une personne a reçu de nombreux avertissements pendant des jours que si on n'a que quelques secondes pour réagir à un danger de mort »[9]. Il se manifeste lors d'évènements comme les accidents de la route : bien que ces accidents soient très fréquents, une personne normale ne les vit que très rarement. Ce biais se produit aussi face à des évènements d'une portée mondiale. D'après une étude menée en 2001 par le sociologue Thomas Drabek, les gens qui reçoivent un ordre d'évacuation en amont d'une catastrophe ont tendance, dans la majorité des cas, à se renseigner avec au moins quatre sources d'information avant d'obtempérer. Cette attitude est courante lors des catastrophes[12].

Le biais de normalité explique pourquoi, au moment de l'éruption du Vésuve, les habitants de Pompéi ont assisté à la catastrophe sans évacuer[13]. Ce biais s'est également manifesté lorsque des personnes ont refusé de quitter la Nouvelle-Orléans à l'approche de l'ouragan Katrina[14] et quand 70 % des survivants des attentats du 11 septembre ont discuté avec autrui avant de fuir[12]. Lors du naufrage du Titanic, la White Star Line n'avait pas correctement anticipé l'évacuation des passagers ; certains d'entre eux ont refusé d'évacuer, peut-être parce qu'ils sous-estimaient la probabilité d'un scénario du pire et minimisaient les conséquences[15]. De même, pendant la catastrophe de Fukushima, les experts en liaison avec le personnel sur place étaient convaincus qu'une fusion de plusieurs réacteurs était un scénario impossible[16].

Références

Articles connexes

Related Articles

Wikiwand AI