L'erreur humaine
Aujourd’hui, le principe de l’erreur humaine est communément admis, car elle est concomitante à l’action de l’homme. Elle fait partie du processus d’apprentissage de tout être intelligent. Autrement dit, « l’erreur est la contrepartie de l’intelligence » (Reason).
L’erreur résulte de l’action, d’« errer çà et là ». C’est l’état de celui qui se trompe, qui fait ou dit quelque chose de non conforme à la « réalité », à la « vérité », à la règle. L’erreur est une action inconsidérée, contraire au bon sens et à la réflexion, et elle est imputable à l’ignorance ou à la distraction. En cindynique, une erreur est un acte, une parole induisant un risque, un danger. Non rattrapée, elle peut avoir pour conséquence l’accident.
​
Dans l’aviation, l’erreur est un écart par rapport à la norme, à la référence. La démarche conceptuelle sécuritaire du transport aérien a été développée pour être tolérante à l’erreur, c’est-à-dire qu’il faut plusieurs erreurs, voire un cumul, non rattrapées pour qu’un accident se produise.
​
« Cependant, si 70 % des accidents sont attribués aux facteurs humains, l’humain n’est pas seulement celui qui commet des fautes ou des erreurs, il est aussi celui qui rattrape de nombreuses erreurs qui passent inaperçues, mais aussi les situations dangereuses » (Gras, Dubey, 2009).
​
Aujourd’hui, le principe de l’erreur humaine est communément admis, car elle est concomitante à l’action de l’homme. Elle fait partie du processus d’apprentissage de tout être intelligent. Autrement dit, « l’erreur est la contrepartie de l’intelligence » (Reason). Il n’y a donc pas d’intelligence sans erreur, et vice versa. En effet, il n’est pas possible d’apprendre à faire du vélo sans tomber. L’apprentissage passe par la production d’erreurs, par la méthode essai-erreur ; la réussite est, en principe, favorisée par la reconnaissance des enseignants ou par la satisfaction de l’apprenant d’avoir réussi.
​
Cependant, chez celui qui a acquis les connaissances et la pratique comme le pilote, l’erreur reste toujours présente et peut résulter du manque d’attention, de la fatigue et du stress. Elle ne doit pas être considérée comme une maladie honteuse, et il faut réhabiliter le droit à l’erreur (culture de l’audace). En bref, l’erreur humaine a toujours existé et elle existera toujours. La question n’est donc plus de savoir comment l’éradiquer, mais comment la neutraliser. Car vouloir la supprimer serait tout aussi absurde que de vouloir éradiquer la maladie.
​
Les plus grands hommes ont commis de graves erreurs, à commencer par Christophe Colomb ; Napoléon qui a sous-estimé la détermination anglaise ; Albert Einstein qui a élaboré sa théorie de la relativité d’après un monde stable et non en expansion ; Churchill, Premier lord de l’Amirauté, qui a été « responsable » de l’échec des Dardanelles ; de Gaulle qui n’a pas vu venir la révolte de Mai-1968 ou Alan Greenspan, le « gourou » de l’économie américaine, qui a été anéanti par la crise des subprimes de 2007, etc. Une étude de Dörner précise : « Les bons collaborateurs ont pris un plus grand nombre de décisions que les mauvais », c’est-à-dire qu’ils se sont davantage exposés au risque d’erreurs.
​
« Les erreurs font partie du compromis cognitif / performance. Sans ce compromis imparfait, ce mauvais réglage mais qui tient la route, c’est la sortie de route assurée au premier virage difficile. » (Amalberti, 1996). « Contrairement à un vieux tabou de l’ergonomie et de la psychologie, ce n’est pas le nombre d’erreurs commises par le sujet qui altère sa performance, bien au contraire. Les erreurs commises servent au sujet à prendre conscience de son activité et à régler son compromis cognitif optimalement pour converger vers la solution. En bref, le sujet se sert des erreurs qu’il commet pour auto-évaluer en continu son fonctionnement cognitif et régler ses prises de risques. »
​
Les meilleurs sujets ne sont donc pas ceux qui ne font pas d’erreurs, mais ceux qui les récupèrent. « Si on réduit artificiellement le nombre d’erreurs que le sujet commet, à la fois on augmente mécaniquement sa performance et on appauvrit le reflet que le sujet développe sur lui-même ; il en résulte un compromis cognitif artificiel nouveau, finalement nettement plus fragile, en tout cas beaucoup moins auto-défendu. » Autrement dit, celui qui commet le moins d’erreurs n’est pas celui qui commet les erreurs les moins dangereuses.
​
C’est donc dans la gestion de l’erreur qu’il faut œuvrer, par des moyens de prévention et de rattrapage, car le pilote commet deux à six erreurs par heure. En général, il les rattrape de lui-même par une logique d’auto-surveillance devenue un réflexe comportemental, passant en boucle ses actions et faisant régulièrement des vérifications. Ou bien son collègue vérifie ce qu’il fait, et réciproquement, de même que certains systèmes de l’avion « surveillent les pilotes » ; et une anomalie non détectée déclenchera une alarme. Enfin, il y a le contrôle aérien, voire la compagnie, qui peuvent interpeller les pilotes, lorsqu’ils dévient de leur trajectoire et de leur route.
​
Dans l’aviation, l’erreur est considérée comme une ressource indispensable pour progresser en termes de sécurité des vols. Elle doit être identifiée pour être analysée et cataloguée pour enrichir les tableaux de statistiques. S’ensuit surtout un travail des opérateurs pilotes pour contrer, isoler, minimiser, voire éradiquer – lorsque cela est possible – l’erreur recensée.
​
En revanche toute déviation volontaire non justifiée, toute violation de procédure, négligence, malveillance, doit être punie. Ainsi le principe de culture « juste et équitable » (just and fair) vient compléter le dispositif de celle « non punitive », basée sur la transparence, qui favorise le retour d’expérience, tout en sanctionnant la minorité d’individus qui abusent du principe.
​
La même erreur commise dans deux contextes différents peut avoir des conséquences très différentes : majeures ou mineures. Selon le modèle de « gestion des menaces et des erreurs » (Threat and Error Management, ou TEM), à chaque erreur il y doit y avoir une réponse et un résultat attendu, pour éviter que l’avion ne se retrouve dans une situation critique ou un « état indésirable » (Undesired Aircraft States, ou UAS). L’analyse de la réponse doit conduire l’équipage à sortir de la boucle des erreurs, ou alors l’équipage commet une nouvelle erreur et l’avion reste en situation critique.
​
L’Airbus 330 d’Air Transat, qui s’est posé en vol plané à Lajes aux Açores en 2001, suite à une fuite de carburant non détectée induisant une erreur de procédure, est un exemple caractéristique d’UAS non rattrapé initialement, puis rattrapé in extremis. En effet, si l’équipage avait eu la réponse adaptée ; bonne compréhension du problème, mise en place d’une stratégie efficace et choix de la bonne checklist, l’incident serait passé inaperçu (voir Le manuscrit).
​
Ce que l’on attend d’un pilote, ce n’est pas qu’il ne commette pas d’erreur mais qu’il soit capable de les rattraper, même tardivement. L’idée reçue qui consiste à croire que sans l’erreur commise l’avion ne se serait pas trouvé dans cette situation critique relève du faux débat, puisqu’il ne s’agit plus de discuter de la survenue de l’erreur mais de sa gestion, comme nous l’avons vu auparavant.
​
Malheureusement l’homme est capable de commettre les pires erreurs qui sont souvent liées au comportement de déni, d’égocentricité et d’orgueil, mais aussi aux pressions excessives. Et pour sortir de l’impasse dans laquelle le sujet se sent enfermé, celui-ci peut s’orienter vers la prise de décisions absurdes (Morel).
​
Les « erreurs latentes organisationnelles » ne sont quant à elles pas imputables à des acteurs précis, mais le fruit de conditions particulières d’organisation du travail qui les favorisent. Il serait intéressant de comprendre, pourquoi, dans certaines circonstances, nous sommes capables d’opter pour les pires scénarios que l’on trouverait totalement aberrants hors contexte.
​
Pour le moment, seul l’homme est capable d’interpréter et de trouver la / les checklist(s) adéquates, voire d’innover en urgence, grâce à son intelligence et à son instinct de survie, comme piloter un avion en panne de ses moteurs.
« Il faut accepter de remettre l’erreur humaine au centre du débat pour toute pédagogie active et de traiter la faute avec justesse. C’est un chantier indispensable pour redonner plus de maturité à notre société qui se complaît dans la victimisation et la compassion de circonstance. Il est urgent de sortir de cette relation infantile et puérile qu’elle entretient avec les questions de vie et de mort ».
​
Chaque fois que l’on a remplacé l’homme par un automate, le taux d’erreur a diminué de façon drastique, mais pourtant, à son tour, l’automatisation génère de nouvelles erreurs » (Pinet).
L’erreur ne disparaîtra donc pas avec la suppression des pilotes à bord, elle sera simplement déplacée vers l’opérateur au sol, ou vers un automate, qui commettra à son tour des erreurs de nature différente de celles de l’homme. Et pour être crédible, le taux d’erreur (et la gravité) devra avoir été démontré comme inférieur à celui du pilote ou du technicien au sol.