top of page

Facteurs Humains

Les FH relèvent de l’utilisation de bonnes pratiques, et, à l’image de Monsieur Jourdain, les pilotes y avaient déjà recours de façon empirique. L’apport des sciences cognitives a permis de les regrouper, de les formaliser et d’en faire une discipline à part entière.

Afin d’améliorer la sécurité aérienne, le facteur humain a été développé pour proposer des solutions plus efficaces.

 

Historique

 

Cette approche, qui fait l’inventaire des faiblesses et des forces d’un opérateur pilote, a pour but de présenter des comportements individuels et collectifs sûrs, et faire en sorte que la compétence collective soit supérieure à la somme des compétences individuelles (1+1>2).

​

La naissance de cette nouvelle discipline est attribuée à la NASA, en 1979, lors d’une conférence, animée par le psychologue John Lauber, qui portait sur les accidents du transport aérien.

​

Il fut demandé à un parterre de scientifiques comment des hommes et des femmes – civils et militaires, a priori en pleine possession de leurs moyens, bien entraînés, pilotant des avions en bon état et souvent par beau temps –, avaient pu provoquer des accidents ? Parmi les exemples présentés, le plus significatif était l’accident de Tenerife qui a fait 583 morts deux ans plus tôt (collision au sol entre deux B747 de KLM et Pan Am). Il reste encore à ce jour la catastrophe aérienne la plus meurtrière de tous les temps, un Big One selon Amalberti, capable de remettre en cause ce modèle de transport qui est stratégique, particulièrement pour les Américains avec leur pays continent. De plus, le commandant n’était autre que l’un des chefs pilotes de KLM, un responsable des plus compétents dans le domaine de la sécurité (voir Le manuscrit).

​

L’enjeu était donc de taille, et les experts se sont intéressés à la gestion des ressources du cockpit appelée CRM (Cockpit Resource Management). D’abord à l’adresse des pilotes, le CRM a ensuite évolué pour englober la cabine de l’avion, c’est-à-dire les hôtesses et stewards, puis il s’est enfin étendu à l’ensemble de la compagnie tout en conservant le même sigle. « Dans le concept de “facteur humain”, l’homme devient ainsi un “facteur” au même titre que les autres éléments du dispositif sécuritaire » (Poirot-Delpech). Par la suite le CRM s’intégrera dans une discipline plus généraliste appelée les Facteurs Humains (FH).

​

La première compagnie aérienne à mettre en pratique ce nouveau concept a été United Airlines, en 1981, après avoir perdu un avion trois ans plus tôt. Une simple panne d’indication de sortie du train d’atterrissage du DC-8 a été à l’origine d’un accident ayant fait dix morts, dont le mécanicien navigant et la chef de cabine. Durant l’approche de l’aéroport de Portland Oregon, le commandant de bord a mis l’avion en attente afin de traiter la panne (ampoule récalcitrante sur la position du train d’atterrissage) et, obnubilé par ce problème, n’a pas pris en compte les inquiétudes du mécanicien navigant au sujet du faible niveau de carburant restant. Finalement l’avion s’est écrasé.

​

Aujourd’hui les Facteurs humains sont totalement intégrés dans le processus de formation, d’évaluation et de contrôle des pilotes. Et face à un problème de voyant de train d’atterrissage, il serait incompréhensible que l’équipage ne se fixe pas une butée d’attente (horaire) avant de se poser en urgence, train totalement sorti ou pas.

​

En 1986, l’OACI a formellement reconnu l’importance des Facteurs humains. Cependant, si l’impulsion des besoins en FH est venue des États-Unis, les écoles européennes se sont distinguées avec le Danois Jens Rasmussen, l’Anglais James Reason et le Français René Amalberti.

 

Pourquoi cette nouvelle discipline ?

 

Si la dimension psychomotrice du pilotage reste l’un des axes fondamentaux de la compétence, on met beaucoup plus qu’hier l’accent sur la façon dont le pilote exploite les moyens mis à sa disposition : les systèmes avion, la documentation, le contrôle aérien, le reste de l’équipage et l’équipe au sol, mais également ses propres ressources, sa mémoire, ses connaissances, ses capacités de compréhension et de décision. Une bonne « gestion des ressources » au sens large est devenue la compétence première du pilote, du moins telle que l’histoire des accidents nous le montre. Les sciences humaines nous expliquent aÌ€ l’aide de mots plus précis et de concepts plus structurés que la gestion efficace des ressources disponibles passe par un ensemble d’opérations : projet d’action clair avec anticipation et régulation de la charge de travail, gestion des priorités, délégation, communication, coopération, détection et récupération des erreurs, contrôle de la fatigue et du stress, et gestion des situations anormales.

​

En fait, les FH relèvent de l’utilisation de bonnes pratiques, et, à l’image de Monsieur Jourdain, les pilotes y avaient déjà recours de façon empirique. L’apport des sciences cognitives a permis de les regrouper, de les formaliser et d’en faire une discipline à part entière. Au début, elle n’a pas été acceptée par tous les pilotes, et aujourd’hui encore certains la considèrent comme contenant beaucoup de « bla-bla ». Cependant les FH associés aux nouvelles technologies ont déjà donné d’excellents résultats puisque, entre les années 1980 et 2010, le nombre d’accidents est resté relativement stable alors qu’entre-temps le trafic aérien a été multiplié par plus de trois.

​

Les préoccupations de sécurité qui demeurent, découlent de questions complexes que l’OACI a prises en compte, car les risques forment une pierre angulaire de l’approche de son système de gestion de la sécurité (SGS). Les politiques de sécurité ont suscité de nouvelles attentes concernant le comportement des équipages, et l’automatisation de la gestion du vol a amplifié cette évolution.

 

Gérer l’imprévu, se préparer à être surpris

 

Avant d’aborder ce sujet, je rappelle que les pilotes doivent parfaitement maîtriser les procédures d’urgences afin d’être en mesure de rétablir une situation potentiellement dangereuse. Malgré les efforts déployés par les constructeurs pour couvrir un maximum de situations anormales, ceux-ci ne peuvent pas développer des checklists pour toutes celles qui sont possibles et imaginables et, en particulier, pour les cas de pannes multiples.

​

Cependant, si l’industrie veut continuer à progresser en termes de sécurité aérienne pour faire face à l’augmentation du trafic aérien qui devrait doubler d’ici à 2030, il est nécessaire d’aborder la question des situations imprévues et inattendues. Pourtant, par définition, imaginer l’imprévisible n’est pas représentable.

​

En effet, face à l’imprévu ou à l’inattendu, des comportements de pilotes se sont avérés être à l’opposé de ceux attendus. Le temps de réaction consécutif à l’effet de surprise, voire de sidération, a pénalisé grandement les chances de rétablir rapidement une situation critique.

​

Lors d’évènements complexes, qui semblent inextricables, le commandant doit faire preuve de leadership et agir rapidement tout en respectant la règle de base « voler/naviguer/communiquer ». Celle-ci vise à s’assurer que l’avion vole correctement, adapter une navigation sûre à court et moyen terme, communiquer entre pilotes pour définir la meilleure stratégie en s’aidant des contrôleurs aériens et des autres membres d’équipage si nécessaire.

​

Le pilotage et la navigation d’un avion qui ne fonctionne plus correctement nécessitent beaucoup d’énergie de la part des pilotes. Dans une telle phase dynamique, il est illusoire de vouloir élucider en peu de temps une situation qui pourrait ne pas avoir de solution idéale.

​

La distance qui sépare le pilote de l’avion moderne est devenue excessive. Dès l’apparition de tendances négatives ou de situations non nominales détectées, le système (dont l’architecture interne repose sur une grande autonomie) transmet aux pilotes des alarmes qui ne sont pas suffisamment progressives et qui ne permettent aucun dialogue entre l’homme et la machine. Trop souvent les systèmes se déclarent en panne tardivement, sans anticipation, lorsqu’ils ont épuisé toutes leurs possibilités de restauration, générant un « effet falaise », exigeant alors des pilotes d’être des super-opérateurs, à la « James Bond », capables d’intervenir efficacement et rapidement, au moment ultime, pour faire face à une situation difficile à diagnostiquer.   

​

Ainsi l’incident grave du Qantas 32, en 2010, après l’explosion d’un de ses moteurs, a mis l’avion en grande difficulté à cause d’une multitude de pannes (52). Par chance, il y avait ce jour-là, dans le cockpit, cinq pilotes expérimentés pour gérer l’incident qui s’est produit en début de vol, de jour et dans de bonnes conditions météorologiques. Cela aurait pu avoir lieu en fin de vol, de nuit et avec seulement deux pilotes fatigués (voir Le manuscrit).

​

La logique très normative du transport aérien freine l’équipage dans la recherche de solutions autres que celles prescrites et enseignées. Et pourtant celui-ci doit faire face à l’essentiel en fonction de ses capacités cognitives du moment et sous l’effet de la pression temporelle, comme un médecin urgentiste agit pour la survie de son patient, même si de meilleures solutions existent.

​

Sans siège éjectable ni parachute, le pilote n’a d’autre choix que de gérer la situation jusqu’au bout, c’est-à-dire jusqu’à l’immobilisation de l’avion au sol. C’est dans l’adversité que nos qualités se révèlent. Les astronautes et les cosmonautes sont préparés à faire face aux situations inattendues les plus extrêmes, dont les pilotes pourraient s’inspirer. L’espace reste encore une terre d’aventure, et la NASA a fait plusieurs fois la démonstration de ses capacités d’improvisation, comme le sauvetage d’Apollo 13 en 1970. Malgré un entraînement intensif, Claudie Haigneré, la première Française à être allée dans l’espace, citait l’expression des cosmonautes russes qui partaient en mission : « De toute façon, ça ne se passera pas comme prévu. »

​

En effet, « Le sujet qui nous occupe aujourd’hui finalement tourne autour d’une contradiction fondamentale, c’est que d’une part on demande aux équipages d’être tout à fait rigoureux, d’appliquer des procédures à la lettre, d’y adhérer, strictement, de ne jamais en dévier, sauf que, de temps en temps, on leur dit : “Ah, mais, face à l’imprévu, il faut devenir créatif.” Et toute la contradiction de notre métier est là ! » (Rosay, pilote d’essai chez Airbus).

 

Improviser face à l’imprévu : le cas de la panne totale de commandes de vol

 

La panne de l’ensemble des systèmes hydrauliques – nécessaires aux commandes de vol – d’un avion de transport est jugée trop peu probable par l’administration pour être prise en compte pour la certification de l’avion.

​

Voici pourtant trois évènements de panne totale de commandes de vol qui auraient dû se terminer en catastrophe sans la dextérité des équipages qui, face à une situation imprévue, ont improvisé le pilotage par la seule utilisation de la poussée des moteurs.

 

DC-10-10 d’American Airlines, Detroit, 1972

​

Pour ne pas se faire distancer par le Boeing 747, McDonnell-Douglas avait obtenu la certification de son trimoteur DC-10 bien que certains problèmes n’aient pas été résolus.

​

Le commandant Bryce McCormick, qui venait d’être nommé sur le nouvel appareil, avait demandé à s’entraîner, au simulateur, à la panne totale des commandes de vol, panne qui n’était pas prévue au programme d’instruction. Il avait justifié à l’époque sa demande par l’arrivée de la nouvelle génération d’avions « tout hydraulique », comme aujourd’hui les avions sont « tout électrique ». Auparavant, les premiers avions long-courriers à réaction (B707, DC-8) avaient encore des commandes de vols actionnées par des câbles – même si elles étaient assistées par des servomoteurs –, tandis que celles de la génération du DC-10 utilisent des vérins hydrauliques actionnés par les câbles du manche et du palonnier. Autrement dit, il y a un intermédiaire (le vérin hydraulique) entre les commandes du pilote et les gouvernes de l’avion.

​

Le 12 juin 1972, après la perte de la porte de la soute arrière, le commandant et son équipage ont réussi l’atterrissage d’urgence du DC-10, à Detroit, sans faire de victime, en s’aidant de la poussée des moteurs pour piloter l’avion.

​

Cet incident grave a été le précurseur de la catastrophe du DC-10 de la Turkish Airlines, dans la forêt d’Ermenonville, au nord de Paris, qui a fait 345 victimes en 1974. L’avion a également perdu sa porte de soute arrière, ce qui a sectionné l’ensemble des commandes de vol par l’effondrement du plancher, et six passagers ont été éjectés. Cette porte cargo faisait partie des problèmes à régler, et pour qu’elle soit correctement fermée, le personnel du sol devait suivre les instructions d’une notice en anglais afin qu’elle soit bien verrouillée. Après cet accident, les portes ont été rapidement modifiées, et la FAA a exigé qu’il y ait des caissons de décompression au niveau du plancher, entre la cabine passager et les soutes de l’avion, pour éviter, en cas de brutale dépressurisation, d’endommager le plancher qui supporte des servitudes importantes.

​

DC-10-10 d’United Airlines, Sioux City, 1989

​

Malgré ces améliorations, le 19 juillet 1989, le commandant Al Haynes, un vétéran et instructeur d’United Airlines, s’est trouvé en panne totale d’hydraulique après avoir subi la désintégration du fan du moteur numéro 2 (situé à l’arrière et au-dessus du fuselage), endommageant les trois circuits hydrauliques. Le trimoteur volait à 37 000 pieds (11 200 m), et la pression des systèmes est rapidement tombée à zéro. Le commandant avait d’abord demandé au mécanicien navigant la checklist pour traiter la panne du premier système hydraulique, puis celle des deux systèmes, mais il n’en existait aucune pour la panne des trois systèmes !

​

Grâce à l’utilisation des deux moteurs restants, un sous chaque aile, les pilotes et le mécanicien navigant ont réussi à piloter l’avion sans avoir recours aux commandes de vols. Le vol n’a pu se faire que par virage à droite, car l’explosion du moteur avait aussi endommagé le fuselage, créant une distorsion aérodynamique.

​

Disposant du temps nécessaire – l’avion avait encore plusieurs heures d’autonomie et se trouvait à haute altitude –, l’équipage technique, aidé par un pilote de la compagnie qui était en cabine, a pu gérer l’approche, permettant aux hôtesses et stewards de préparer la cabine et ses passagers en vue d’un atterrissage forcé. Sur les 298 personnes à bord, 187 (63 %) ont été sauvées. Un film produit pour la télévision, en 1992, retrace cet évènement, Crash Landing: The Rescue of Flight 232.

​

Airbus 300 DHL Bagdad, 2003

​

Le 22 novembre 2003, aux abords de l’aéroport de la capitale irakienne et devant des journalistes, un commando islamiste a tiré un missile portatif sur un Airbus 300 cargo de DHL qui décollait de Bagdad. L’explosion a mis le feu au réservoir de carburant de l’aile gauche endommageant les trois circuits hydrauliques qui ont alors rapidement perdu de leur puissance. L’Airbus n’était qu’à 10 000 ft d’altitude (3 050 m), et l’équipage a dû intervenir rapidement pour contrôler la trajectoire de l’avion grâce aux deux moteurs.

​

Le commandant Éric Genotte s’était alors remémoré une émission télévisée sur le pilotage sans commande de vol du DC-10 de Sioux City : en utilisant simultanément la poussée des deux moteurs, l’avion monte ou descend, et en jouant sur la différence de poussée, il tourne. Comme pour le DC-10, les manettes de gaz de l’Airbus sont reliées par des câbles directement aux moteurs et n’ont pas besoin d’assistance hydraulique. La sortie du train d’atterrissage s’est faite par gravité en débloquant les verrous de retenue, cela a stabilisé l’avion en vol, entré en oscillation phugoïde. Sans hydraulique, il n’est pas possible de sortir les becs de bord d’attaque et les volets de courbure des ailes pour augmenter la portance et réduire la vitesse d’approche, ce qui signifie que la vitesse est bien plus élevée qu’au cours d’une approche normale, augmentant d’autant le risque d’atterrissage brutal et long.

​

Après 25 minutes de vol, l’équipage est parvenu à poser l’avion qui, faute de freins, s’est immobilisé en dehors des pistes dans une zone non déminée de l’aéroport...  

​

Ces avions, d’ancienne génération, nécessitaient la présence à bord d’un mécanicien navigant qui a alors été d’un grand secours.

​

Cependant, d’autres n’ont pas eu cette chance. Le 12/8/1985, un B-747-SR (Short Range) de la Japan Airlines s’est écrasé près du mont Osutaka au Japon tuant 520 personnes sur 524 à bord, il s’agit de la deuxième plus grande catastrophe aérienne après celle de Tenerife. Sept ans après une réparation mal réalisée de la cloison de pressurisation arrière du B-747-SR, celle-ci explosa pendant la montée et détruisit la partie arrière de l’avion, notamment la dérive qui stabilise l’avion sur sa trajectoire longitudinale. L’explosion détruisit aussi les quatre circuits hydrauliques privant l’avion de ses gouvernes de vol. Les pilotes et le mécanicien ne réussirent pas à contrôler l’avion grâce aux moteurs qui passa sur le dos avant de se cracher. Peut-être qu’en sortant le train d’atterrissage, l’avion aurait été moins instable…

 

Après le shoot de l’Airbus 300 à Bagdad, la communauté aéronautique s’est interrogée sur l’introduction de la procédure de panne totale de commandes de vol pour faire face à un tir de missile, ou à une explosion à bord (attentat), qui neutraliserait les circuits hydrauliques. Pourtant cette procédure existe et s’appelle Thrust Only Control (TOC) ; elle a été développée par la NASA et utilisée avec succès chez les militaires américains, après avoir été victimes de tirs en vol. Mais cette procédure n’est toujours pas enseignée aux compagnies aériennes.

​

En revanche, la future génération d’avions pourrait être en partie pilotée par la méthode TOC, car l’utilisation des commandes de vol génère toujours de la traînée aérodynamique. Toutefois les commandes de vol devraient toujours être utilisées au cours des phases de décollage et d’atterrissage, ou en cas de turbulences, pour réagir plus rapidement et en secours.

 

Pour faire face aux évènements imprévisibles, il est nécessaire d’analyser les risques considérés comme rares et incertains afin de développer une « méthode d’adaptation rapide » en combattant l’idée reçue que « ça ne peut pas arriver ». Malheureusement la réalité dépasse parfois la fiction, et nombreux sont les exemples à le démontrer : en 2001 les attaques des Twin Tower, à Manhattan, et du Pentagone par des avions de ligne ; des appareils qui ne sont pas censés décrocher mais qui tombent quand même ; ou bien le Malaysia Airlines 370 qui s’est volatilisé des écrans radars, en mars 2014, sans laisser de message et pour lequel les recherches ont été plusieurs fois interrompues.

​

Ainsi, l’instructeur au simulateur pourrait créer une situation nouvelle, inconnue des pilotes stagiaires. L’objectif étant de gérer l’effet de surprise – même si les exercices ne sont pas tous reproductibles ou si les capacités du simulateur de vol ne permettent pas de recréer, avec suffisamment de réalisme, certaines situations comme le décrochage –, ce qui compte alors c’est de mettre en place une stratégie, une technique (par exemple respiratoire) pour libérer rapidement des ressources cognitives afin que les pilotes puissent analyser le problème qui met l’avion en difficulté.

​

Peu de temps après la publication du troisième rapport d’étape du BEA sur l’accident de Rio – Paris, AF447 (2009), les commentaires ont été tout à la fois instructifs et décevants. Le Syndicat national des pilotes de ligne (SNPL) notait que les pilotes avaient été confrontés à une situation complexe et « totalement inédite pour laquelle le constructeur n’avait jamais prévu de les former, avec peu de temps pour la diagnostiquer ».

​

Dans une situation dynamique qui ne laisse pas le temps nécessaire à l’analyse, les pilotes doivent agir rapidement pour retrouver la maîtrise de l’avion dans sa phase de vol. Au moment de l’incident, il peut être inutile et dangereux de vouloir faire une analyse causale approfondie. En effet, comprendre en situation dynamique n’a rien à voir avec la compréhension que l’on peut avoir, installé à son bureau devant une tasse de café.

​

« Plus généralement, le double échec des réponses procédurales prévues montre les limites du modèle de sécurité actuel. Lorsqu’une action de l’équipage est attendue, il est toujours supposé qu’il aura une capacité de maîtrise initiale de la trajectoire et de diagnostic rapide permettant d’identifier la bonne entrée dans le dictionnaire de procédures. Un équipage peut être confronté à une situation imprévue entraînant une perte momentanée mais profonde de compréhension. Si, dans ce cas, les capacités supposées de maîtrise initiale puis de diagnostic sont perdues, alors le modèle de sécurité se retrouve en ‘‘défaut de mode commun’’. Lors de cet évènement, l’incapacité à maîtriser initialement la trajectoire a aussi rendu impossible la compréhension de la situation et l’accès à la solution prévue. »

​

Comment peut-on expliquer qu’un équipage expérimenté n’ait pas entendu l’alarme décrochage Stall retentir plus de soixante-dix fois ? L’examen des mécanismes neuronaux impliqués dans la prise de décision sous stress met en évidence des biais d’inhibitions (blocages) où la surdité non intentionnelle est plus courante que la cécité. Les résultats des neurologues définissent celle-ci comme un phénomène cognitif essentiel pour la sécurité aérienne. Une pré-exposition à un évènement critique déclenchant une alarme auditive peut améliorer la détection de l’alarme quand une situation similaire est rencontrée par la suite.

​

Aujourd’hui, le professeur Frédéric Dehais veut utiliser les neurosciences pour étudier les biais émotionnels engendrés par le stress dû à une surcharge de travail, afin d’éliminer les signaux d’alerte qui ne fonctionnent pas (comme une annonce de décrochage) et les remplacer par une animation qui apparaîtrait sur un écran (de navigation) montrant la procédure ou l’action à entreprendre, afin de sortir l’avion de la situation de danger. Dehais se base sur le modèle écologique EID qui vise à rendre compréhensible une situation particulière afin qu’elle soit visible et audible par un utilisateur qui pourrait être en situation de stress. La hiérarchie d’abstraction est utilisée pour déterminer quel type d’information devrait être affichée sur l’interface du système et comment elle devrait être présentée.

​

Dehais constate que l’être humain n’est pas très bon dans les cas de situations d’urgence pour pallier les absences de réponses dues à l’effet de « tunnellisation de l’attention ». Il imagine deux dispositifs possibles : soit d'éteindre pendant un temps très bref certains écrans, soit un flash rouge d’une milliseconde pour créer l’effet d’un électrochoc. Ce qui permettrait de récupérer l’attention de l’équipage par « une combinaison des sens, regroupant le visuel, l’auditif et le tactile ».

​

Dans le cadre d’un travail universitaire, l’ancien pilote d’essai Jean Pinet a souligné l’apparent décalage entre la haute technicité rationnelle des matériels, placés dans les mains des pilotes et, ce qu’il appelle, « la multitude des recettes de tous genres à appliquer pour les maîtriser ». Avec « l’impression un peu désagréable de devoir utiliser des sciences “douces ou molles” pour gérer un milieu de sciences exactes, dans lequel on baigne depuis son éducation de base. » Pinet rappelle que des situations soudaines, rapides, potentiellement dangereuses, surviennent quotidiennement mais ne sont pas connues, tout simplement parce qu’elles sont maîtrisées par les pilotes. En effet, « la multitude de cas dans la conduite normale d’un avion où les pilotes sont intervenus pour éviter la divergence dangereuse de situations inattendues, environ 5 millions de fois plus nombreux que les déficiences ayant contribué à un accident, est négligée parce que banale ». Si la technologie est devenue la panacée pour résoudre les problèmes routiniers qui se présentent à eux, il conviendrait de rationaliser les comportements et de « permettre à des ingénieurs de bureaux d’études de concevoir des systèmes [mieux] adaptés aux humains devant les utiliser. »

​

Indirectement, cela évoque le travail universitaire de l’équipe d’Alain Gras, Face à l’automate, le pilote, le contrôleur et l’ingénieur (1994), référence implicite au peu de communication qui existe entre les utilisateurs pilotes, les interprètes psychologues et les concepteurs ingénieurs, ainsi qu’une absence de vocabulaire commun où le monde (des informaticiens) n’est pas régi par des processus strictement rationnels. La recherche de solutions efficaces ne reposant que sur le socle de valeurs communes.

​

L’objectif opérationnel du travail sur le « contexte » peut se résumer en une phrase : « avoir la bonne information au bon moment sous le bon format » (Pinet). Finalement le dernier niveau de conscience s’acquiert en lisant et relisant les manuels, en imaginant les pièges et en développant des stratégies personnelles, des techniques et des habitudes pour en sortir. L’élaboration de matériels mieux adaptés aux situations exceptionnelles devrait être une priorité par ceux qui pensent les avions de demain.

 

Aide à la décision

 

Il existe plusieurs outils d’aide à la prise de décision afin de ne rien oublier. Ils ont été mis en place par différentes compagnies, tel le FOR-DEC (Facts, Options, Risks & Benefits, Decision, Execution, Check) développé par Lufthansa et utilisé, entre autres, par Air France. La première partie (la plus lourde) consiste à faire le bilan de l’état de l’avion (ou d’un autre problème : passager, terrorisme, etc.) et d’évaluer les différentes solutions avec leurs avantages et inconvénients, ce qui facilite la prise de décision. C’est alors le plus jeune des copilotes, s’il y en a plusieurs, qui doit s’exprimer le premier et proposer une solution. Le commandant, en principe le plus expérimenté et qui a peut-être déjà une solution, s’exprime le dernier pour éviter d’aliéner toutes les autres solutions qu’il n’aurait pas imaginées. En effet, un copilote inexpérimenté aura tendance à proposer des solutions, même les plus improbables, qui pourraient s’avérer meilleures. Cependant, cet outil demande du temps et beaucoup de ressources, il n’est pas adapté par exemple au cas de panne moteur au décollage, sauf si l’atterrissage au même endroit n’est pas possible.

 

Ce travail de recherche comportementale à l’adresse des opérateurs pilotes que sont les Facteurs Humains a permis de maintenir un niveau élevé de sécurité ; il ne devra toutefois pas être appréhendé de la même façon pour un opérateur au sol gérant un avion sans pilote.

bottom of page