Group Decision-Making

groupdecisionmaking

flags_of_United-Kingdom
It is widely recognized that decisions of a group are better than decisions made by a single individual. In contrast it is said that a group decision will rarely be better than that made by the most skilled of the group. The point is, that a decision taken by a group of people has the best chance to include him, as the most skilled, to take the best decision.
The group Decision-Making (Decision Making) however, arise some problems. The people of a whole, tend to conform to the decisions and behaviors of the group. Some studies have shown that if a wrong answer is given, a member will be prone to comply with the decision of the others, even if aware that the choice is wrong. Furthermore, an individual may act in a different manner to his nature so as to conform to the behavior of the rest of the group. These aspects of Decision-Making (DM) can elicit surprise to those who consider the group decisions as choices inevitably as result of compromise.
The reasons why group decisions tend in some cases to determine risky choices is not entirely clear. Recent theories suggest that this increased risk is due to the fact that decisions are taken by the most influential members of the group, who are often willing to accept risky situations, or maybe because bad decisions will be shared with the rest of the group. These theories also explain why choices made in a community, are often different from the ones taken individually.
On a plane DM can become a problem.

flags_of_Italy
È ampiamente riconosciuto che le decisioni di un gruppo sono migliori delle decisioni intraprese da un singolo individuo. In contrasto si dice che una decisione di gruppo sarà raramente migliore di quella fatta dal più abile del gruppo. Il punto è, che una decisione presa da un gruppo di persone ha le migliori probabilità di includere colui in grado di prendere la decisione migliore.
Le decisioni di gruppo (Decision Making) presentano comunque alcune problematiche. Le persone di un insieme, tendono a uniformarsi alle decisioni e ai comportamenti dl gruppo. Alcuni studi hanno dimostrato che nel caso in cui venga fornita una risposta sbagliata, un membro sarà facilmente soggetto a uniformarsi alla decisione degli altri, anche se consapevole che la scelta è sbagliata. Inoltre, un individuo può agire in maniera diversa alla sua indole in modo da uniformarsi al comportamento del resto delle persone. Questi aspetti della Decision-Making (DM) possono suscitare sorpresa a coloro che considerano le decisioni di gruppo come scelte inevitabilmente frutto di compromesso.
Le ragioni per cui le decisioni di gruppo tendono in alcuni casi a determinarsi come scelte rischiose non è del tutto chiaro. Recenti teorie sostengono che questo incremento di rischio è dovuto al fatto che le decisioni sono intraprese dai membri più influenti nel gruppo, che spesso sono gli stessi disposti ad accettare situazioni a rischio, o magari perché le responsabilità di decisioni sbagliate saranno condivise con il resto delle persone. Queste teorie spiegherebbero anche perché le scelte intraprese in una collettività, spesso non sono quelle prese individualmente.
In aereo la DM può diventare un problema.

G-1000, MFD

“Hurry-up Syndrome” 2

HurryUpSyndrome2

flags_of_United-Kingdom
[…]
“On the morning of the accident, the pilot of the twin-engine AeroStar picked up the airplane, which had been upgraded with new Machen 656 Superstar conversion engines. He received a 30 minute dual familiarization flight, a short review of performance charts and flight manuals, and two partial weather briefings. He topped off the fuel tanks, filed a flight plan, and took off with his passenger for Florida. Nine minutes after takeoff, the flight, was cleared by Washington Center to climb to FL180. Eight minutes later, Washington Center received last transmission: “Ok, Mayday, lost engines, lost engines, dropping fast”. Radar data from Baltimore Approach Control showed a descended from 16900 feet to 2300 feet in about 90 seconds, an average descent rate of more than 9700 feet per minute. Witnesses saw the aircraft banking from left to right, roll inverted, and impact the ground nose down. Witnesses at the airport described the pilot as nervous prior to takeoff and said his “hands were shaking”. The instructor who had given the pilot the familiarization ride testified to the NTSB that “the pilot said he felt uncomfortable and nervous”. The NTSB examination of the wreckage found the electric fuel boost pump switches in the off position and mixture control on rich. The airplane flight manual required the boost pumps to be on during climb above 10000 feet. So did the takeoff checklist. When the boost pumps are off during climb above 10000 feet, fuel starvation will result, and the engine cannot be restarted with the mixture rich. In its summary, the NTSB concluded that the pilot never turned on the boost pumps as required by the checklist and flamed out both engines in the climb (NTSB 1985). The pilot was nervous and uncomfortable about flying to Florida. Self-induced psychological stress over his minimal experience contributed to his unease. Once the dual flame-out occurred, the situation exceeded the pilot’s capabilities and caused him to lose aircraft control. At a descent rate of more than 9700 feet per minute, he was probably not capable of completing the 28 step checklist.
Before this flight ever left ground, there were psychological “red flags” present that contributed to the error chain, including fixation and preoccupation, confusion, undocumented procedures, and omission of critical checklist items. The pilot’s eagerness to hurry up the preflight phase most likely was the cause of the fatal dual engine flame-out and subsequent loss of control.
Another major finding in this NASA report was that high workload was cited in 80 percent of all incidents. When the pilot is in a rush to complete a multitask situation, it is more likely that something important will be forgotten. The NASA study made several specific recommendations to pilots to avoid hurry-up error:

1 Maintain awareness of the potential for the hurry-up syndrome in preflight and taxi-out phases of flight and be particularly cautious if distractions are encountered in these phases.
2 When pressed to hurry-up, particularly during preflight, take time to evaluate tasks and their priority.
3 If a procedure or checklist is interrupted, return to the beginning of the task and start again.
4 Strict adherence to the checklist discipline is a key element of preflight and pre-takeoff.
5 Defer paperwork and other nonessential tasks to low-workload operational phases.
6 Positive CRM techniques will eliminate many errors.

flags_of_Italy
“La mattina dell’incidente il pilota di un bimotore AeroStar a cui era stato montato un nuovo motore più potente, aveva effettuato un volo di familiarizzazione con l’istruttore, ricordate le performance e passato in rassegna il manuale di volo.
Fatto rifornimento si levò in volo col passeggero verso la Florida. Nove minuti dopo fu autorizzato a salire a FL180, otto minuti più tardi l’ultimo contatto radio:”ok, mayday, lost engines, lost engines, dropping fast“. I tracciati radar di Baltimora rilevarono una discesa da 16900 piedi a 2300 piedi in circa 90 secondi, una discesa di circa 9700 piedi al minuto. Testimoni videro l’aereo in volo rovescio impattare al suolo. Testimoni presenti all’aeroporto descrissero il pilota molto nervoso prima di andare in volo e notarono che le sue mani tremavano. L’istruttore che lo aveva condotto in volo testimoniò che il pilota gli aveva riferito di non sentirsi a suo agio e nervoso. La commissione d’inchiesta esaminando i resti dell’aereo trovò che le pompe elettriche erano spente e la leva del correttore alla massima apertura. Il manuale di volo prevedeva che le pompe fossero accese durante la salita al di sopra dei 10000 piedi, la cui conseguenza fu un problema di alimentazione e la disperata ricerca da parte del pilota di riaccenderlo. La conclusione della commissione d’inchiesta fu che il pilota mai accese le pompe elettriche come richiesto, facendo così spegnere i motori durante la salita (NTSB 1985). Il pilota era nervoso e a disagio all’idea di volare, e lo stress psicologico dovuto alla scarsa esperienza contribuirono all’incidente. Lo spegnimento contemporaneo dei due motori determinarono una situazione da far perdere al pilota ogni capacità di riprendere il controllo dell’aereo. Durante la discesa di 9700 piedi al minuto era chiaramente incapace di completare la checklist di 28 passi della procedura di accensione in volo.
Prima del volo c’erano state inequivocabili red flags che contribuirono alla catena degli eventi, tra cui preoccupazione, confusione mentale, procedure non effettuate e omissione delle checklist in volo. La fretta del pilota nella fase di pre-volo fu probabilmente la principale causa dello spegnimento dei motori e della conseguente perdita di controllo.
Da un interessante ricerca condotta dalla Nasa risulta che nello stragrande numero dei casi, il sovraccarico di lavoro è la causa degli incidenti. Quando il pilota si trova a completare una serie di mansioni contemporaneamente, e più facile dimenticare qualcosa di importante. A tal proposito la NASA ha stilato delle specifiche raccomandazioni ai piloti per evitare errori dovuti alla fretta:

1 Mantieni coscienza situazionale durante le fasi pre-volo e di rullaggio per la potenziale hurry-up syndrome, soprattutto se durante queste fasi intervengono fattori di distrazione.
2 Quando pressato dalla fretta prenditi tempo per valutare le priorità degli obiettivi.
3 Se una procedura o una checklist viene interrotta, ritorna all’inizio della sezione e ricomincia da capo.
4 Una stretta osservanza della checklist è fondamentale nelle fasi pre-volo e di rullaggio.
5 Rinvia qualsiasi obiettivo non essenziale alle fasi di scarso carico di lavoro.
6 Una tecnica di CRM efficace eliminerà molti errori.

LIRQ Runway 05; TORA 1605.

“Hurry-up Syndrome” 1

“Hurryup:Syndrome” 1

flags_of_United-Kingdom
[…]
“Today I had a problem with my landing gear on takeoff. It failed to retract; in fact it didn’t even leave the down-and-locked position. We tried cycling the handle a few times but no response. We checked circuit breakers, electrical busses, etc., all to no avail. After we determined that the gear was down and locked, we called the tower and returned for landing.                        
What I found so interesting about this situation was how closely the events mirrored the air carrier crash in the Florida Everglades. The student was flying and I began working on the problem and then so did he. After a while I realized that no one was really flying the plane, and I told the student to fly the plane and I would work on the problem. Thank goodness we broke the chain or the situation could have turned into something worse, such as unexpected contact with terrain” (ASRS 1993a).

General aviation pilots can also fall prey to the same hazardous attitudes that confront military and commercial aircrews. The following examples clearly points out the need for general aviators to heed the message as well.
The “hurry-up” syndrome is a phenomenon better known to most pilots as “get there-itis“. NASA study on the phenomenon defines the syndrome as a situation where a pilot’s human performance is degraded by a perceived or actual need to “hurry” or “rush” tasks or duties for any reason.
The top two hurry-up incidents listed in the NASA report were deviation from ATC clearance, and deviation from company policy or procedure. The majority of incidents had their origins in the preflight phase, the next was in the taxi-out phase. What was even more significant was the finding that the human errors that occurred in the preflight phase manifested themselves later in the takeoff phase. For example, a distraction during preflight causes the pilot to omit an important checklist item, which has deadly consequences in the climb-out. A general aviation accident in Cockeysville, Maryland, in April 1984, is an excellent example that had its seeds in preflight errors with a pilot who was in a hurry to go.
(to be continued)

flags_of_Italy
“Oggi ho avuto un problema con il carrello dopo il decollo, non sbloccandosi dalla posizione estesa. Abbiamo provato a retrarlo con la leva ma senza risultato. Abbiamo controllato i breakers e le varie componenti elettriche senza risultati. Dopo esserci sincerati che il carrello era bloccato abbiamo contattato la torre per rientrare e atterrare.
Ho trovato interessante come la situazione rispecchiasse da vicino il caso delle Everglades in Florida. Lo studente era ai comandi quando io iniziai a occuparmi del problema, e in breve anche lo studente iniziò a occuparsene. Ad un certo punto mi accorsi che nessuno era più ai comandi dell’aereo, così richiamai l’allievo sollecitandolo alla conduzione dell’aereo. Grazie a Dio la catena degli eventi fu interrotta e il rischio di impattare col terreno scongiurato” (ASRS 1993a).

Piloti di aviazione generale possono rimanere coinvolti anche da certe pericolose attitudini che riguardano piloti commerciali e piloti militari. I seguenti esempi illustrano chiaramente il bisogno da parte dei piloti di Aviazione Generale di porre attenzione a questa problematica.
La “hurry-up” syndrome è un fenomeno meglio conosciuto ai piloti come “get there-itis“. Lo studio condotto dalla NASA definisce questa sindrome come una situazione dove le performance del pilota sono degradate dalla percezione o dal bisogno effettivo di urgenza e velocizzare le mansioni per una qualsiasi ragione.
Le cause più frequenti di questo tipo di incidenti riguardano un’inosservanza delle autorizzazioni da parte degli enti di controllo o delle procedure. La maggioranza di questi incidenti avviene nelle fasi pre-volo o durante la fase di rullaggio, o ancora durante la fase di decollo, per l’omissione di una voce importante della checklist le cui conseguenze si manifestano nelle prime fasi del volo. Un incidente nel campo dell’aviazione generale, avvenuto a Cockeysville, Mayland nell’aprile del 1984 è un eccellente esempio di come le fretta abbia portato a commettere errori nella fase pre-volo.

Fine weather and Cavok!

Workload Management

Workloadmanagement

flags_of_United-Kingdom
[…]
Error chain analysis can also be an effective tool for general aviation pilots, and accident reports can be obtained for this purpose from the NTSB, or in many cases from your local safety office.
Workload Management is another tool trained in the military and airlines that can be used by general aviation pilots.
In general, Workload Management is a way to prioritize tasks so that a loss of situational awareness does not occur through overload or distraction in the cockpit, which can lead to a self-induced incident/accident. The skills associated with workload management reflect how well an aviator or a crew manages to distribute tasks and avoid overloading individuals. It also considers the ability of the crew to avoid being distracted from essential activities and how work is prioritized. Secondary operational tasks are prioritized to allow sufficient resources for dealing effectively with primary flight duties. The principles of task prioritization and distraction avoidance are all CRM/human factors tools that are extremely useful to the GA pilot.
Back in the ’70s Eastern Airlines lost an L1011 TriStar in the Florida Everglades. It’s a classic accident involving a crew that got distracted with a minor landing gear indicator light while the airplane slowly descended into the ground and crashed.
From the files of ASRS comes a report from a GA flight instructor whose recollection of that incident raised a red flag and broke an error chain that prevented another controlled flight into terrain (CFIT) accident.
(to be continued)

flags_of_Italy
La lettura delle commissioni d’inchiesta, relative agli incidenti, e la serie di concause che ne determinano l’evento, sono un aiuto importante per i piloti di Aviazione Generale, un’ottimo spunto di riflessione e di studio.
Il Workload Management è un altro strumento usato nell’addestramento militare e i piloti di linea che può risultare utile per i piloti di Aviazione Generale.
In generale il Workload Management è un sistema per priorizzare degli obiettivi, ed eliminare le distrazioni, così che una perdita di coscienza situazionale non si verifichi in quelle fasi di alto carico di lavoro che può portare a situazioni di incidenti auto-indotti. L’abilità è quella di riuscire a distribuire nel tempo le varie mansioni, evitando così di trovarsi in situazioni di carichi di lavoro inestricabili, evitando possibili distrazioni e priorizzando le varie fasi di lavoro. Gli obiettivi secondari sono così messi “in lista di attesa” così da soddisfare per primi quelli che nella particolare fase del volo richiedono priorità assoluta. Questi principi della priorizzazione delle fasi di lavoro e dell’eliminazione di qualsiasi fonte di distrazione sono tutti strumenti della CRM/Human Factors che si possono rivelare estremamente utili -anche- per i piloti di Aviazione Generale.
Negli anni ’70 Eastern Airlines perse un L1011 TriStar nelle Everglades in Florida. È un classico incidente che coinvolse una intera crew distratta alle prese con la luce di segnalazione del carrello, mentre l’aereo stava lentamente perdendo quota per poi schiantarsi nelle paludi sottostanti.
Dai dati di una commissione d’inchiesta, emerge un caso dove un istruttore di volo di aviazione generale riconoscendo una red flag, riuscì a interrompere la catena degli eventi evitando di impattare al suolo (CFIT).

1500 feet, waiting clearance to cruise altitude.

Red flags and error chains

RedFlagsErrorChains

flags_of_United-Kingdom
[…]
Pilots universally recognize the red warning flag when it appears in a cockpit instrument. A red GS (glide-slope) flag on an ILS approach inside the outer marker is a significant warning to the pilot and carries with it specific implications. Just as pilots are trained to recognize technical red flags and know what procedures to follow.
Following the same principle, United Airlines trained its pilots to help them to understand the concept of error chains and how to stop a potential incident or accident by identifying a “red flag”, in the field of the Human Factor. Once the “red flag” is identified and corrective action is taken, the link is broken, and the incident/accident is prevented. The links of these so-called error chains are identifiable by means of eleven clues. These clues are: ambiguity, fixation or preoccupation, empty feeling or confusion, violating minimums, undocumented procedure, no one flying the airplane, no one looking out of the window, failure to meet targets, unresolved discrepancies, departure from standard operating procedure, and poor communications.
The following case study illustrates an error-chain accident that is commonly used in CRM training courses.

“Tiger 66”
One of the classic CRM training films is the tragic story of the crash of Tiger 66, a Boeing 747 in Kuala Lumpur, Malaysia.
Several “red flags” formed the error chain that killed the crew of Tiger 66, any one was a clear case of miscommunication, a set up that could have trapped a single Cessna pilot, a military pilot or this B747 cargo crew.
As Tiger 66 descended into Kuala Lumpur, confusion between the approach controller and the crew led to a misinterpreted clearance. As the crew began its en route descent, the first ATC clearance in the setup was “Tiger 66, descend five five zero zero”. The crew read back “…fifty-five hundred”. The next clearance was “Tiger 66, descend two seven zero zero”. The read back was “… two thousand seven hundred”. The 747 leveled at 2700 feet mean sea level, and tracked inbound towards the airport. Then came the killer clearance, the second-to-last red flag. “Tiger 66, descend two four zero zero, cleared NDB33 approach”. The pilots surprised by this kind of approach and clearly distracted, not understanding the ATC intentions, repeated the controller’s instruction, “ok four zero zero“. The captain had misinterpreted the controller’s “two” as “to”, confused by this kind of approach, incapable to realize that they were descending into the terrain indicated on the the approach chart. But their fate was not yet sealed. The last of the red flags were 11 “pull-up!” warnings from the GPWS that went unheeded by the crew.
Tiger 66 flew into a hill, level at 400 feet msl.
(to be continued)

flags_of_Italy
Tutti i piloti sono in grado di riconoscere l’allerta che una red flag comporta quando questa appare sugli strumenti di bordo. Una red flag sul glideslope durante un’avvicinamento strumentale sta ad indicare uno specifico avvertimento con delle specifiche implicazioni, i piloti sono quindi addestrati a riconoscerle e sanno quindi quale procedura applicare.
Secondo lo stesso principio, United Airlines addestra i propri piloti a riconoscere situazioni di potenziale pericolo, identificando eventuali stati di allerta, nel campo dello Human Factor, riconoscendoli come fossero red flags sugli strumenti di volo e attraverso azioni correttive, interrompendo la catena degli eventi. Una volta identificata la red flag, e una volta apportate le azioni correttive, l’anello è rotto e l’incidente evitato. Gli stati d’animo che contribuiscono alla formazione della catena degli eventi sono individuabili in ben 11 indizi: ambiguità, fissazione o preoccupazione, confusione, violazione delle minime, procedure non rispettate, non guardare fuori dal finestrino, obiettivi non rispettati, comunicazioni approssimative…
Il seguente caso illustra un incidente che è solitamente preso ad esempio nell’addestramento alla CRM.

“Tiger 66”
Il caso eclatante della tragico incidente di Tiger 66 un Boeing 747 avvenuto a Kuala Lumpur.
Molte le red flags che contribuirono a formare la catena degli eventi che uccise l’equipaggio di Tiger 66 i cui singoli elementi se riconosciuti avrebbero evitato il disastro. Un chiaro caso di incomprensione, un episodio che avrebbe confuso un pilota di un Cessna, un pilota militare o appunto, l’equipaggio di questo B747 cargo. Quando Tiger 66 inizio la discesa per Kuala Lumpur incomprensioni tra l’equipaggio e il controllore portarono a interpretare in maniera sbagliata l’autorizzazione. Appena iniziato l’avvicinamento, il primo controllore di volo autorizzò Tiger 66 a la discesa a cinque cinque zero zero e l’equipaggio ripetè correttamente l’autorizzazione. La seconda autorizzazione era la discesa a due sette zero zero. La read back fu: “two thousand seven hundred“. Il 747 livellò a 2700 piedi sul livello del mare in rotta di avvicinamento verso l’aeroporto di destinazione. Quindi il controllore diede l’autorizzazione killer, la seconda red flag. “Tiger 66 descend two four zero zero cleared to NDB33 approach“. I piloti sorpresi per questo tipo di avvicinamento e chiaramente distratti a tal punto da non comprendere le intenzioni del controllore, ripeterono la clearance “ok four zero zero” tralasciando “two” che avevano interpretato come “to”, confusi dal tipo di avvicinamento e incapaci di realizzare che la discesa a 400 piedi li stava portando a schiantarsi al suolo. Ma il destino non si era accanito ancora a sufficienza. L’ultima delle red flags furono ben 11 “pull-up” warnings del GPWS che non fu ascoltato dall’equipaggio.
Tiger 66 si schiantò contro una collina a 400 piedi sul livello del mare.

From cockpit’s D-EPRT.

A Helpful Wife..

AHelpfulWife

flags_of_United-Kingdom
[…]
CRM (Crew Resource Management) originally called Cockpit Resource Management, was defined about 15 years ago, as the use of all available resources (software, hardware and liveware) to accomplish a safe and efficient flight. In this context, the single-engine Cessna pilot shares several common resources with the turbojet airline pilot. In terms of hardware, both have access to radios, flight controls, emergency equipment and some even have autopilots. In terms of software both have access to charts, airplane manuals, checklists and flight logs. In terms of liveware, both have access to ATC, ground assistance personnel such as dispatchers or flight service. From the files of Aviation Safety Reporting System comes an example of a general aviation pilot who made excellent use of liveware resources during an emergency, demonstrating that CRM principles can be a lifesaver for any type of flyer.

“I was flying on an IFR flight plan in VMC conditions. The one passenger on board was my wife, who occupied the right front seat. The aircraft was in cruise climb configuration approaching 6000 feet on a clearance to 10000 feet. We were over the ocean about 10 minutes into our flight after departing the airport. Passing through 6000 feet, I noticed the vacuum gauge needle was flickering just above the green arc. The engine then made a grinding noise for about three seconds and the propeller came to an abrupt stop.               
I immediately decreased airspeed to 85 knots, turned toward my departure airport, closed the cowl flaps, and alerted Departure of the engine failure and my course deviation. I then passed to my wife the emergency procedures laminated cards to read aloud to me while I turned the fuel valve and mixture control to off, maintained airspeed, and alerted ATC that I was shutting down the transponder. Dividing my time between keeping the airport in sight and monitoring the airspeed, I instructed my wife to ensure her seat belt and shoulder harness were tight. Air traffic control then handed me off to the airport tower. I informed the tower I was with them on an emergency approach. I was cleared to land “any runway”. My altitude, airspeed, and progress to the airport were good, and I elected to fly an abbreviated downwind and base for runway 24. I landed at the right speed in a normal landing attitude. Twelve minutes had passed from the time the engine shuddered to a grinding halt and we rolled gently to a stop. I believe the successful outcome of this flight can be attributed to the fact that I remained focused on the task at hand, flying the airplane, and used all of the resources available to me,…. including my wife”                                         

The use of all available resources and timely “decision making” are clear examples of CRM principles in action. In this case, the concept of a husband/wife team takes on a new dimension, where CRM principles can also help identify the potential for problem before they occur.
(to be continued)

flags_of_Italy
CRM (Crew Resource Management) inizialmente definita come Cockpit Resource Management una quindicina di anni fa, è una delle varie risorse utilizzabili in volo (software, hardware, liveware) per garantire la sicurezza e l’efficienza in volo. In questo senso il pilota di un Cessna condivide molte risorse con un pilota di linea. In termini di hardware entrambi utilizzano le radio, i controlli di volo, gli equipaggiamenti di emergenza, e alcuni hanno anche l’auto pilota. In termini dì software entrambi utilizzano carte di navigazione, manuali di volo, checklist e flight logs. In termini di liveware entrambi hanno accesso agli enti di controllo del traffico aereo, e dell’assistenza a terra. Dalle relazioni dell’Aviation Safety Reporting System trascriviamo il caso di un pilota di Aviazione Generale che durante un’emergenza e attraverso un uso appropriato del liveware dimostra quando i principi di CRM possono salvare la vita di qualsiasi pilota:

“Stavo volando in IFR in condizioni VMC. L’unico passeggero a bordo, mia moglie, occupava il seggiolino anteriore destro. L’aereo era in salita, autorizzato a 10000, sul mare, in volo da 10 minuti. Attraversando i 6000 piedi, notai che l’indicatore della pompa vacuum stava oscillando appena sopra l’arco verde. Il motore quindi iniziò a vibrare e l’elica improvvisamente si arrestò.
Rallentai immediatamente la velocità a 85 knt, virai in direzione dell’aeroporto di partenza e allertai l’ente di controllo dell’emergenza e la rotta di avvicinamento. Passai quindi le checklist per le procedure di emergenza a mia moglie, perché le leggesse, occupandomi della conduzione dell’aereo, chiudendo il correttore e la valvola della benzina, mantenendo la velocità di massima efficienza e comunicando lo spegnimento del transponder. Tenendo l’aeroporto in vista e controllando continuamente la velocità diedi istruzioni a mia moglie di regolare la sua cintura di sicurezza. L’avvicinamento mi passò quindi con la torre, informandola della situazione di emergenza, che mi autorizzò ad atterrare sulla pista a me più favorevole. L’altitudine, la velocità, e l’avvicinamento erano corretti, decisi quindi di entrare in sottovento per pista 24. Atterrai alla giusta velocità configurato in modo standard. Solo dodici minuti erano passati dal momento in cui il motore aveva smesso di funzionare. Credo che il felice esito del volo fosse da attribuire al fatto che ero riuscito a rimanere concentrato sull’obiettivo di atterrare, mantenendo il controllo dell’aereo, sfruttando tutte le risorse disponibili….inclusa mia moglie”.

L’uso di tutte le risorse disponibili e una pronta “decision making” sono un chiaro esempio dei principi di azione della CRM. In questo caso il team “marito/moglie” ci porta in una nuova dimensione, dove i principi della CRM possono aiutarci a identificare potenziali problemi prima ancora che questi si manifestino.

Fog over the Pianura Padana.

CRM in General Aviation 2

CRMin genAviation2

flags_of_United-Kingdom
[…]
Flight 498 was then cleared to slow to 190 knots and descend to 6000 feet. Eleven minutes after a Grumman Tiger checked in with the same controller handling Flight 498, requesting flight following. As the controller was giving the Grumman a transponder code, the cockpit voice recorder on Aero Mexico 498 was recording the last words of wonder and surprise of the crew, while the leading edge horizontal stabilizer hit Piper’s cabin area broadside. The occupants of the smaller plane were decapitated. Both aircraft fell 6500 feet onto the Los Angeles suburb of Cerritos.”

Many warning devices now found in modern cockpits have the names of accidents written all over the instrument, and after Cerritos, “Terminal Collision Avoidance System” (TCAS). But these warnings are largely found only in airliners, as well in some military aircraft. Only one warning system is common to airliners, military aircraft, and the Piper, and that is the human one. “The best safety device in any aircraft is a well-trained pilot”!.
CRM is a term that is familiar to many military and airline crew-members, but it is not well understood by many general aviation pilots. Some GA pilots might have heard the term and felt it applied only to airplanes flown by “crews” and was not relevant to single-pilot type operations. While CRM came about as a result of human factor-based accident records and pressure from the FAA and NTSB, no such thing has happened in general aviation, despite a substantial record of human factor-based accidents and incidents. Human error occurs as often, or more often, in the general aviation environment as it does in the more structured flight environments of commercial and military aviation.
We all share the same sky, and sometimes, as in the Cerritos midair collision, aviators share the same point in space and time.
Are the CRM skills taught to airline and military crews transferable to the general aviation pilot? Are some CRM skills universally useful? Perhaps CRM training should be a part of every pilot’s training, starting with the private pilot’s license and continuing through the ATP.
(to be continued)

flags_of_Italy
Il volo 498 fu quindi autorizzato a rallentare a 190 nodi e scendere a 6000 piedi. Undici minuti più tardi un Grumman Tiger preso in consegna dallo stesso controllore, veniva assegnato di un codice transponder e contemporaneamente il CVR del volo 498 registrava le ultime parole di stupore e sorpresa dell’equipaggio a cui veniva recisa la parte sommitale della coda da parte del Piper. Gli occupanti del piccolo volo vennero decapitati ed entrambi gli aerei precipitarono da 6500 piedi nel sobborgo di Cerritos”.

Molti “warning devices” sono presenti nei moderni cockpit di aerei commerciali e militari e dopo questo incidente anche il TCAS fece la sua comparsa per migliorare la sicurezza del volo, ma solo un warning system è comune a quelli presenti sul Piper..quello del pilota: “The best device in an aircraft, is a well-trained pilot”!
CRM è un acronimo sconosciuto da molti piloti di AG. Molti ne hanno sentito parlare ma credono che venga applicato soltanto ad aerei in cui è prevista la presenza di una crew e sia quindi irrilevante nei casi di aerei single-pilot. La nascita della CRM è il risultato della richiesta da parte della FAA e della NTSB a seguito di incidenti in cui era emerso che la causa principale riguardava il fattore umano. Nessuna richiesta è stata fatta nel campo dell’aviazione generale nonostante una ricca casistica di incidenti anche qui attribuibili al fattore umano. Eppure gli errori umani accadono con maggiore frequenza nella sfera dell’aviazione generale di quanto non succede in altri ambiti più “strutturati” come quello commerciale e militare.
Condividiamo lo stesso cielo e certe volte come nel volo 498 lo stesso spazio nelle stesso tempo.
Possono i principi della CRM che sono insegnati ai piloti commerciali e a quelli militari essere applicati ai piloti di aviazione generale? È possibile che alcuni principi della CRM siano universalmente validi? Forse l’addestramento CRM dovrebbe essere parte dell’addestramento di ogni pilota, iniziando proprio dalla licenza PPL, per poi proseguire con la licenza commerciale.

A carpet of clouds.