Jag tänkte kortfattat beskriva hur man kan använda Reasons Swiss Cheese model som ett verktyg i en haveriutredning. Kort bakgrund är att modellen visar hur en olycka orsakas av olika samverkande faktorer på olika plan i en organisation:
• Organisational & System Factors
• Contextual Conditions
• Human Involvement
• Absent or Failed Barriers
Efter att först ha gjort en beskrivning av de faktiska omständigheterna, gärna med en tidslinje över olika händelser i samband med olyckan börjar man tillämpa modellen.
1. Det första man tittar på är ”Human Involvement”. Enligt modellen är detta fel/misstag eller regelbrott av en eller flera människor i den ”skarpa änden”, dvs piloter, flygledare, tekniker eller liknande. Enligt modellen är detta det som utlöste olyckan. Vi söker alltså fel eller regelbrott som hände omedelbart före och som aktivt bidrog till olyckan.
2. Nästa steg är ”Contextual Conditions”. Detta är latenta (inneboende, vilande) förhållanden som existerade innan och under olyckan. De utgör förutsättningar för olyckan men anses inte vara orsaker. De har haft en direkt påverkan på de mänskliga faktorer som togs upp i föregående stycke. Det kan vara många saker; arbetsmiljö, väder, trötthet, utbildning, bemanning, utrustning osv. Vi söker alltså förhållanden som hjälper oss att förstå varför fel eller regelbrott gjordes.
3. Steget därefter är ”Organisational Factors”. Dessa är faktorer som skapat eller tillät de förhållanden som beskrevs i stycket ovanför. Det kan vara beslut utbildning, schemaläggning av personal, kommunikation och information i organisationen, motstridiga mål eller uppgifter osv. Vi söker alltså egenskaper i organisationen som fanns innan olyckan och som gav upphov till och tillät de förhållanden som förklarar de begångna felen/regelbrotten.
4. Sista steget är att granska ”Absent or Failed Barriers” som skulle ha kunnat förhindrat olyckan. Barriärer kan vara rent handfasta i form av ett staket, de kan vara tekniska i form av varningar/larm men är ofta procedurer som om de följs korrekt avser förhindra olyckor. Vi söker alltså de system eller procedurer som skapats för att förhindra den här typen av olyckor men som inte fungerade i den aktuella olyckan.
Som synes är det ett strukturerat sätt att arbeta som leder till att man belyser många olika aspekter. Under arbetet kommer man att hitta många problemområden där man kan göra rekommendationer som om de genomförs kan förhindra en liknande olycka i framtiden.
Om man tittar på den tragiska olyckan i Linate (Milano) 2001 med hjälp av denna modell skulle några resultat kunna vara:
1. ”Human Involvement” – Besättningen i Cessnan flög i dåligt väder utan rätt kvalifikationer. Samma besättning använde fel taxibana och körde ut på banan utan tydlig klarering. Flygledaren missade att förstå Cessnans läge baserat på dess positionsrapport och flygledaren missade att upptäcka ett fel i Cessna-besättningens tillbakaläsning av taxi-klareringen.
2. ”Contextual Conditions” – Ekonomisk press på Cessnapiloterna att genomföra flygningen. Tät dimma. Väntplatser på bansystemet som inte var kända av ATS pga. brister i officiell dokumentation. Brist på skyltar och märkningar på den platta som Cessnan stod på. Hög arbetsbelastning på flygledaren beroende på trafikmängd, dålig sikt och användande av olika språk på radion. Användande av icke-standard-fraseologi vanligt förekommande hos flygledarna.
3. ”Organisational Factors” – Dåligt beskrivna taxiprocedurer. Flygplatsen levde inte upp till ICAO Annex 24 när det gäller markeringar på manöverområdet. Publicerade dokument inaktuella och med fel. Markradarsystemet hade inte installerats trots sex år sedan inköp. Procedurer som tillät höga trafikvolymer även då sikten var kraftigt reducerad. Som bakomliggande systemfaktor fanns även brist på ett väl-integrerat SMS på flygplatsen.
4. ”Absent or Failed Barriers” – Markradarsystem ej i drift. Saknade ljus-system för att varna för rullbana. Inga procedurer för LVO (Low Visibility Operations).
Vid en utredning av det här slaget är det ganska vanligt att man hittar problemområden som redan pekats på i tidigare utredningar men inte adresserats tillräckligt. Jag har träffat utredare som därför blivit lätt luttrade. Om och om igen utreder man olyckor som kunnat förhindras om man lyckats ta till sig lärdomar från tidigare olyckor. Under min utbildning i Barcelona nyligen tittade vi t.ex. på olyckor i samband med flygdagar där vår kursledare pekade på en sorglig rad av liknande bakomliggande faktorer som återkommer om och om igen.
Jag uppfattar denna modell och metodik som mycket användbar och den bygger på stor erfarenhet. Invändningar finns naturligtvis också. En är jakten på ”fel” där många menar att olyckor kan hända utan att direkta fel begås. En annan är att de olika orsakerna till en olycka oftast inte är så snyggt linjerade som modellen verkar förutsätta.
Tack Niklas!
Även denna skrev jag efter att jag gått kursen i Barcelona. Jag ser att jag lyckats åstadkomma ett skrivfel – “Annex 24” ska naturligtvis vara “Annex 14”. Observera också att mina exempel från LInate inte är heltäckande utan just – exempel.
Jag håller på att läsa (är nästan färdig) boken “Beyond Aviation Human Factors” av Reason m.fl. som tämligen detaljerat diskuterar denna modell med flera exempel ur verkligheten. Boken kom ut 1995.
Som jag ser det är Reasons viktigaste bidrag att man måste förstå varför fel och misstag som begås. Jag citerar ett stycke ur ett kapitel som handlar om en Fokker F28 som kraschade i Dryden, Canada 1989:
“…there is no substitute for a properly trained, professional flight crew. They are the goalkeepers of aviation safety. But on the other hand, no matter their care and concern, humans can never outperform the system which bounds and constrains them. If in contest, system flaws will sooner or later inevitably defeat individual human performance.”