Hem » Flygsäkerhet

Kategoriarkiv: Flygsäkerhet

Anders Ellerstrand: Flygsäkerhet 9 – traditionell syn på drifting

Flygsäkerhet 9: traditionell syn på drifting

Att system utsätts för drift är ingen ny tanke. Boken ”Friendly Fire” kom ut 2000 och Rasmussen (se förra avsnittet) presenterade sin modell 1997 samma år som Reason hade med nedanstående bild i sin bok ”Managing the Risks of Organizational Accidents”.

Reason ville visa att i en ideal värld sker utvecklingen så att balansen mellan ”Protection” (säkerhet) och ”Production” (ekonomi) bibehålls, symboliserad av mittlinjen. I praktiken blir pressen på ökad och effektiviserad produktion ofta så stor att säkerhetsmarginalerna tillåts minska tills en allvarligare incident eller olycka inträffar som motiverar ökat fokus på ”Protection”. På bilden syns en linje som inte är ideal utan med drift tills incidenter ger motiv till att införa åtgärder som återställer balansen men att om incidenterna uteblir kan driften leda till något värre.

Det är lätt att se likheten med Rasmussens modell från förra inlägget. Det är också tydligt att bilden vill varna för negativa effekter av drift. Nästa bild finns i ett otal varianter:

Denna kommer från en ICAO SMS-utbildning jag gick för några år sedan. Jag tolkar bilden som att ett system har en säker design då det driftsätts men att efter driftsättning sker en drift och systemets ”operational performance” blir något annat än den tänkta ”baseline performance”. Bilden visar också att om man inte upptäcker detta i god tid, genom processer i SMS, så kan driften leda till en olycka.

Det är inte ovanligt att se drift som en följd av ”complacency” (ung. självbelåtenhet) eller att t.o.m. likställa termerna. Med ”complacency” menas ofta en situation där man är så nöjd och trygg i sin förmåga att man slutar anstränga sig. Man ser tidigare goda resultat som en garanti för fortsatt framgång. Man kan uppfatta sig ha så goda marginaler att man kan börja tulla på dem och därmed frångå de väl utarbetade procedurer som gjorde att man uppnådde den ursprungliga goda förmågan och säkerheten.

Som grund ser man här systemet som väl designat och säkert. Driften är negativ och beror på brister i attityd hos dem som arbetar. Sättet att hantera detta är ett väl organiserat SMS som följer upp verksamheten för att korrigera tendenser till drift. Ett väl fungerande system för incidentrapportering av även mindre allvarliga incidenter är ett viktigt verktyg för att upptäcka drift. Detta kan ses som kännetecken hos det som vi ibland kallar ”Safety-I”, dvs. traditionellt flygsäkerhetsarbete.

Om ni läst mina tidigare inlägg om flygsäkerhet märker ni nog att jag inte helt delar denna syn. Det är riktigt att drift kan vara negativt och leda till problem men diskussionen om drift måste handla om mer och där menar jag att det traditionella sättet att se på drift inte räcker.

Ytterligare ett avsnitt i samma ämne blir det…

Anders Ellerstrand: Flygsäkerhet 8:drifting

Återigen får jag be om ursäkt för ”svengelskan”. Drifting kan naturligtvis översättas med ”drift” och det kommer jag att göra i texten nedan men samtidigt är ”drifting” ett begrepp som är mer etablerat i sin engelska version.

Drifting bygger ju på det som jag varit inne på tidigare i min serie om flygsäkerhet. Vi måste anpassa vårt sätt att arbeta efter hur verkligheten ser ut och utifrån det vi vill åstadkomma. De beskrivningar vi har av arbetet är aldrig heltäckande. Dels är det inte möjligt att förutse allt som kan hända, dels finns det för många variabler. En tredje faktor är att världen förändras så att beskrivningar och regelverk tenderar att alltid ligga lite efter det som faktiskt sker. De brister som finns i beskrivningar och regelverk är en av förklaringarna till att vi måste anpassa vårt arbete och denna anpassning kan orsaka en drift där sättet vi utför arbetet långsamt förändras. Efter en tid kan saker ha förändrats på ett avgörande sätt – positivt genom innovationer eller negativt med ökade risker.

En av de som tog upp detta tidigt var dansken Jens Rasmussen. Han menade att arbetet generellt har en generell, långsam och nästan omärkbar drift mot osäkerhet. Detta illustrerades så här:

Rasmussen menade att det finns ett ekonomiskt tryck på att öka produktionen eller minska kostnaderna. En annan press kommer från en önskan att inte få alltför hög arbetsbelastning. Tillsammans skapar dessa en ”drift towards failure”. Det finns många exempel på hur organisationer med gott rykte om att vara säkra ändå råkar ut för olyckor, I efterhand har man då kunnat se en lång period av små förändringar – drift – mot den situation som till slut ledde till en olycka.

En beskrivning av drift finns i den fantastiska boken ”Friendly Fire” av Scott A. Snook. Den handlar om hur två amerikanska F-15 sköt ner två amerikanska Hawk-helikoptrar i norra Irak 1994. Snook ledde en omfattande utredning av denna tragiska händelse men fann ingen som kunde pekas ut som skyldig. Han förklarar istället hur systemet som fanns på plats i Irak var reglerat till viss överdrift, med en önskan att vara säker på att kontrollera alla risker till det yttersta. Systemet konstruerades som ett centraliserat system och var på många sätt ”tightly coupled” (se tidigare blogg-inlägg). När systemet driftsattes upptäckte man efter ett tag att allt inte fungerade som det var tänkt. Det fanns sådant som personalbrist, utrustning som saknades eller inte fungerade, brister i utbildning osv. Det fanns ändå ett jobb att sköta och metoder utvecklades och anpassades för att lösa uppgiften trots bristerna. Det innebar samtidigt en drift. Situationen utvecklades också så att delar av systemet inte längre var ”tightly coupled” vilket innebar att vissa delar kunde utsättas för drift utan att påverka andra delar.

Bland exemplen på detta var att F-15 normalt verkade på högre höjd. Man fokuserade på att kunna identifiera flygplan som fanns på de höjderna. Radioutrustning och kommunikation med AWACS var anpassad för att lösa uppgifter på hög höjd. Helikoptrar å sin sida opererade på låg höjd, med dålig radiotäckning, inget behov av samverkan med AWACS osv. Till slut kom då dagen då två ”loosely coupled” system blev ”tightly coupled”. Två F-15 skulle identifiera två misstänkta helikoptrar som saknade ”IFF” (”transponder”), felidentifiering orsakad av bland annat brister i utbildning och till slut nedskjutning där orsakerna var många men där ”drifting” av ”loosely coupled” system spelade en roll.

Drift innebär också att skillnaden mellan beskrivningen av våra system (work-as-imagined) och den verkliga funktionen hos våra system (work-as-done) ökar. Det är ofrånkomligt att det alltid kommer att finnas en skillnad men blir den för stor skapar det problem.

Skulle något sådant här kunna hända i våra organisationer? Det är säkert möjligt men det är också väldigt svårt att upptäcka. I synnerhet om man enbart tittar på regelverk och procedurer och missar att följa upp den anpassning och drift som hela tiden finns och sker. Fortsättning följer.

Anders Ellerstrand: Flygsäkerhet 7 – Tightly or loosely coupled

Jag får väl börja med att be om ursäkt för ”svengelskan” men jag hade helt enkelt svårt att hitta en bra översättning. Jag ska här försöka förklara begreppen för att kunna använda dem i ett senare inlägg.

Om jag själv ska försöka förstå dessa brukar jag tänka på en liknelse jag läste om system. Det handlade om att bygga världens bästa bil. En metod skulle kunna vara att undersöka världens olika biltillverkare för att se vem som tillverkade världens bästa motor, världens bästa växellåda, bästa bromsar, världens bästa hjulupphängning osv. Om man satte ihop dessa delar borde det ju bli världens bästa bil? En orsak till att det inte skulle fungera är att de olika delarna måste anpassas till varandra.

Olika delar i en bil är förstås inte lika mycket beroende av varandra och vissa delar kan ju vara möjliga att bytas ut utan att resten påverkas så mycket. Här börjar vi närma oss ”tightly or loosely coupled” som inte är antingen-eller-begrepp utan mer används som en ”gråskala”. Om en del i ett system direkt påverkar en annan del kan den sägas vara ”tightly coupled”. En motors vevstake är ”tightly coupled” med kolven. Det är inte möjligt att röra den ena delen utan att den andra påverkas. Mellan motor och växellåda finns en koppling som gör att vi kan variera mellan ”tightly or loosely coupled” för just motor och växellåda.

Inom IT-system kan man också prata om ”tightly or loosely coupled” och t.ex. säga ”tightly coupled” om enheter som delar på samma minnesenhet. Om en enhet är aktiv påverkar den alltså direkt en annan enhets förmåga, medan ”loosely coupled” kan betyda att varje del har egen minnesenhet.

Om saker är ”tightly coupled” betyder det att om man gör något med en del kommer den andra delen också att påverkas. Mellan saker som är ”loosely coupled” finns inte den kopplingen. Det betyder också att det är lättare att byta ut en del som är ”loosely copupled” mot något annat.

Begreppen användes även för organisationer. I en organisation som är “tightly coupled” har arbetsledningen full kunskap om hur olika avdelningar arbetar och man kan genomföra förändringar enligt en sammanhållen strategi. En organisation som är starkt centraliserad blir oftast ”tightly coupled”. Det kan innebära att varje del av organisationen har bestämda och avgränsade uppgifter vilket kan vara effektivt men kan samtidigt ge sårbarhet. Om en del slutar fungera kan det få omedelbar negativ effekt på hela organisationen medan i organisationer som är ”loosely coupled” kan övriga delar fortsatt fungera.

Jag hoppas jag lyckades skapa någon förståelse för det här eftersom jag ska använda begreppen i nästa inlägg…

Anders Ellerstrand: Flygsäkerhet 6 – Mänsklig anpassning

För de flesta ser arbetet inte likadant ut varje dag. Även på en väl organiserad och planerad arbetsplats är det omöjligt att förutse allt som kommer att hända. Ett resultat är att vi som arbetar måste anpassa oss och anpassa sättet vi utför vårt arbete på. Denna anpassning innebär att man kanske inte helt arbetar efter regelverket men oftast gör anpassningen att man lyckas utföra arbetet på ett tillfredsställande sätt – trots att det inte gick att följa regler och riktlinjer till punkt och pricka och trots att det kanske saknades resurser och trots att någon gjorde fel någonstans och trots att förhandsplaneringen inte var optimal och trots att arbetsledningen inte fungerade perfekt.

Här spricker modellerna vi tittade på tidigare. Heinrich sade ju att människan var problemet men här antyder jag ju att människan är lösningen. Kan det stämma? Och vad betyder det för vår tro på automation som lösningen på alla problem?

Även James Reason såg mänsklig variation som ett problem. Han skrev om att alla organisationer lider av spänningen mellan den naturliga variabiliteten hos människan å ena sidan och systemens behov av en hög grad av regularitet i arbetets utförande. Han menade att arbetsledningen måste se till att begränsa människans aktiviteter så att de är effektiva och produktiva, men också så att de är säkra. Detta kan åstadkommas genom urvalsmetoder vid rekrytering, genom utbildning, genom tekniska system och genom regelverk och riktlinjer.

Att människan är anpassningsbar är ju knappast någon nyhet. Däremot tror jag att vi tar det för givet och inte ser hur viktigt och värdefullt det är. Transportmedel som tåg och flyg anses ju extremt säkra. Vi ser nog detta som följden av internationell standard och rigorösa regelverk, av strikt myndighetskontroll, av teknisk utveckling osv. Däremot tror jag inte vi ser den roll som kompetenta medarbetare spelar när de gör ständig anpassning av sitt arbete. Våra system är välutvecklade men inte perfekta. Det finns brister i design av tekniska system. Vi har regelverk som inte täcker alla situationer. Vi har brister i utbildning och organisation. Men vi har också människor som genom att anpassa sitt arbete ser till att dessa brister inte leder till olyckor.

Problemet är att vi studerar detta så lite. Vi studerar olyckor och incidenter och ser att människor inte är robotar som agerar exakt likadant. Vi ser människans variabilitet som ett problem men missar dess värde.

I nästa avsnitt ska ta upp ett par begrepp som jag själv tycker är lite svåra…

Johan Berg: Klareraren – den bortglömda besättningsmedlemmen.

Detta inlägg kommer från den Johan Berg som även tidigare kommit med gästinlägg, speciellt läst av många var detta – ”Pilots of the Caribbean” men även detta senare inlägg hade många läsare – CRJ550 – en ”game-changer”?. Bloggen välkomnar Johan tillbaka med ännu ett inlägg och hoppas på fler gästinlägg från nya håll!

För ett par månader sedan började jag flyga CRJ-550. Varje flygning har minst fyra besättningsmedlemmar, två piloter, en flygvärdinna och en klarerare (”dispatcher” som de heter här i USA där jag flyger). Tre av oss är självklart ombord hela tiden, medan den fjärde besättningsmedlemmen sitter på den operativa avdelningen i huvudkontoret. Klareraren är dock aldrig mer än ett ACARS-meddelande bort och alltid redo att hjälpa till när så behövs. Tyvärr har klareraren en ofta underskattad eller till och med förbisedd funktion men det finns ingen tvekan om hur viktiga de är för flygsäkerhet och en effektiv flygverksamhet. Jag måste dock medge att i skrivande stund har jag dock aldrig träffat någon av mitt flygbolags klarerare i verkliga livet.

Klarerare börjar jobba avsevärt tidigare på dagen (d.v.s. på natten) än den flygande delen av besättningen och ser till att färdplaner är på plats, väderunderlag är i ordning och bränsleplanering är som utförd enligt regler och riktlinjer. Allra oftast så håller piloter och klarerare med varandra om en planerad flygning men ibland så är vi oense när vi går igenom våra färdplaner och då diskuterar vi saken och på ett eller annat sätt kommer vi sedan överens.

En stor skillnad mellan EASA och FAA är att i FAA-systemet så har klareraren och befälhavaren ett delat och gemensamt juridiskt ansvar att se till att färdplan, inklusive väderprognoser och prestandaunderlag är i ordning innan flygningen påbörjas. Liksom piloten så är även klareraren examinerad och licensierad av FAA. Det är även obligatoriskt för alla klarerare att åka med på jump-seat en gång per år för att få en inblick i den dagliga verksamheten på “den andra sidan”. Det kan tyckas att det är lite märkligt att det inte är obligatoriskt för oss piloter att sitta med på dispatch en gång per år men för närvarande är detta inte något krav. Dock så förs det diskussioner om att klarerarna bör vara delaktiga i den årliga CRM-träningen tillsammans med piloter och kabinpersonal.

För några veckor sedan så bestämde jag mig för att alltid skicka ett meddelande till min klarerare för dagen. Dels för att öppna en dialog och få denna kollega att känna sig mer delaktig samt att också för att visa min uppskattning. Jag är övertygad om att ett enkelt, “God morgon, hur går det för dig idag?” omedvetet underlättar för en framtida dialog när det verkligen behövs. Inte minst eftersom vi aldrig träffar varandra i verkliga livet. Responsen jag fått sedan jag gjorde detta till en daglig rutin har varit näst intill överväldigande.

För ett par dagar sedan så hade jag min första diversion som befälhavare i amerikansk linjefart då Chicago O’hare gick från VMC till Cat 2 inom loppet av cirka 40 minuter. Våran klarerare var proaktiv, försåg oss med nya bränsleberäkningar och såg till att vi hade alla verktyg på plats för en friktionsfri diversion. Något som väldigt lätt kunde ha blivit oorganiserat, stressigt och överväldigande blev en problemfri dag.

I början på mars så har jag min årliga simulator-träning. Jag kommer då att åka till S:t Louis en dag tidigare med några extra Starbucks presentkort i crew-väskan och skaka hand med våra klarerare.

Anders Ellerstrand: Flygsäkerhet 5 – Faktorer som skiljer

Dekker och hans team hade alltså en lista med 10 faktorer som fanns med då patientvård misslyckades (en av 13 patienter, eller 7 %) – en lista som inkluderade olika exempel på mänskliga fel men också brister på arbetsplatsen. Då man sedan observerade lyckad patientvård (12 av 13 patienter eller 83 %) fick man en identisk lista – alla dessa faktorer var typiska även för framgångsrik vård! (Länk)
Denna överensstämmelse var dock inte allt man fann. Man fann också andra faktorer – faktorer som var vanligare i de 12 av 13 lyckade exemplen än i de 1 av 13 misslyckade.

Framgångsfaktorerna var:

• Olika åsikter inom ett team och möjligheten att anmäla avvikande åsikt. Att det finns olika professionella åsikter och att dessa tillåts.
• Ständig diskussion om risker och att inte ta framgång för givet. I komplexa system sker ständiga förändringar som kräver att man är beredd att anpassa även rutingöromål. Att ta hänsyn till detta vid t.ex. planering och briefing gör skillnad.
• Att värdera expertis. Små tecken på ökad risk missas lätt om man inte lyssnar till dem som faktiskt utför och kan arbetet.
• Möjlighet att säga stopp. Att alla tar ansvar för att göra sin röst hörd när man ser något som oroar.
• Små hierarkiska avstånd. Att människor från olika nivåer i en organisation kan mötas och diskutera.
• Att inte vänta på en inspektion innan problem åtgärdas. Säkerhet skapas av dem som arbetar i en process – inte av de som inspekterar och granskar. Att genomföra förändringar då behovet upptäcks är viktigt.
• Yrkesstolthet. Team som utför sitt arbete med stolthet gör ett bättre jobb.

Dekker poängterar att hans ”undersökning” i sjukhus-miljö inte gjordes vetenskapligt. Om man följer länken ovan kan man emellertid se att för de sju punkterna ovan finns ändå hänvisningar till litteraturen med stöd för deras giltighet. Dessa faktorer har identifierats även av andra. Jag kan här nämna att jag under mina Mastersstudier fick göra en forskningsuppgift. Den gjordes på ATCC Malmö och jag sökte faktorer som möjliggör ökning av kapacitet med minst bibehållen flygsäkerhet. En del av punkter ovan finns med även i slutsatserna från mitt arbete.

Nu ska vi däremot lämna Dekker och gå vidare i ämnet flygsäkerhet.

Anders Ellerstrand: Flygsäkerhet 4 – Mer verklighet

I förra avsnittet (länk) visade jag hur modeller för olyckor kan hjälpa oss att förstå hur risk ökar och olyckor händer. Men missar de något?

Jag går vidare med berättelsen av Sidney Dekker (länk). Myndigheten hade redan satt igång med ett paket åtgärder för att hantera de identifierade problemen. Resultatet? Enligt Dekker kom man inte vidare. Trots att man arbetat med åtgärder utifrån sin analys var resultatet fortfarande att en av 13 patienter som togs in skadades under den tid de fick vård.

Nu ställdes frågan som bryter mönstret. Vad hände med de andra tolv patienterna!? Man hade ju analyserat de ”en av 13” och tyckte sig ha en bra bild av problemen. Men visste man vilka faktorer som gjorde att de 12 av 13 var framgångsrika? Svaret var – nej! Man hade lagt alla resurser på att undersöka sina misstag och inga resurser på att analysera sina framgångar. Skälen var förståeliga – pressen från chefer, patienter och allmänhet bestod ju i krav på att hantera problemen.

Då erbjöd sig Dekker och hans team att göra jobbet åt dem. Högst ovetenskapligt började man följa sjukhusens aktiviteter för att skaffa sig en bild av vad som hände när saker fungerade, när patienter fick vård utan att fara illa. Efter några veckor kunde man sammanställa sina intryck. Man kunde göra en lista över faktorer typiska för lyckad sjukhusvård.

Bilden är bara illustration och har inget samband med berättelsen!

Jag redovisar de engelska termer Dekker använder och översätter dem till svenska, med egna tolkningar:
• Workarounds – åtgärder för att komma runt problem
• Shortcuts – genvägar, t.ex. hoppa över delar i en procedur
• Violations – brott mot regelverk
• Guidelines not followed – inte följa angivna riktlinjer för arbetet
• Errors and miscalculations – mänskliga fel och felberäkningar
• Unfindable people or medical instruments – brist på personal eller redskap
• Unreliable measurements – otillförlitliga mätningar
• User-unfriendly technologies – användar-ovänlig teknologi; dålig design
• Organizational frustrations – frustrerande organisation, byråkrati
• Supervisory shortcomings – brister i ledarskap och tillsyn

Gå gärna tillbaka till föregående blogginlägg och jämför… man hade funnit exakt samma faktorer i lyckad som i misslyckad patientvård! De här företeelserna är alltså allestädes närvarande. De är typiska för normalt arbete! Normalt arbete är lite stökigt, inte så välplanerat och fullt av anpassningar, irritationsmoment, uppoffringar och arbete som inte utförs precis så som det var tänkt.

Det här är alltså en berättelse av Sidney Dekker och den är inte baserad på vetenskapligt kontrollerad forskning. Ta den för vad det är. Ändå känner jag igen mig, så här är det att arbeta, åtminstone i en verksamhet som inte ser exakt likadan ut varje dag utan där man måste variera hur man utför arbetet. Förutsättningarna är inte optimala. Man måste anpassa sig om man jobbar på ett sjukhus, i ett flygplans cockpit eller på en flygtrafikledning. Förmodligen gäller det också många andra arbetsplatser.

Dekker har emellertid ytterligare en del i sin berättelse. Den är väldigt intressant och kommer i nästa del…

Anders Ellerstrand: Flygsäkerhet 3 – En titt i verkligheten

I förra avsnittet presenterade jag två modeller för hur risk ökar och olyckor händer (länk). Kan vi använda dessa modeller för att förstå verkligheten?

För att svara på det ska jag återge något som Sidney Dekker har berättat om (länk). Dekker arbetade med en myndighet inom sjukvård som hade runt 25 000 anställda. Deras statistik för patientsäkerhet lämnade en del att önska. Ungefär 7 %, eller en av 13 patienter som togs in skadades under den tid de fick vård. Man kan diskutera hur man kommit fram till siffrorna men jag går istället vidare i berättelsen.

Bilden är bara illustration och har inget samband med berättelsen!

Det fanns data som visade vilka problem som var typiska för dessa 7 % av misslyckande. Jag redovisar de engelska termer Dekker använder och översätter dem till svenska, med egna tolkningar:
• Workarounds – åtgärder för att komma runt problem
• Shortcuts – genvägar, t.ex. hoppa över delar i en procedur
• Violations – brott mot regelverk
• Guidelines not followed – inte följa angivna riktlinjer för arbetet
• Errors and miscalculations – mänskliga fel och felberäkningar
• Unfindable people or medical instruments – brist på personal eller redskap
• Unreliable measurements – otillförlitliga mätningar
• User-unfriendly technologies – användar-ovänlig teknologi; dålig design
• Organizational frustrations – frustrerande organisation, byråkrati
• Supervisory shortcomings – brister i ledarskap och tillsyn

Den första modell vi tittade på kom från Heinrich. Han pekade på att 88 % av olyckor beror på mänskliga fel och i listan ovan ser vi flera exempel som ger stöd för detta. Människor följer inte regler och riktlinjer; man tar genvägar, räknar eller mäter fel osv.

Den andra modellen vi tittade på kom från Reason. Han visade hur arbetsmiljö och organisation skapar förutsättningarna för dessa fel och att felen därför inte är orsaker utan istället konsekvenser av faktorer som finns inbyggda i arbetsplatsen. I listan ovan ser vi vad som kan vara exempel på detta. Problem som personalen måste arbeta runt, regelverket kan vara otympligt och svårt att följa eller inte täcka in alla situationer. Här finns också exempel på resursbrist och en organisation som inte fungerar bra.

Så här långt fungerar modellerna och de visar var vi kan sätta in åtgärder för att förbättra. Bättre utbildning kan få personal att göra färre fel och regelverk kan ytterligare styra människors beteende. Resursbrist och dåligt ledarskap kan åtgärdas. Precis så här har vi också arbetat och fortsätter att arbeta och resultaten tyder på att det varit rätt väg att gå.

Dock är Dekker inte färdig med sin berättelse från sjukhusvärlden. Fortsättning följer…

Anders Ellerstrand: Flygsäkerhet 2 – Vad är problemet?

Om flygsäkerhet är att reducera risk och att minimera antalet olyckor så måste vi ju ta reda på vad som ökar risk och vad som orsakar olyckor. Vi ska titta på två modeller.

H. W. Heinrich
En av de verkliga pionjärerna inom säkerhet var amerikanen H. W. Heinrich. Han arbetade på ett försäkringsbolag när han 1931 publicerade sin klassiker; ”Industrial Accident Prevention, A Scientific Approach” där han hade analyserat stora mängder data från arbetsplatsolyckor. Hans slutsatser, teorier och modeller används än idag. Bland dem finns den kända triangeln som säger att för varje allvarlig olycka finns 30 mindre olyckor och 300 incidenter. Enligt denna modell kan vi minska antalet olyckor genom att minska antalet incidenter. Heinrich kom fram till att 95 % av alla olyckor på en arbetsplats orsakas av ”osäkra handlingar” (unsafe acts). Han menade också att 88 % av olyckorna berodde på mänskliga fel. Mindre känt är kanske att han också pekade på orsaker i omgivningen genom sin domino-modell.

Dessa tankar lever vidare och vi läser ständigt om ”den mänskliga faktorn” som orsaken till olyckor. Detta är förmodligen också en av drivkrafterna bakom att vi vill automatisera. Kan vi eliminera människan kan vi ju också eliminera mänskliga fel och därmed se en ökad säkerhet. Eller hur?

James Reason
En annan, mer nutida pionjär, är den engelske professorn James Reason. Hans betydelse för flygsäkerhetsarbetet kan knappast överskattas.

Hans modell ”Swiss cheese” har också ”osäkra handlingar” som utgångspunkt men hans modell visar att den ”osäkra handlingen” inte är tillräcklig för att förklara orsaken till olyckan. Dessa handlingar är enligt Reason istället konsekvenser av faktorer på arbetsplatsen som i sin tur orsakats av organisatoriska faktorer. Reason visade alltså att det inte leder någon vart att enbart identifiera ”vem som gjort fel”. Om dålig design, utbildning eller resursbrist var orsaken kunde felet gjorts av vem som helst som hamnat i samma situation. För att förhindra ett upprepande krävs att de bakomliggande faktorerna korrigeras.

Vi har nu kikat på två klassiska ”olycksmodeller”. Det finns fler modeller men jag tänkte stanna här för att titta lite mer på dessa modellers giltighet och det börjar jag med i nästa avsnitt!

Anders Ellerstrand: Flygsäkerhet 1 – Vad är flygsäkerhet?

Jag kommer att ta upp flygsäkerhet i en rad inlägg framöver. Jag vill visa på lite olika sätt att se på flygsäkerhet och börjar med att se på hur vi definierar flygsäkerhet.

Jag läste nyligen en artikel på DN som berättade att det indiska järnvägsbolaget ”Indian Railways” varje dag fraktar mer än 20 miljoner människor. Det innebär mer än 8 miljarder passagerare om året! Artikeln berättade också att nu hade man för första gången i företagets 166-åriga (!) historia klarat detta utan en enda dödsolycka under ett år. Ganska naturligt associerar vi dessa siffror med hög säkerhet.

Ser man på bilden ovan från ett indiskt tåg kanske man istället tycker att det ser ganska farligt ut. Det leder till tanken att säkerhet har minst två dimensioner. Dels utfallet, åtta miljarder tågpassagerare utan ett enda dödsfall låter ju onekligen bra, dels risk, där bilden antyder en onödig risk i att tillåta passagerare att sitta så.

Söker man definitioner så ser man också att risk återkommer. Nationalencyklopedin säger t.ex. att ”begreppet säkerhet används ofta som motsats till risk: hög säkerhet ger liten risk”. ICAO definierar flygsäkerhet (safety) som ”the state in which risks associated with aviation activities, related to, or in direct support of the operation of aircraft, are reduced and controlled to an acceptable level.”

Flygsäkerhet råder alltså när risken är reducerad till en acceptabel nivå. Hur kan vi veta när det är så? ICAO:s ”Global Aviation Safety Plan 2020–2022” beskriver ICAO:s globala mål för flygsäkerhet. Dessa är:

• Ständigt minskad risk, vilket mäts via mått som antal olyckor; totalt och i förhållande till antal starter, antal dödsfall, totalt och i förhållande till antal passagerare.

• ICAO sätter också mål som relaterar till staters tillsynsförmåga över flygsäkerhet, implementering av säkerhetsprogram, internationellt samarbete, samarbete med industrin och implementering av lämplig infrastruktur. Tanken är naturligtvis att sådana faktorer ska leda till flygsäkerhet.

I den första punkten med direkt mätbara mål ser vi att vi mäter flygsäkerheten genom att mäta frånvaron av flygsäkerhet vilket känns såväl naturligt som lite märkligt. Mätetalen handlar om olyckor och dödsfall och om dessa minskar anser vi att flygsäkerheten har förbättrats. Det finns alltså ingen internationellt vedertagen nivå för ”acceptabel risk” och vi mäter säkerhet genom att mäta frånvaron av säkerhet.

I den andra punkten kommer vi in på ett tredje sätt att definiera säkerhet – att följa regler och överenskommelser. Från Chicago Convention, via EASA och vår nationella luftfartslag, vidare till operation manuals finns ju standards och regler skrivna för att det vi gör ska vara säkert. Våra tillstånd att bedriva verksamhet grundar sig i vår förmåga att leva upp till regelverk.

Förenklat kan man kanske säga att säkerhet kan vara att:
• Inte råka ut för olyckor
• Inte ta oacceptabla risker
• Följa standards regelverk

Arbetet med att förbättra flygsäkerhet har ett fokus på att lära av olyckor och incidenter. I nästa avsnitt ska vi börja med att titta på ett par klassiska modeller för hur olyckor uppstår. Modeller som naturligtvis är viktiga för att förstå och därmed kunna undvika olyckor.