Hem » Human Factors

Kategoriarkiv: Human Factors

Anders Ellerstrand: Flygsäkerhet 9 – traditionell syn på drifting

Flygsäkerhet 9: traditionell syn på drifting

Att system utsätts för drift är ingen ny tanke. Boken ”Friendly Fire” kom ut 2000 och Rasmussen (se förra avsnittet) presenterade sin modell 1997 samma år som Reason hade med nedanstående bild i sin bok ”Managing the Risks of Organizational Accidents”.

Reason ville visa att i en ideal värld sker utvecklingen så att balansen mellan ”Protection” (säkerhet) och ”Production” (ekonomi) bibehålls, symboliserad av mittlinjen. I praktiken blir pressen på ökad och effektiviserad produktion ofta så stor att säkerhetsmarginalerna tillåts minska tills en allvarligare incident eller olycka inträffar som motiverar ökat fokus på ”Protection”. På bilden syns en linje som inte är ideal utan med drift tills incidenter ger motiv till att införa åtgärder som återställer balansen men att om incidenterna uteblir kan driften leda till något värre.

Det är lätt att se likheten med Rasmussens modell från förra inlägget. Det är också tydligt att bilden vill varna för negativa effekter av drift. Nästa bild finns i ett otal varianter:

Denna kommer från en ICAO SMS-utbildning jag gick för några år sedan. Jag tolkar bilden som att ett system har en säker design då det driftsätts men att efter driftsättning sker en drift och systemets ”operational performance” blir något annat än den tänkta ”baseline performance”. Bilden visar också att om man inte upptäcker detta i god tid, genom processer i SMS, så kan driften leda till en olycka.

Det är inte ovanligt att se drift som en följd av ”complacency” (ung. självbelåtenhet) eller att t.o.m. likställa termerna. Med ”complacency” menas ofta en situation där man är så nöjd och trygg i sin förmåga att man slutar anstränga sig. Man ser tidigare goda resultat som en garanti för fortsatt framgång. Man kan uppfatta sig ha så goda marginaler att man kan börja tulla på dem och därmed frångå de väl utarbetade procedurer som gjorde att man uppnådde den ursprungliga goda förmågan och säkerheten.

Som grund ser man här systemet som väl designat och säkert. Driften är negativ och beror på brister i attityd hos dem som arbetar. Sättet att hantera detta är ett väl organiserat SMS som följer upp verksamheten för att korrigera tendenser till drift. Ett väl fungerande system för incidentrapportering av även mindre allvarliga incidenter är ett viktigt verktyg för att upptäcka drift. Detta kan ses som kännetecken hos det som vi ibland kallar ”Safety-I”, dvs. traditionellt flygsäkerhetsarbete.

Om ni läst mina tidigare inlägg om flygsäkerhet märker ni nog att jag inte helt delar denna syn. Det är riktigt att drift kan vara negativt och leda till problem men diskussionen om drift måste handla om mer och där menar jag att det traditionella sättet att se på drift inte räcker.

Ytterligare ett avsnitt i samma ämne blir det…

Anders Ellerstrand: Flygsäkerhet 8:drifting

Återigen får jag be om ursäkt för ”svengelskan”. Drifting kan naturligtvis översättas med ”drift” och det kommer jag att göra i texten nedan men samtidigt är ”drifting” ett begrepp som är mer etablerat i sin engelska version.

Drifting bygger ju på det som jag varit inne på tidigare i min serie om flygsäkerhet. Vi måste anpassa vårt sätt att arbeta efter hur verkligheten ser ut och utifrån det vi vill åstadkomma. De beskrivningar vi har av arbetet är aldrig heltäckande. Dels är det inte möjligt att förutse allt som kan hända, dels finns det för många variabler. En tredje faktor är att världen förändras så att beskrivningar och regelverk tenderar att alltid ligga lite efter det som faktiskt sker. De brister som finns i beskrivningar och regelverk är en av förklaringarna till att vi måste anpassa vårt arbete och denna anpassning kan orsaka en drift där sättet vi utför arbetet långsamt förändras. Efter en tid kan saker ha förändrats på ett avgörande sätt – positivt genom innovationer eller negativt med ökade risker.

En av de som tog upp detta tidigt var dansken Jens Rasmussen. Han menade att arbetet generellt har en generell, långsam och nästan omärkbar drift mot osäkerhet. Detta illustrerades så här:

Rasmussen menade att det finns ett ekonomiskt tryck på att öka produktionen eller minska kostnaderna. En annan press kommer från en önskan att inte få alltför hög arbetsbelastning. Tillsammans skapar dessa en ”drift towards failure”. Det finns många exempel på hur organisationer med gott rykte om att vara säkra ändå råkar ut för olyckor, I efterhand har man då kunnat se en lång period av små förändringar – drift – mot den situation som till slut ledde till en olycka.

En beskrivning av drift finns i den fantastiska boken ”Friendly Fire” av Scott A. Snook. Den handlar om hur två amerikanska F-15 sköt ner två amerikanska Hawk-helikoptrar i norra Irak 1994. Snook ledde en omfattande utredning av denna tragiska händelse men fann ingen som kunde pekas ut som skyldig. Han förklarar istället hur systemet som fanns på plats i Irak var reglerat till viss överdrift, med en önskan att vara säker på att kontrollera alla risker till det yttersta. Systemet konstruerades som ett centraliserat system och var på många sätt ”tightly coupled” (se tidigare blogg-inlägg). När systemet driftsattes upptäckte man efter ett tag att allt inte fungerade som det var tänkt. Det fanns sådant som personalbrist, utrustning som saknades eller inte fungerade, brister i utbildning osv. Det fanns ändå ett jobb att sköta och metoder utvecklades och anpassades för att lösa uppgiften trots bristerna. Det innebar samtidigt en drift. Situationen utvecklades också så att delar av systemet inte längre var ”tightly coupled” vilket innebar att vissa delar kunde utsättas för drift utan att påverka andra delar.

Bland exemplen på detta var att F-15 normalt verkade på högre höjd. Man fokuserade på att kunna identifiera flygplan som fanns på de höjderna. Radioutrustning och kommunikation med AWACS var anpassad för att lösa uppgifter på hög höjd. Helikoptrar å sin sida opererade på låg höjd, med dålig radiotäckning, inget behov av samverkan med AWACS osv. Till slut kom då dagen då två ”loosely coupled” system blev ”tightly coupled”. Två F-15 skulle identifiera två misstänkta helikoptrar som saknade ”IFF” (”transponder”), felidentifiering orsakad av bland annat brister i utbildning och till slut nedskjutning där orsakerna var många men där ”drifting” av ”loosely coupled” system spelade en roll.

Drift innebär också att skillnaden mellan beskrivningen av våra system (work-as-imagined) och den verkliga funktionen hos våra system (work-as-done) ökar. Det är ofrånkomligt att det alltid kommer att finnas en skillnad men blir den för stor skapar det problem.

Skulle något sådant här kunna hända i våra organisationer? Det är säkert möjligt men det är också väldigt svårt att upptäcka. I synnerhet om man enbart tittar på regelverk och procedurer och missar att följa upp den anpassning och drift som hela tiden finns och sker. Fortsättning följer.

Anders Ellerstrand: Flygsäkerhet 6 – Mänsklig anpassning

För de flesta ser arbetet inte likadant ut varje dag. Även på en väl organiserad och planerad arbetsplats är det omöjligt att förutse allt som kommer att hända. Ett resultat är att vi som arbetar måste anpassa oss och anpassa sättet vi utför vårt arbete på. Denna anpassning innebär att man kanske inte helt arbetar efter regelverket men oftast gör anpassningen att man lyckas utföra arbetet på ett tillfredsställande sätt – trots att det inte gick att följa regler och riktlinjer till punkt och pricka och trots att det kanske saknades resurser och trots att någon gjorde fel någonstans och trots att förhandsplaneringen inte var optimal och trots att arbetsledningen inte fungerade perfekt.

Här spricker modellerna vi tittade på tidigare. Heinrich sade ju att människan var problemet men här antyder jag ju att människan är lösningen. Kan det stämma? Och vad betyder det för vår tro på automation som lösningen på alla problem?

Även James Reason såg mänsklig variation som ett problem. Han skrev om att alla organisationer lider av spänningen mellan den naturliga variabiliteten hos människan å ena sidan och systemens behov av en hög grad av regularitet i arbetets utförande. Han menade att arbetsledningen måste se till att begränsa människans aktiviteter så att de är effektiva och produktiva, men också så att de är säkra. Detta kan åstadkommas genom urvalsmetoder vid rekrytering, genom utbildning, genom tekniska system och genom regelverk och riktlinjer.

Att människan är anpassningsbar är ju knappast någon nyhet. Däremot tror jag att vi tar det för givet och inte ser hur viktigt och värdefullt det är. Transportmedel som tåg och flyg anses ju extremt säkra. Vi ser nog detta som följden av internationell standard och rigorösa regelverk, av strikt myndighetskontroll, av teknisk utveckling osv. Däremot tror jag inte vi ser den roll som kompetenta medarbetare spelar när de gör ständig anpassning av sitt arbete. Våra system är välutvecklade men inte perfekta. Det finns brister i design av tekniska system. Vi har regelverk som inte täcker alla situationer. Vi har brister i utbildning och organisation. Men vi har också människor som genom att anpassa sitt arbete ser till att dessa brister inte leder till olyckor.

Problemet är att vi studerar detta så lite. Vi studerar olyckor och incidenter och ser att människor inte är robotar som agerar exakt likadant. Vi ser människans variabilitet som ett problem men missar dess värde.

I nästa avsnitt ska ta upp ett par begrepp som jag själv tycker är lite svåra…

Anders Ellerstrand: Flygsäkerhet 5 – Faktorer som skiljer

Dekker och hans team hade alltså en lista med 10 faktorer som fanns med då patientvård misslyckades (en av 13 patienter, eller 7 %) – en lista som inkluderade olika exempel på mänskliga fel men också brister på arbetsplatsen. Då man sedan observerade lyckad patientvård (12 av 13 patienter eller 83 %) fick man en identisk lista – alla dessa faktorer var typiska även för framgångsrik vård! (Länk)
Denna överensstämmelse var dock inte allt man fann. Man fann också andra faktorer – faktorer som var vanligare i de 12 av 13 lyckade exemplen än i de 1 av 13 misslyckade.

Framgångsfaktorerna var:

• Olika åsikter inom ett team och möjligheten att anmäla avvikande åsikt. Att det finns olika professionella åsikter och att dessa tillåts.
• Ständig diskussion om risker och att inte ta framgång för givet. I komplexa system sker ständiga förändringar som kräver att man är beredd att anpassa även rutingöromål. Att ta hänsyn till detta vid t.ex. planering och briefing gör skillnad.
• Att värdera expertis. Små tecken på ökad risk missas lätt om man inte lyssnar till dem som faktiskt utför och kan arbetet.
• Möjlighet att säga stopp. Att alla tar ansvar för att göra sin röst hörd när man ser något som oroar.
• Små hierarkiska avstånd. Att människor från olika nivåer i en organisation kan mötas och diskutera.
• Att inte vänta på en inspektion innan problem åtgärdas. Säkerhet skapas av dem som arbetar i en process – inte av de som inspekterar och granskar. Att genomföra förändringar då behovet upptäcks är viktigt.
• Yrkesstolthet. Team som utför sitt arbete med stolthet gör ett bättre jobb.

Dekker poängterar att hans ”undersökning” i sjukhus-miljö inte gjordes vetenskapligt. Om man följer länken ovan kan man emellertid se att för de sju punkterna ovan finns ändå hänvisningar till litteraturen med stöd för deras giltighet. Dessa faktorer har identifierats även av andra. Jag kan här nämna att jag under mina Mastersstudier fick göra en forskningsuppgift. Den gjordes på ATCC Malmö och jag sökte faktorer som möjliggör ökning av kapacitet med minst bibehållen flygsäkerhet. En del av punkter ovan finns med även i slutsatserna från mitt arbete.

Nu ska vi däremot lämna Dekker och gå vidare i ämnet flygsäkerhet.

Anders Ellerstrand: Flygsäkerhet 4 – Mer verklighet

I förra avsnittet (länk) visade jag hur modeller för olyckor kan hjälpa oss att förstå hur risk ökar och olyckor händer. Men missar de något?

Jag går vidare med berättelsen av Sidney Dekker (länk). Myndigheten hade redan satt igång med ett paket åtgärder för att hantera de identifierade problemen. Resultatet? Enligt Dekker kom man inte vidare. Trots att man arbetat med åtgärder utifrån sin analys var resultatet fortfarande att en av 13 patienter som togs in skadades under den tid de fick vård.

Nu ställdes frågan som bryter mönstret. Vad hände med de andra tolv patienterna!? Man hade ju analyserat de ”en av 13” och tyckte sig ha en bra bild av problemen. Men visste man vilka faktorer som gjorde att de 12 av 13 var framgångsrika? Svaret var – nej! Man hade lagt alla resurser på att undersöka sina misstag och inga resurser på att analysera sina framgångar. Skälen var förståeliga – pressen från chefer, patienter och allmänhet bestod ju i krav på att hantera problemen.

Då erbjöd sig Dekker och hans team att göra jobbet åt dem. Högst ovetenskapligt började man följa sjukhusens aktiviteter för att skaffa sig en bild av vad som hände när saker fungerade, när patienter fick vård utan att fara illa. Efter några veckor kunde man sammanställa sina intryck. Man kunde göra en lista över faktorer typiska för lyckad sjukhusvård.

Bilden är bara illustration och har inget samband med berättelsen!

Jag redovisar de engelska termer Dekker använder och översätter dem till svenska, med egna tolkningar:
• Workarounds – åtgärder för att komma runt problem
• Shortcuts – genvägar, t.ex. hoppa över delar i en procedur
• Violations – brott mot regelverk
• Guidelines not followed – inte följa angivna riktlinjer för arbetet
• Errors and miscalculations – mänskliga fel och felberäkningar
• Unfindable people or medical instruments – brist på personal eller redskap
• Unreliable measurements – otillförlitliga mätningar
• User-unfriendly technologies – användar-ovänlig teknologi; dålig design
• Organizational frustrations – frustrerande organisation, byråkrati
• Supervisory shortcomings – brister i ledarskap och tillsyn

Gå gärna tillbaka till föregående blogginlägg och jämför… man hade funnit exakt samma faktorer i lyckad som i misslyckad patientvård! De här företeelserna är alltså allestädes närvarande. De är typiska för normalt arbete! Normalt arbete är lite stökigt, inte så välplanerat och fullt av anpassningar, irritationsmoment, uppoffringar och arbete som inte utförs precis så som det var tänkt.

Det här är alltså en berättelse av Sidney Dekker och den är inte baserad på vetenskapligt kontrollerad forskning. Ta den för vad det är. Ändå känner jag igen mig, så här är det att arbeta, åtminstone i en verksamhet som inte ser exakt likadan ut varje dag utan där man måste variera hur man utför arbetet. Förutsättningarna är inte optimala. Man måste anpassa sig om man jobbar på ett sjukhus, i ett flygplans cockpit eller på en flygtrafikledning. Förmodligen gäller det också många andra arbetsplatser.

Dekker har emellertid ytterligare en del i sin berättelse. Den är väldigt intressant och kommer i nästa del…

Boeing måste göra mer

Boeings fortsatta kris rapporteras om och kommenteras av i stort sett samtliga media med intresse av flygindustrin. Den har även kommenterats i olika former här på bloggen (länk, länk och länk). Men det blir alltid lite mer intressant när kommentarer kommer ifrån Seattle, vilket är Boeings ”hem” (om än att högkvarteret flyttades till Chicago 2001). Därför är en artikel nyligen i Seattle Times (länk nedan) av intresse, inte för att den tillför mycket till pågående dagsrapportering, men mer för hur den kan kopplas till frågor om organisations- och säkerhetskultur. Artikeln är kritisk och med tanke på hur betydande Boeing är för Seattle blir det än mer intressant att fundera på det perspektiv den tar upp.

Den allt längre och djupare krisen för Boeing har skördat offer i form av CEO Dennis Muilenburg, som fick lämna sin tjänst och då ersattes av Dave Calhoun. Det är om denne nye CEO och hans utmaning med att förändra Boeing som artikeln i Seattle Times har skrivit. Utgångspunkten är att Boeings kris inte har att göra med enstaka tekniska problem på flygplan, utan att dessa är resultatet av en lång nedgång i fokus på kvalitet och säkerhet.

Artikeln är kritisk till positiva uttalanden från Calhoun om företagskulturen hos Boeing, liksom uttalanden om förlorat förtroende som det största problemet snarare än interna förhållanden inom Boeing. Artikeln anser att dessa antyder att den omfattande transformation som Boeing enligt artikeln behöver kanske inte kommer att genomföras. Därmed finns det en risk att Boeing fortsätter att lösa problem på ytan snarare än på djupet.

Det har skrivits mycket om Boeing under den nuvarande krisen – om flytten av högkvarteret till Chicago, om sammanslagningen med McDonnel Douglas, minskat inflytande för ingenjörer och mer fokus på försäljning – och om hur allt detta kan ha påverkat företagskulturen. Hur en kultur utvecklas är komplext att försöka förstå och beskriva. Det finns inga snabba eller lätta svar på för detta. I det nuvarande läget är dock denna artikel viktig när det gäller att påpeka att djupare förhållanden inom organisationen måste undersökas och förstås.

Det förefaller från mejl och annan information som framkommit att det fanns kritiska röster inom företaget – de som så risker med olika tekniska lösningar, med att inte vara öppen med förändringar, med att inte ha mer träning. Men dessa röster tystnade eller tystades. Att ta reda på hur det gick till när samtal försvann eller förvandlades till att hålla med bör absolut vara en prioriterad uppgift för Boeing.

Länk till artikel:
Boeing’s new CEO needs to show commitment to deep overhaul

Anders Ellerstrand: Flygsäkerhet 3 – En titt i verkligheten

I förra avsnittet presenterade jag två modeller för hur risk ökar och olyckor händer (länk). Kan vi använda dessa modeller för att förstå verkligheten?

För att svara på det ska jag återge något som Sidney Dekker har berättat om (länk). Dekker arbetade med en myndighet inom sjukvård som hade runt 25 000 anställda. Deras statistik för patientsäkerhet lämnade en del att önska. Ungefär 7 %, eller en av 13 patienter som togs in skadades under den tid de fick vård. Man kan diskutera hur man kommit fram till siffrorna men jag går istället vidare i berättelsen.

Bilden är bara illustration och har inget samband med berättelsen!

Det fanns data som visade vilka problem som var typiska för dessa 7 % av misslyckande. Jag redovisar de engelska termer Dekker använder och översätter dem till svenska, med egna tolkningar:
• Workarounds – åtgärder för att komma runt problem
• Shortcuts – genvägar, t.ex. hoppa över delar i en procedur
• Violations – brott mot regelverk
• Guidelines not followed – inte följa angivna riktlinjer för arbetet
• Errors and miscalculations – mänskliga fel och felberäkningar
• Unfindable people or medical instruments – brist på personal eller redskap
• Unreliable measurements – otillförlitliga mätningar
• User-unfriendly technologies – användar-ovänlig teknologi; dålig design
• Organizational frustrations – frustrerande organisation, byråkrati
• Supervisory shortcomings – brister i ledarskap och tillsyn

Den första modell vi tittade på kom från Heinrich. Han pekade på att 88 % av olyckor beror på mänskliga fel och i listan ovan ser vi flera exempel som ger stöd för detta. Människor följer inte regler och riktlinjer; man tar genvägar, räknar eller mäter fel osv.

Den andra modellen vi tittade på kom från Reason. Han visade hur arbetsmiljö och organisation skapar förutsättningarna för dessa fel och att felen därför inte är orsaker utan istället konsekvenser av faktorer som finns inbyggda i arbetsplatsen. I listan ovan ser vi vad som kan vara exempel på detta. Problem som personalen måste arbeta runt, regelverket kan vara otympligt och svårt att följa eller inte täcka in alla situationer. Här finns också exempel på resursbrist och en organisation som inte fungerar bra.

Så här långt fungerar modellerna och de visar var vi kan sätta in åtgärder för att förbättra. Bättre utbildning kan få personal att göra färre fel och regelverk kan ytterligare styra människors beteende. Resursbrist och dåligt ledarskap kan åtgärdas. Precis så här har vi också arbetat och fortsätter att arbeta och resultaten tyder på att det varit rätt väg att gå.

Dock är Dekker inte färdig med sin berättelse från sjukhusvärlden. Fortsättning följer…

Anders Ellerstrand: Flygsäkerhet 2 – Vad är problemet?

Om flygsäkerhet är att reducera risk och att minimera antalet olyckor så måste vi ju ta reda på vad som ökar risk och vad som orsakar olyckor. Vi ska titta på två modeller.

H. W. Heinrich
En av de verkliga pionjärerna inom säkerhet var amerikanen H. W. Heinrich. Han arbetade på ett försäkringsbolag när han 1931 publicerade sin klassiker; ”Industrial Accident Prevention, A Scientific Approach” där han hade analyserat stora mängder data från arbetsplatsolyckor. Hans slutsatser, teorier och modeller används än idag. Bland dem finns den kända triangeln som säger att för varje allvarlig olycka finns 30 mindre olyckor och 300 incidenter. Enligt denna modell kan vi minska antalet olyckor genom att minska antalet incidenter. Heinrich kom fram till att 95 % av alla olyckor på en arbetsplats orsakas av ”osäkra handlingar” (unsafe acts). Han menade också att 88 % av olyckorna berodde på mänskliga fel. Mindre känt är kanske att han också pekade på orsaker i omgivningen genom sin domino-modell.

Dessa tankar lever vidare och vi läser ständigt om ”den mänskliga faktorn” som orsaken till olyckor. Detta är förmodligen också en av drivkrafterna bakom att vi vill automatisera. Kan vi eliminera människan kan vi ju också eliminera mänskliga fel och därmed se en ökad säkerhet. Eller hur?

James Reason
En annan, mer nutida pionjär, är den engelske professorn James Reason. Hans betydelse för flygsäkerhetsarbetet kan knappast överskattas.

Hans modell ”Swiss cheese” har också ”osäkra handlingar” som utgångspunkt men hans modell visar att den ”osäkra handlingen” inte är tillräcklig för att förklara orsaken till olyckan. Dessa handlingar är enligt Reason istället konsekvenser av faktorer på arbetsplatsen som i sin tur orsakats av organisatoriska faktorer. Reason visade alltså att det inte leder någon vart att enbart identifiera ”vem som gjort fel”. Om dålig design, utbildning eller resursbrist var orsaken kunde felet gjorts av vem som helst som hamnat i samma situation. För att förhindra ett upprepande krävs att de bakomliggande faktorerna korrigeras.

Vi har nu kikat på två klassiska ”olycksmodeller”. Det finns fler modeller men jag tänkte stanna här för att titta lite mer på dessa modellers giltighet och det börjar jag med i nästa avsnitt!

Anders Ellerstrand: Flygsäkerhet 1 – Vad är flygsäkerhet?

Jag kommer att ta upp flygsäkerhet i en rad inlägg framöver. Jag vill visa på lite olika sätt att se på flygsäkerhet och börjar med att se på hur vi definierar flygsäkerhet.

Jag läste nyligen en artikel på DN som berättade att det indiska järnvägsbolaget ”Indian Railways” varje dag fraktar mer än 20 miljoner människor. Det innebär mer än 8 miljarder passagerare om året! Artikeln berättade också att nu hade man för första gången i företagets 166-åriga (!) historia klarat detta utan en enda dödsolycka under ett år. Ganska naturligt associerar vi dessa siffror med hög säkerhet.

Ser man på bilden ovan från ett indiskt tåg kanske man istället tycker att det ser ganska farligt ut. Det leder till tanken att säkerhet har minst två dimensioner. Dels utfallet, åtta miljarder tågpassagerare utan ett enda dödsfall låter ju onekligen bra, dels risk, där bilden antyder en onödig risk i att tillåta passagerare att sitta så.

Söker man definitioner så ser man också att risk återkommer. Nationalencyklopedin säger t.ex. att ”begreppet säkerhet används ofta som motsats till risk: hög säkerhet ger liten risk”. ICAO definierar flygsäkerhet (safety) som ”the state in which risks associated with aviation activities, related to, or in direct support of the operation of aircraft, are reduced and controlled to an acceptable level.”

Flygsäkerhet råder alltså när risken är reducerad till en acceptabel nivå. Hur kan vi veta när det är så? ICAO:s ”Global Aviation Safety Plan 2020–2022” beskriver ICAO:s globala mål för flygsäkerhet. Dessa är:

• Ständigt minskad risk, vilket mäts via mått som antal olyckor; totalt och i förhållande till antal starter, antal dödsfall, totalt och i förhållande till antal passagerare.

• ICAO sätter också mål som relaterar till staters tillsynsförmåga över flygsäkerhet, implementering av säkerhetsprogram, internationellt samarbete, samarbete med industrin och implementering av lämplig infrastruktur. Tanken är naturligtvis att sådana faktorer ska leda till flygsäkerhet.

I den första punkten med direkt mätbara mål ser vi att vi mäter flygsäkerheten genom att mäta frånvaron av flygsäkerhet vilket känns såväl naturligt som lite märkligt. Mätetalen handlar om olyckor och dödsfall och om dessa minskar anser vi att flygsäkerheten har förbättrats. Det finns alltså ingen internationellt vedertagen nivå för ”acceptabel risk” och vi mäter säkerhet genom att mäta frånvaron av säkerhet.

I den andra punkten kommer vi in på ett tredje sätt att definiera säkerhet – att följa regler och överenskommelser. Från Chicago Convention, via EASA och vår nationella luftfartslag, vidare till operation manuals finns ju standards och regler skrivna för att det vi gör ska vara säkert. Våra tillstånd att bedriva verksamhet grundar sig i vår förmåga att leva upp till regelverk.

Förenklat kan man kanske säga att säkerhet kan vara att:
• Inte råka ut för olyckor
• Inte ta oacceptabla risker
• Följa standards regelverk

Arbetet med att förbättra flygsäkerhet har ett fokus på att lära av olyckor och incidenter. I nästa avsnitt ska vi börja med att titta på ett par klassiska modeller för hur olyckor uppstår. Modeller som naturligtvis är viktiga för att förstå och därmed kunna undvika olyckor.

Anders Ellerstrand: Human Factors Network in Sweden – del 2

Här fortsätter jag min sammanfattning av HFN-seminariet 10–11 december (del 1 finns här: länk). Dag 2:

TRM för flygledare
Boel Stefansson inledde dag två med att prata om tillämpningen av CRM för flygledare där det kallas TRM.

Hon presenterade hur TRM-konceptet är uppbyggt och vilka erfarenheter som finns av detta i Europa. Hon gav också konkreta exempel från incidenter där TRM kan vara ett verktyg för att förbättra.

Flygbolags CRM
Emil Moberg som jobbar med CRM-utbildning men även i kabinen hos BRA-flyg och berättade hur han förmedlar utbildning där det även fanns exempel utanför flygvärlden i form av en bussolycka i Stockholm.

Det handlade mycket om TEM (Threat and Error Management) och om hur CRM kan förbättra vår förmåga att hantera fel.

BRM på fartyg
Hans Andersen Pederson, som är lots i Danmark, gjorde en presentation som jag tyckte var mycket intressant.

Han beskrev utmaningarna i att lotsa i danska komplicerade vatten där man ständigt möter nya fartyg med olika tekniska förutsättningar men också med starkt varierande kultur. De befinner sig ännu i början av att forma ett koncept för BRM men ser positiva resultat.

CRM historia
Siste talare var Anthony Smoker som har en bakgrund inom brittisk flygtrafikledning men som sedan många år arbetar med forskning, relaterat till flyg och Human Factors, på Lunds universitet. Anthony beskrev hur CRM-konceptet utvecklats och förändrats i sex ”generationer” med början ca 1981 då det mest handlade om ledarskap och relationer. CRM betydde från början ”Cockpit Resource Management” men blev ”Crew Resource Management” ca 1986. Den sjätte generationen CRM kom ca 2003 men Smoker förutser en sjunde generation med inslag av resilience. Han lyfte också fram synpunkter om att CRM kommit att integreras i övrig utbildning/checker och därmed ges allt mindre tid.

Så kan två givande dagar med HFN se ut!