Home » Flygsäkerhet

Category Archives: Flygsäkerhet

Vad CRM är och inte är – dags att gå vidare

Crew Resource Management (CRM) är den praktiska tillämpningen an Human Factors i den civila flygindustrin för piloter och kabinpersonal. Human Factors (HF) är ett tvärvetenskapligt forskningsområde med fokus på människans prestation i ett sociologi-tekniskt system som samtidigt försöker vara säkert och effektivt. Det finns många andra definitioner på nåde CRM och HF och att diskutera vilken som är bäst eller ens bättre än andra är inte avsikten med detta inlägg.

Human Factors har i olika former en historia som kan spåras ända tillbaka till flygets barndom, när man i de första flygstridskrafterna i olika länder försökte välja ut de som var mest lämpade att bli piloter. Efter andra världskriget har detta forskningsområde fått allt mer inflytande på design av flygplan och därefter allt mer betydelse för den operationella verksamheten. Efter ett antal större olyckor under sjuttiotalet blev HF också verklighet för piloter i form av CRM träning.

Motståndet var inledningsvis och ganska länge stort när CRM introducerades. Erfarna kaptener fann ofta introduktionen av begrepp från psykologi och fokus på samarbete som konfronterande mot deras auktoritet eller bara ointressant. Än idag lever tyvärr en del av dessa attityder kvar hos ”old and crusty” kaptener, om än att yngre generationer av piloter helt och hållet tagit till sig att utan god kunskap och förmåga avseende CRM kan man inte vara en bra pilot (under förutsättning att man inte tycker situationer som i bilden nedan är önskvärda – och de har inträffat).

Med en sådan lång och positiv (om än delvis långsam) utveckling finns det inte mycket att klaga på. Men Det är dags att rensa lite kring hur en minoritet av piloter fortfarande pratar om CRM, även om det oftast inte är med någon mindre god avsikt.

Jag tänker hör på begrepp som att ”Det får inte bli för mycket CRM”, ”Ibland måste man lägga CRM åt sidan” o.s.v. Det vill säga en helt och hållet felaktig förståelse av vad CRM är och handlar om. Cockpit gradient är ett gammalt och väletablerat CRM begrepp som talar om att det inte ska vara för stort avstånd mellan kanptenens auktoritet och styrmannen, men det görs också helt klart att ett allt för litet avstånd heller inte är önskvärt. Detta kommer från HF forskning och det finns ingen tvekan om att en kapten både bör kunna samarbeta och ta ledningen i situationer som kräver det. Det kan inte finnas för mycket CRM i något sammanhang, like lite som det kan finnas för mycket kompetens i att hantera ett flygplan eller någon annan kunskap och förmåga av värde för en pilot.

Vi vet att CRM fungerar och har gjort flygindustrin säkrare. En pilot som inte är bra på CRM är en farlig pilot. Om detta finns inget att diskutera. Det är nu dags att ta steget att sluta prata om CRM som något som har att göra med att vara trevlig eller snäll – det har det aldrig handlat om och är bara en missuppfattning. Låt oss tillsammans stoppa och rätta de som ännu inte har förstått detta, det är viktigt för att kunna fortsätta utvecklingen av HF/CRM och därmed fortsätt utveckla flygsäkerheten.

Anders Ellerstrand: Rapport fran ICSC – Del 6: Cengiz Turkoglu

Turkoglu har en bakgrund som ingenjör i flygbranschen och är nu Course Director MSc Airworthiness vid ”Cranfield Safety and Accident Investigation Centre”. Han är också vice ordförande för UK Flight Safety Committee.

Turkoglu höll en föreläsning i ett rasande tempo och bläddrade igenom mängder av PowerPoint-bilder. Jag kommer så småningom att få se alla bilder men här tänkte jag bara lyfta fram ett par saker jag snappade upp.

Turkoglu vill etablera ett begrepp; ”Risk Culture” som en beståndsdel i ”Safety Culture”. Han har en websida där man kan läsa mer: http://riskculture.org/

Han pratade bl.a. om möjligheten att förutse olyckor och menade att möjligheterna varierar:
• För miljöer med en risk på 10¯³ kommer nästa olycka att vara en upprepning av de tidigare
• För miljöer med en risk på mellan 10¯³ och 10¯⁵ kommer nästa olycka vara kombinationer av existerande olyckor och incidenter
• För miljöer med en risk som är mindre än 10¯⁵ kommer nästa olycka att vara okänd. Den kan ha inslag av tidigare incidenter som då bedömts som harmlösa.

Han pratade också om de många exempel som finns i nutidshistoria med välskötta företag som har långa perioder av imponerande säkerhetsstatistik och som uppmärksammats med priser och utmärkelser för att därefter råka ut för en katastrof.

Turkoglu påpekade att vi självklart måste fortsätta att skapa intelligenta regelverk och följa dessa, vi måste fortsätta samla data från våra operationer och lära av dessa men vår möjlighet att förutse framtiden baserat på tidigare erfarenheter är begränsad.
Han refererade till en rapport av ”Future Sky Safety” (som är ett forskningsprojekt inom EU:s Horizon 2020) där man hade intervjuat 7239 piloter. Av dessa angav 7,39 % (över 500 piloter!) att de i sitt jobb tvingas ta risker som gör dem obekväma med hänsyn till flygsäkerheten. Tyvärr ger undersökningen några detaljer kring vad det handlar om rent konkret.Turkoglu menar att vi behöver lära oss mer om dessa risker för att kunna hantera dem.

Med detta avslutar jag min rapportering från mitt deltagande i 2nd International Cross-Industry Safety Conference” i Amsterdam 2-3 november. Jag har berättat kort om vad 6 av totalt 24 föreläsare tog upp. Därutöver fanns det sex posters med ytterligare presentationer. Det var givande dagar och jag hoppas få möjlighet att besöka konferensen även nästa år.

Anders Ellerstrand: Rapport från ICSC – Del 5: Ilias Panagopoulus – NATO Airlift

Panagopoulus är Safety Manager vid NATO Airlift Management Programme som hanterar flygningar med C 17 Globemaster över hela världen. Han gav ett exempel på de utmaningar de kan möta.

För KLM att flyga passagerare på det här viset är naturligtvis helt otänkbart. För NATO Airlift kan detta istället vara det enda alternativet till att låta hundratals människor stanna kvar i ett katastrofområde och dö. Panagopoulus gav fler exempel på hög-risk-operationer genom att nämna landningar i öken utan några faciliteter eller i mörker på flygplatser utan belysning.

För att hantera dessa risker och kunna bedöma dem har man tagit fram ett system som jag fann väldigt intressant. För att kunna bedöma den totala risknivån för en flygning måste man bedöma många olika delrisker. Man har arbetat med experter (piloter, navigatörer, tekniker osv) för att göra bedömningar av t.ex. de flygplatser man flyger till. Faktorer som påverkar risken för en flygplats kan vara:
• Rullbanans bredd, längd och kondition
• Banfriktion
• Nav-hjälpmedel
• Belysning
• Väder, sikt
• Faciliteter på marken för handling
• Terräng runt flygplatsen
• Språksvårigheter
• Trafikvolym / Komplexitet
• Security
• Hur länge man stannat på flygplatsen
• Tidigare incidenter på flygplatsen
En del av dessa faktorer varierar naturligtvis så man uppdaterar ständigt uppgifterna.

Med hjälp av en matris (kallad DRMD – Dynamic Risk Management Dashboard) får sedan varje siffra ett riskvärde och dessa sammanvägs sedan till en riskbedömning av flygplatsen i en av fyra nivåer; grön (låg risk), gul (medium), orange (hög) eller röd (extremt hög).

På motsvarande sätt riskvärderas flygplanet (baserat på teknisk status), piloterna (baserat på sådant som erfarenhet, kvalifikationer, tid på flygplantypen, erfarenhet av aktuell flygplats, hälso- och trötthetsfaktor osv) och flygvägen (baserat på radiotäckning, väder, luftrumsbegränsningar, nav-hjälpmedel, tillgång på alternativ, trafik-volym, status på ATM osv).

Genom dessa olika värderingar som hela tiden uppdateras får man en möjlighet att identifiera problem så att man undviker:

I praktiken kan det se ut så här när man bedömer ett uppdrag:

Avgångsflygplatsen är inga problem men vädret är en faktor för landningsflygplatsen. Det finns en ”urgent Emergency Airworthiness Directive” som inte är implementerad för aktuellt flygpan. Pilot Flying är grön men Pilot Monitoring har mindre än 1500 timmar på typen (låg risk). Övrig besättning är grön medan ATM på sträckan är så ineffektiv att risken är hög. Utifrån dessa faktorer kan sedan en samlad bedömning göras om flygningen kan genomföras eller ej.

Panagopoulus menar att modellen ger en möjlighet att göra en samlad riskbedömning. Modellen ersätter inte annan traditionell riskbedömning utan är ett komplement. Det är inte en heltäckande modell (det finns faktorer som påverkar men som ännu inte ingår) och den har en brist i att den helt bygger på subjektiva bedömningar. Panagopoulus ser ändå modellen som ett praktiskt sätt att tillämpa James Reasons ”Swiss Cheese Model”.

MedLink – doktor på distans när det händer något i luften

En av de dramatiska situationer som kan inträffa under en flygning med passagerare är att någon av dem blir sjuk eller drabbas av någon form av allvarlig medicinsk situation. Det kan handla om allt från mindre fallskador i samband med turbulens till hjärtattack med risk för dödsfall och allt däremellan. Även om sådana situationer inte är vanliga så är de långt ifrån sällsynta. Det är i dessa situationer man kan få höra att kabinbesättningen ställer frågan om det finns en läkare ombord till passagerarna.

I sådana här situationer uppstår frågor om hur situationen ska hanteras medicinskt, men även avseende ansvarsfrågor och eventuella senare klagomål och skadestånd. Det är till exempel inte okomplicerat att be om hjälp av en läkare ombord och kabinbesättningen ska alltid begära att en läkare som erbjuder sig att hjälpa till har dokument som visar att denna faktiskt är en läkare. Även om kabinbesättningen är tränad för att hantera dessa situationer i nödlägen så har de ingen medicinsk expertis som ger dem möjlighet att komma fram till en diagnos och behandla den mängd av olika sjukdomstillstånd och medicinska problem som kan inträffa under en flygning. En hel del större flygbolag har ett avtal med ett företag som heter MedAire, vars system MedLink finns till för att hantera sådana situationer.

MedAire är ett amerikanskt företag, baserat i Arizona, vars tjänster flygbolag kan betala för som ett abonnemang. Tjänsten MedLink kan kontaktas under flygning och förse besättningen med rådgivning av läkare om behandling, inklusive om en diversion är nödvändig och om så är fallet kan de ge råd om var det från medicin synpunkt kan vara bra att landa för att få bästa möjliga vård.

I allvarliga fall kan utrustning som mäter olika medicinska data kopplas till passageraren och dessa skickas sedan till läkaren. En modell av sådan utrustning är Tempus (se bild ovan). En viktig del av tjänsten är att MedAire tar på sig ansvaret för den medicinska situationen.

Eftersom jag nyligen lyssnade in på ett verkligt samtal via MedLink under en flygning kan jag säga något om hur det går till. Via satellittelefon ringer man upp centralen i Arizona och meddelar först information om flighten, följt av information om den medicinska situationen. Därefter kopplas man till en doktor som bekräftar den tidigare givna informationen, ställer mer frågor och sedan ger råd om behandling, eller i mer allvarliga fall om diversion.

Det är viktigt att komma ihåg att kaptenen fortfarande är beslutsfattare även när MedLink konsulteras. Deras rådgivning fokuserar på den medicinska situationen och har inget att göra med den flygoperationella situationen. Ett möjligt problem med medicinska situationer under flygning är att det kan bli mycket fokus på en passagerare med allvarliga hälsoproblem, som till exempel vid en hjärtattack. Det kan då finnas en risk att ett beslut tas om en diversion som leder till hög arbetsbelastning, en svår inflygning och därmed risker med säkerheten för samtliga passagerare istället för bara den som har det medicinska problemet. Men hanterat på rätt sätt är naturligtvis MedLink ett otroligt värdefullt hjälpmedel för ett flygbolag.

Länk till MedAire/MedLink:
Medical Advisory Services: MedLink

Anders Ellerstrand: Rapport från ISCS – Del 3: Ewout Hiltermann

Hiltermann är pilot och började flyga B737 i Lufthansa innan han kom till KLM Cityhopper för att flyga Fokker 70. Han har jobbat med flygsäkerhet sedan 2010 då han blev projektledare för implementering av SMS i KLM Cityhopper och har fram till nu varit deras Safety & Compliance Director. Då jag träffade honom på konferensen var han emellertid på väg till KLM för att flyga B777 på heltid.

Hiltermann berättade om hur nya tankar inom safety kan implementeras praktiskt. Han menar att nya idéer som t.ex Safety-II innebär ett nytt koncept med ett nytt språk. Inom sin avdelning lät han samtliga läsa igenom ett antal böcker för att säkerställa att de alla stod på samma grund. Dessa böcker var:
• Perrow – Normal Accidents
• Weick/Sutcliffe – Managing the unexpected
• Snook – Friendly Fire
• Dekker – Field Guide to Human Error Investigations
• Hollnagel – Resilience Engineering in Practice
• Morieux/Tollman – Six Simple Rules

För att visa hur dessa idéer kan implementeras praktiskt utgick Hiltermann från två projekt inom KLM Cityhopper. Det första gällde att klara 30 min turn-around på alla destinationer utanför Schiphol. Man gjorde en risk-analys för de tre första men fann att riskerna var för stora och började med bara en station i Norge. De första analyserna var enligt klassisk ”linjär och work-as-imagined” modell. Man förstod snart att detta inte räckte utan fick istället hjälp att använda Hollnagels FRAM och kartlägga ”Work-as-done”.

Genom att studera hur arbetet faktiskt utfördes (observatörer som praktiskt deltog i turn-around) och genom att lyssna på vilka hjälpmedel som behövdes kunde man sedan ta fram ett koncept så att man idag lyckats införa 30 min turn-around på alla stationer.

Det andra projektet handlade om en ombyggnad av hangar för flygplansunderhåll. Orsaken var utfasning av Fokker 70 och infasning av Embraer. Det visade sig alltför svårt att göra en detaljerad plan för projektet eftersom dels många faktorer var okända men också för att man av erfarenhet vet att mycket av flygunderhåll är oplanerat. Som exempel gavs att man kan få in ett flygplan med läckage i en tank. Under den reparationen kan inget svetsarbete utföras i hangaren. Reparationer har hög prioritet och innebär störningar i ombyggnadsarbetet.

För att kunna hantera detta använde man principer från ”Resilience Engineering” där man som exempel definierade ”stop rules” med vissa kriterier. För att samordna de olika aktiviteterna i hangaren hade man ett ”war room” där all information hela tiden fanns tillgänglig och där olika störningar togs om hand och erfarenheter användes för att stimulera lärande inom projektet.

Slutligen visade Hiltermann en variant av RAG (Hollnagels Resilience Analysis Grid) som han använde för att förklara hur sambandet mellan det gamla och nya språkbruket inom safety kan förstås.

Anders Ellerstrand: Rapport från ICSC – Del 2: Dave Snowden

Första dagens ”keynote speaker” var Dave Snowden – han talade via Skype eftersom han befann sig någonstans på andra sidan jordklotet. Innan jag åkte till Amsterdam hade jag lyssnat på några av hans föreläsningar som finns på YouTube och han repeterade mycket jag hört där. Det betyder inte att det var ointressant – jag rekommenderar alla att lyssna på honom. Snowden är född i Wales 1954, har bland annat jobbat många år för IBM och är nu organisationskonsult (cognitive-edge.com).

Han talade dels om hur människan fungerar – med exempel som ”inattentive blindness”, vilket betyder att vi har väldigt svårt att upptäcka något om vi inte söker det eller åtminstone har det i tankarna. Han förespråkar alltså en syn som man känner igen från t.ex. ”sense-making” där vi snabbt scannar av verkligheten och försöka hitta ett mönster vi kan para ihop med någon av våra modeller i vår erfarenhetsbank. En följd av detta menar Snowden är att ”ritualer” (som alltså hjälper till att väcka våra modeller till liv) är viktigare än regler för att styra en verksamhet.

Han menar också att det tar uppemot tre år att verkligen lära sig något ordentligt. Han menade att det går att visa att hjärnan rent fysiologiskt har förändrats efter den tiden och hade utbildning av taxiförare i London som exempel. Själv associerade jag till den diskussion vi berört här som handlar om hur mycket utbildning och hur många flygtimmar som krävs för att en pilot ska vara tillräckligt bra.

Härifrån gick Snowden vidare till att prata om system. Hans egen modell kallas Cynefin (från ett walesiskt ord som betyder livsmiljö) och beskriver fyra olika typer av system:
1. Enkla och välordnade
2. Komplicerade
3. Komplexa
4. Kaotiska

Snowden menar att man måste förstå att dessa är olika och måste styras på olika sätt och att det är mycket vanligt att man t.ex. försöker använda metoder som passar för välordnade system när man i själva verket har en organisation som är komplicerad eller komplex. För att styra sådana system förespråkar Snowden istället det som kallas ”nudging”. Det betyder att komplexa system kan man inte styra mot ett mål genom att t.ex. skapa förändringsprojekt. Det man kan göra är att införa små förändringar som påverkar den riktning som utvecklingen har.

Han menar också att i komplexa system är prognoser inte så intressanta. Istället ska man satsa på att skapa förmåga att reagera tidigt och snabbt. I komplexa system handlar det mindre om sannolikheter och mer om möjligheter. En sak som Snowden sade som gav reaktioner hos många av åhörarna (inklusive mig) var att utbildningar måste innehålla misslyckande. En pilot påpekade att så utbildar vi ju inte alls – vi utbildar inte i att krascha utan i att lyckas.

Det jag uppfattade att Snowden menade var det som jag började med i mitt referat. Vi scannar snabbt verkligheten för att se vilken av våra kända modeller vi ska använda. Denna scanning tar in kanske 5 % (siffran från Snowden) av tillgängliga data. Om vi däremot har erfarenheter av att misslyckas är vi mer skeptiska och tar in mer av verkligheten och kan då upptäcka t.ex. det som kallas ”weak signals”. Dave Snowden är en fängslande talare med intressanta idéer.

Anders Ellerstrand: Rapport från 2nd International Cross-industry Safety Conference (ICSC) – Del 1

Arrangör för denna konferens var Amsterdam University of Applied Sciences. Förra året var alltså första gången och detta året tyckte man att man nog vågar lova att detta kommer att bli en återkommande konferens.

Syftet är att föra samman människor från olika typer av verksamhet, såväl praktiker som akademiker. Även om flygsidan övervägde och var tongivande fanns här representanter även från sjöfart, järnväg, bil- och oljeindustri. Här fanns såväl unga studenter som gamla rävar. Vi var drygt 80 som deltog – hälften akademiker, hälften praktiker. Vi kom från 16 olika länder även om Nederländerna och Grekland dominerade.

I talarstolen fanns inledningsvis Nektarios Karanikas som är Associate Professor i Safety och Human Factors. I bakgrunden Robert J. de Boer som är Professor i Aviation Engineering. Båda arbetar på Aviation Academy vid University of Applied Science i Amsterdam

Jag tycker det blir trevligt med den här blandningen men det innebär ju också en utmaning – oavsett vilken typ av presentation som görs så kommer några tycka det är för grundläggande medan andra tycker det är för avancerat. Därför är det kanske inte så konstigt om jag uppfattade det som ett varierat utbud där allt inte var intressant men jag hittade tillräckligt mycket för att tycka att dagarna gav gott utbyte. Det var också ganska gott om tid för rast, lunch och en gemensam middag så nätverkandet blev en viktig bonus. Jag hoppas återkomma här på bloggen med referat från de föreläsningar jag tyckte var mest intressanta.

Jag missade första dagen som innehöll några ”tutorials” i intressanta ämnen mot en extra kostnad. Jag var med under hela konferensen (två dagar) som innehöll 24 föreläsningar uppdelade i 9 ”sessioner”. Avgiften för de två dagarna var mellan 120 och 320 Euro (lägsta avgiften för studenter). Föreläsningarna första dagen kostade 25 Euro styck.

Universitetet erbjuder en del andra aktiviteter som verkade intressanta som t.ex:
• Master Class Human Factors & Safety; med Sidney Dekker som gäst 15-19 januari 2018. Kostar 2095 Euro.
• Master Class Risk Assessment (baserad på Levesons STAMP) 12-16 mars 2018. Kostar 1890 Euro.
• Airport Development Conference 5-6 april 2018.
• Master Class Incident Investigation 16-20 april 2018 med John Stoop.

Mer information – amsterdamuas.com/aviation.

Anders Ellerstrand: Carsten Busch – Safety Myth 101

Här berättar jag om en bok jag nyligen läst.

Carsten Busch är holländare som hamnade i Norge där han nu bott och arbetat flera år. Han behärskar sålunda såväl holländska som tyska, engelska och norska. Boken jag läst är på engelska och någon gång tycker jag det märks att det inte är Carstens modersmål – förutom att han själv kommenterar det ibland. Carsten var från början ingenjör och har också studerat juridik innan han kom in på safety där han idag hunnit skaffa en gedigen erfarenhet genom arbete med safety inom olika industrier som järnväg, olja/gas och polis m.m.

Carsten har uppenbarligen läst väldigt mycket relevant litteratur och han delar frikostigt med sig av tips om andra böcker. En liten sidoeffekt av det har varit att jag flera gånger avbrutit mitt läsande för att beställa hem en bok som han tipsar om. Det har alltså blivit ganska dyrt att läsa boken…

Boken är skriven på ett annorlunda sätt vilket har såväl fördelar som nackdelar. Den är indelad i olika sektioner:
1. General issues
2. The safety professional
3. Safety Management & More
4. Culture
5. Measuring Safety, Goals and Indicators
6. Incidents, Accidents and their Causes
7. Risk and Risk Assessment

Varje sektion innehåller sedan ett antal myter och totalt beskriver boken 123 myter inom safety. Varje sektion avslutas med lästips där olika böcker presenteras som har bäring på respektive sektion. Slutligen har varje sektion också ett avsnitt med ”noter”. Totalt finns det 430 sådana här ”noter” som är numrerade i texten. Dessa noter kan innehålla allt från korta humoristiska kommentarer till längre utvecklande texter och ofta ytterligare tips om böcker eller länkar till material på nätet.

Texterna är skrivna med ett vardagligt språk vilket gör den lättläst även om man inte är så van att läsa på engelska. Samtidigt vill åtminstone jag läsa noten direkt vilket leder till ett ständigt bläddrande. Min lösning blev att ha två bokmärken. Ett placerat där jag läser och ett där jag just nu är på avsnittet med noter. Jag har läst boken från början till slut men tror säkert jag kommer att återvända till den som en uppslagsbok där sektionsindelningen och innehållsförteckningen bör göra det lätt att hitta vad jag söker.

Det märks tydligt att Busch är kunnig i ämnet. Han har läst mycket men kan välja bland det han läst och gräver inte ner sig i en skyttegrav utan ser nyanserat på allt han läst. Ett exempel är att många idag fullständigt sågar den gamla klassikern ”Industrial accident prevention: a scientific approach” av Heinrich – ofta utan att ha läst boken själva. Busch har istället lagt stor möda på att leta upp samtliga utgåvor för att själv se vad som finns där. I sin bok tar alltså Busch upp mycket av det Heinrich skrev om och han gör det på ett nyanserat sätt. På liknande sätt tar han upp mer nutida författare som Reason, Hollnagel och Dekker och lyfter fram det han finner användbart samtidigt som han talar om vad han inte tycker är bra.

Slutomdömet är att detta egentligen inte är en bok om ”Safety Myths” utan en väldigt allsidig och användbar grundbok om safety. Kanske inte den första bok man ska läsa eftersom det inte är en lärobok men en utmärkt bok för att fördjupa sig och få nya intryck i ämnet safety.

70th International Air Safety Summit – med fokus på flygsäkerhet

På tisdagen i förra veckan var jag i Dublin för 70 International Air Safety Summit. Denna konferens är arrangerad av Flight Safety Foundation (FSF) den största oberoende internationella organisationen för flygsäkerhet. FSF är baserad i USA och har sina rötter där, men strävar efter att vara en organisation för hela världen. FSF är känt sedan tidigare genom inlägg på bloggen om deras sajt aviation-safety.net med olycksstatistik (länk),deras arbete med sajten Skybrary (länk) samt en rapport om förra årets konferens (länk).

Konferensen var indelad i en operationell del och en maintenance del. I båda var hantering av säkerhetsdetaljen och fatigue saker som togs upp, medan den operationella delen även tog upp go-arounds, säkerhetskultur, lärdomar från en del haverier samt en hel del annat. Själv genomförde jag två presentationer – en om användning av eye-tracking för att bättre förstå och träna piloter, samt en om hur design och träning kan använda sig av enkel simulering för att förbättra både designprocessen och träning av piloter.

Den mest givande presentationen för min del var den av Professor Erik Hollnagel, vars idéer tidigare presenterats på bloggen i flera olika inlägg (länk, länk och länk). Han tog upp flera intressanta aspekter på säkerhet som jag hoppas kunna återkomma till i framtida inlägg. En av dessa aspekter är skillnaden mellan att känna sig säker (”feel safe”) och vara säker (”be safe”). Professor Hollnagel underströk att vi ofta söker och accepterar enkla förklaringar till varför saker går fel, för vi känner oss säkra när vi känner att vi förstår vad som hänt. Helst förklaringar som till synes kan förklara varför saker går fel med samma förklaring vid alla tillfällen. Detta kan tyvärr leda till att vi inte gör det mer svåra arbete som egentligen krävs för att vara säkra, vilket egentligen är det som vi är ute efter.

Detta var den sista internationella konferensen för året för min del, efter flera spännande och givande konferenser. Tyvärr har tiden på dessa ofta varit kort, så de har varit mer givande för de samtal och kontakter de har lett till än avseende de få presentationer som jag har möjlighet att få se. Jag har inga planer för nästa år, utan liksom detta år får det bli som det blir beroende vilka inbjudningar som kan bli aktuella.

Anders Ellerstrand: Bokrecension – ”Organisational Accidents Revisited” av James Reason

James Reason är en engelsk professor. ”The Reason Model” ligger till grund för nästan allt flygsäkerhetsarbete som bedrivs inom luftfarten och har haft stark påverkan på utformningen av ICAO standards inom flygsäkerhet. Hans bok ”Managing the Risks of Organizational Accidents” gavs ut på Ashgate förlag 1997 och är ännu en av deras bästsäljare.

Nästan 20 år senare kommer alltså ”Organizational Accidents Revisitied” där Reason dels vill beröra den utveckling som varit men också uppdatera och utöka sina ursprungliga argument.

Boken är i två delar:

I första delen ger kapitel 1 ger en introduktion medan kapitel 2 och 3 är en kortfattad repetition av det som fanns i boken från 1997.

Den andra delen vill hantera utvecklingen sedan 1997. Kapitel 4 berör brister hos tillsynsmyndigheter. Kapitel 5 hanterar bakomliggande organisatoriska faktorer (där han menar att motsättningen mellan säkerhet och ekonomi är den viktigaste) medan kapitel 6 fortsätter genom att ge exempel från tio fallstudier. Kapitel 7 diskuterar utbildning på ett sätt som nästan verkar vara Reason’s variant av ”resilience engineering”.

I kapitel 8 tar Reason upp olika invändningar mot hans modell och han gör det på ett sympatiskt vis. Han berättar om alternativa teorier och modeller från bl.a David Woods, Charles Perrow, Jens Rasmussen och Erik Hollnagel.

Kapitel 9 behandlar främst patient-säkerhet men han kommer även in på sin uppfattning om hur synen på säkerhet förändrats genom åren. Han utgår från synen på ”människan som problemet” vilket utvecklades till medvetenheten om systemfaktorernas betydelse vilket lett vidare till synen på människan som hjälten. Reason förutspår att detta kommer att leda oss tillbaka till synen på människan som problemet. Naturligtvis utvecklas dessa tankar mer i boken och jag tycker att jag lätt kan följa hans tankebanor och att jag ser de företeelser i debatten som han har vävt in.

I kapitel 10 fortsätter Reason göra förutsägelser om framtiden och i kapitel 11 slutligen återger han två historier där ”hjältar” klarar av situationer som annars kunde blivit katastrofer.

Reason är bitvis pessimistisk. Han konstaterar att vi aldrig kommer att kunna förhindra den ”organisatoriska olyckan”, möjligen reducera sannolikheten ytterligare. Han berättar att han besökte BP i Skottland och i Australien under tidigt 1990-tal och blev imponerad av deras säkerhets-system. Trots detta råkade de ut för svåra olyckor 2005, 2006 och 2010.

Jag gissar att James Reason idag är kring 75 år gammal. I den här boken sammanfattar han sitt livsverk. Den introducerande delen är kort men en bra introduktion för den som inte kan sin Reason eller en bra repetition för den som behöver det. Jag har själv inte läst hans bok från 1997 ännu men den ligger och väntar på att bli läst.
Jag rekommenderar en läsning av ”Organizational Accidents Revisitied”. Den är omfattar bara 135 sidor och är lättläst och intressant.