Home » Flygsäkerhet (Page 8)

Category Archives: Flygsäkerhet

Anders Ellerstrand: Automation del 4 – är det så enkelt?

Jag kan avslöja redan nu att jag avser besvara frågan med ett ”nej”…

Utgångspunkten är en händelse i Arizona, 18 mars 2016. En självkörande Volvo XC90 körde under mörker på en människa med en hastighet av 70 kilometer i timmen. Offret, en 49-årig kvinna som ledde en cykel, kastades iväg 20 meter och dog. Olyckan har utretts under 20 månader av US National Safety Transportation Board, NTSB och det hela har naturligtvis uppmärksammats. Detta inlägg bygger på två artiklar (länkar finns i slutet av detta inlägg).

Bilen var en av Ubers app-taxibilar. Den hade dels en radar som upptäckte kvinnan drygt 5 sekunder före olyckan, dels en s.k. lidarsensor som upptäckte kvinnan något senare. Det gav egentligen gott om tid att undvika olyckan. Systemet gjorde dock först en analys av vad den upptäckt och klassade kvinnan först som ”bil”, sedan som ”övrigt objekt”, sedan tillbaka som ”bil”, tillbaka till ”övrigt objekt”, sedan till ”cykel”, åter till ”övrigt objekt” och slutligen tillbaka till ”cykel”. För varje ny klassning, startades en ny process för att analysera vart det upptäckta objektet var på väg. Dessa olika klassningar ledde till att systemet inte kunde bedöma vart objektet var på väg och till att inbromsning inte var nödvändig.

Att systemet aldrig klassade kvinnan som en människa berodde på att det inte letade efter människor annat än vid övergångsställen. Att människor skulle kunna korsa en väg utanför övergångsställen var inte en möjlighet för systemet som alltså saknade en möjlighet att identifiera kvinnan som människa.

Den som vill kan här återvända till ”Automation Del 1” (länk) för att läsa om vad Fitts list har att säga om vad människan är bra på. Även om en människa kan ha svårt att t.ex. se en mörkklädd person i mörker så har vi god förmåga att uppfatta variationer och mönster. Vi kan också dra slutsatser från våra observationer, vi kan göra bedömningar även utifrån bristande underlag och vi kan improvisera och vara flexibla.

Det verkar som att Uber var så oroliga för falsklarm (onödiga inbromsningar) att man lagt in en fördröjning på en sekund från identifierad risk för kollision till inbromsning. Först 1,2 sekunder före kollisionen förstod systemet att bilen skulle träffa kvinnan, att en undanmanöver inte var möjlig och att nödinbromsning var nödvändig. Med en sekunds fördröjning startade nödinbromsningen alltså 0,2 sekunder innan kollision och ett alarm startade i bilen.

Sista säkerhetsnätet var den säkerhetsförare som fanns ombord. Hon lär dock ha tittat på film och såg inte vad som var på väg att hända. Då alarmet kom, tog hon ratten, kopplade ur automatiken och bromsade. När hennes fötter trampade på bromsen hade det gått nästan en sekund sedan kvinnan som korsade gatan hade träffats av bilen.

Här kan man ju återvända till ”Automation Del 2” (länk) och fundera på vad Bainbridge skrev om automationens ironier. När det gäller Uber-systemet och dess mjukvara så är det naturligtvis design utförd av människor vilket innebär att vi inte slipper problem med mänskliga fel för att vi automatiserar. Det är vanligt då vi automatiserar att vi lämnar övervakningen till människan trots att det inte är något människan är bra på. Därför krävs det alarm. Sådana alarm måste ges i god tid och med tydlig indikation på vad som är fel och vad som ska göras. Bainbridge pekade också på att automation ofta ökar krav på människan och leder till ökat behov av utbildning.

Det var alltså en Volvo som var inblandad i olyckan men Volvos egna säkerhetssystem var avstängt. Istället användes Ubers egna system. Det har påståtts att olyckan kunnat undvikas om Volvos system använts samtidigt som det knappast varit rimligt att låta två olika system hantera säkerheten samtidigt. Uber skriver i ett uttalande att man beklagar olyckan men nu har gjort förbättringar. Bland dessa förbättringar finns en förändrad utbildning av säkerhetsförarna och att man nu har två säkerhetsförare i varje bil! Det antyder ju att man åtminstone i någon mån ser olyckan som ett resultat av den ”mänskliga faktorn”.

Bland slutsatserna från utredningen finns också att Ubers program för självkörande bilar inte hade någon safety manager eller avdelning för operativ safety. Man har numera ändrat sin organisation för safety och infört ett system där anställda kan rapportera safety-händelser anonymt.

Här kan man återvända till Nicklas artikel kring FAA och EASA (länk) och fundera på myndigheternas roll och förmåga. Jag hittar inget som antyder att Uber inte följde myndigheternas krav. Automation och autonomi tågar snabbt in i vår vardag. Kan myndigheterna hantera detta?

Jag tror alltså inte att det är så enkelt att lämna över allt från människa teknik. Jag ser hellre att tekniken hjälper människan än att tekniken ersätter människan. Det får dock bli ämnet för ett senare inlägg.
Källor:

https://www.wired.com/story/ubers-self-driving-car-didnt-know-pedestrians-could-jaywalk/

Anders Ellerstrand: Hindsight – tidning om flygsäkerhet. Nummer 29 ute nu!

Eurocontrol påkostade tidning om flygsäkerhet kommer ut med två nummer om året och nu är det alltså dags att ta del av Hindsight 29 – https://skybrary.aero/bookshelf/books/5377.pdf

Tidningen produceras främst för flygledare men läses av många inom branschen, inte minst piloter. Titeln ”Hindsight” kan översättas till ”efterklokhet” och syftet med tidningen är bl.a. att hjälpa operativa flygledare att ta del av andra flygledares erfarenheter. Redaktör för tidningen är Steven Shorrock och han har åter lagt ner ett mycket gediget arbete på att sätta samman tidningen.

Den senast utgåvan har ”målkonflikter och kompromisser” som tema och de olika artiklarna ger många intressanta vinklar på ämnet. Du hittar en riktigt bra introduktion av Steven Shorrock och du hittar två artiklar som handlar om ”QF32”, dvs Qantas Airbus 380 där besättningen gjorde en mirakulös lyckad landning efter att en motor exploderat och orsakat hundratals fel, på bl.a. styrsystem. Bland de mer kända författarna hittar du Erik Hollnagel som skriver om osynliga kompromisser och synliga konsekvenser, samt Nippin Anand som skriver om erfarenheter från Costa Concordia. De 80 sidorna innehåller naturligtvis mycket, mycket mer!

Så småningom kommer tidningen att komma som papperstidning till de som prenumererar, men redan nu kan du alltså ladda ner den som pdf-tidning!

En eller ingen pilot på flygplanet – vill du flyga med?

En gång i tiden var det många i cockpit – minst två piloter, en en flygingenjör, en navigatör och en radiooperatör. Med tiden försvann än den ena och än den andra tills dess arr det bara var två piloter kvar. Med ny och avancerad teknologi samt automation kunde de funktioner som tidigare utfärdat av besättningsmedlemmar nu tas om hand utan dem. Det handlar nu om det verkligen behövs två piloter på flygplan, vilket inte är något nytt eftersom de flesta mindre flygplan endast har en pilot. För större flygplan och speciellt de med många passagerare är detta dock en svårare och mer känslig fråga. Ett flertal artiklar har tagit upp detta på senaret tid (länkar nedan) och detta inlägg blir kanske mer än start på att utforska denna fråga än ett svar påhugg det kommer att gå.

Frågan om single pilot operations har tagits upp tidigare på bloggen, kopplat till forskning som berört detta (länk). Det finns flera olika sätt att se på detta. Ett är att betona att de framgångar med att förbättra flygsäkerheten som lett till dagens minimala risk bygger på att ha två piloter och detta är manifesterat i procedurer såväl som i Human Factors och CRM aspekter av deras samarbete. Ett annat är passagerarpsykologi och juridiska perspektiv – oavsett teknologiska framsteg ill passagerare ha piloter i kontroll och att inte ha det skapar en oklar situation avseende ansvar för flygsäkerhet.

Mot detta finns nåde kommersiella och teknologiska drivkrafter som driver fram en utveckling mot förarlösa fordon, inte bara avresan bilar utan även för fartyg och flygplan. Det bygger förmodligen även på en vision av att väl utvecklad teknologi kan i något skede vara säkrare än människor. Det är inte svårt att se detta som ett argument när det gäller vägtrafik, men för flyg förefaller en sådan vision långt borta. Det som är svårast med en sådan vision är steget från mänskligt kontrollerade fordon till automatiserade. Det är den blandande miljön – att ha både förarstyrda och förarlösa fordon – som utgör den kanske svåraste situationen avseende att ha ett system där alla delar av det förstår varandras intentioner.

Det pågår idag utveckling mot både single pilot operations och förarlösa flygplan (länk). I båda fallen kommer försök i mindre skala sannolikt att leda till försök med mindre flygplan för att sedan gå vidare med större flygplan och i första hand fraktflyg. Det är svårt att säga på vilken tidsskala detta kommer att utspela sig eftersom det har att göra inte bara med teknologisk utveckling utan även med utveckling av regler och allmänhetens inställning samt juridiska, politiska och andra faktorer. Om olyckor inträffar kan de också få avgörande inflytande på utvecklingen.

Det mesta av intresse i dessa frågor sägs ofta informellt på konferenser eller via kontakter. Min egen bedömning baserat på sådana samtal är att single pilot operations forfarande inte kommer att vara verklighet inom det närmaste årtiondet, men att det kan att vara det i slutet av årtionden därefter. Via en start med mindre flygplan och frakt kan det sedan skalas upp mot större passagerarflygplan. Förarlösa mindre flygande farkoster utprovas redan idag i stadsmiljöer och är snart verklighet. För traditionella flygplan och deras verksamhet är det dock långt fortfarande borta, med en betydande utmaning i att lösa övergången och den blandade trafikmiljö som detta skulle innebära. Med detta sagt är det bara att vänta och se hur felaktiga dessa förutsägelser kan visa sig ha varit.

Länkar till artiklar:
Single Pilot Operations for Air Cargo a Test for Autonomous Flying
ALPA: Single-pilot Ops Not a Risk Worth Taking

Anders Ellerstrand: Automation del 3 – automation och arbetsbelastning

Automation är ofta tänkt att avlasta människan och därmed minska arbetsbelastningen med effekten att systemet får en högre kapacitet. I stora delar av luftrummet över Europa råder det idag brist på kapacitet och här finns höga förhoppningar på automation som lösningen på problemet.

Som en del i min Masters-utbildning i Human Factors fick jag göra en så kallad ”critical literature review” för att utifrån vald fråga se vilka vetenskapliga stöd som finns och jag valde frågan om automation kan minska arbestbelastning för flygledare som arbetar en-route. Här berättar jag kort vad jag fann.

NASA-studier
Fyra välgjorda NASA-studier stöder möjligheten för automation att minska arbetsbelastningen men en förutsättning är att flygledaren dels får relevant information om vad automationen gör, dels finns kvar i beslutsfattandet.
En intressant fråga är vilka funktioner som kan och ska automatiseras. NASA fann att automatisering av enklare funktioner (koordinering och överlämning) kan minska arbetsbelastning. Större uppgifter för automationen är att dels upptäcka konflikter mellan flygplan och sedan att lösa dem. Ett intressant experiment gjordes där flygledaren helt enkelt inte såg trafiken förrän automationen hade hittat en konflikt. Det var tydligt att uppgiften att lösa konflikten tog längre tid om flygledaren inte varit delaktig i att söka och upptäcka konflikter. Det visar på att automation inte bara handlar om att ersätta människan i valda delar utan att detta får påverkan på även andra uppgifter. En tredje test visade i princip att ju mer automation desto lägre arbetsbelastning men samtidigt att högst kvalitet/flygsäkerhet nåddes med ”måttlig” automation. Den fjärde testen var också ett stöd för att automation minskar arbetsbelastning.

Konfliktlösning
Automation för att upptäcka och peka ut konflikter har funnits ganska länge medan system som föreslår konfliktlösning är mer ovanliga men säkert på väg. En välgjord amerikansk studie kring automation för konfliktlösning ger visst stöd för minskad arbetsbelastning. En ny (2016) europeisk studie visade tydligt stöd för minskad arbetsbelastning med automation för konfliktlösning. Intressant här var att även om konfliktlösningen inte var helt tillförlitlig fortsatte flygledaren att använda den om än med mindre förtroende. En brist med denna studie var dock att få av deltagarna var flygledare.

Ett problem med automation är att en människa ändrar sitt arbetssätt vid ökad arbetsbelastning. Man kan öka sina marginaler eller man kan nöja sig med en bra och säker lösning istället för att söka den optimala. Sådan variation är inte typisk för automation och om automationen ger förslag som inte stämmer överens med vad flygledaren själv valt kan man förkasta det. Förslag som inte känns bra ökar dessutom belastningen eftersom de måste utvärderas. Det finns tankar på automation som anpassar sig efter situation och t.o.m. efter individ. Det är nog lättare sagt än gjort och här förutser man problem när det gäller acceptans för mer automatiserade system. Bäst acceptans får man om automationen ger förslag på lösningar som man själv skulle ha kommit fram till.

Detta leder också till en annan viktig diskussion. Ska automation anpassa sig till människan och se till så att människan är delaktig i processen eller måste automation få gå vidare och arbeta snabbare och bättre än människan för att verkligen bli till nytta? Här ser man att utvecklingen kommer att gå i olika faser, där det initialt är viktigt att människan förstår och accepterar automationen som därför behöver anpassas till människans sätt att arbeta. Ett praktiskt exempel är att man som flygledare kan lägga flygplan på parallella kurser som ett sätt att minska antalet konflikter medan automationen, med sin större förmåga att ha flera uppgifter samtidigt, kan föreslå mer optimala lösningar. På sikt kan vi därmed se ett behov av människan att anpassa sig efter automation vilket lär få påverkan på hur vi utbildar.

Slutligen visar ett stort test att automation kan öka komplexiteten och ställa större krav på systemkunskap hos flygledaren för att verkligen kunna dra nytta av automation. Så svaret på frågan är att automation kan minska arbetsbelastning – men bara om det görs med hänsyn till människan. Vill du läsa min artikel i helhet hittar du den här: länk

Anders Ellerstrand: Automation del 2 – ironier och paradoxer

En av de mest citerade artiklarna om automation är ”Ironies of Automation” från 1983 av Lisanne Bainbridge, kognitiv psykolog. Hennes artikel må vara över 35 år gammal men känns ännu relevant och citeras fortfarande.
En utgångspunkt för Bainbridge är att målet med automation oftast är att minska behovet av människan men hon påpekar direkt att även högt automatiserade system har behov av människan för övervakning, justering, underhåll och utveckling, dvs de är egentligen människa/maskin-system som är väldigt beroende av människan! Förväntningar på automation rymmer dock parodier och paradoxer.

Ironier kring design av automation
En utgångspunkt för design av automation är ofta att människan är opålitlig och ineffektiv och därför bör ersättas. Detta är förknippat med två ironier:
1. Designern är människa och designfel kan vara ett stort operativt problem.
2. Designern ersätter människan med automation så långt det är möjligt. Det som är för svårt att automatisera får människan fortfarande utföra.

Vad återstår för människan efter automation?
En vanlig uppgift som lämnas kvar åt människan är att övervaka så att automationen fungerar korrekt och att vid behov ta över om automationen fallerar. Ironin är här att skickligheten försämras om man inte använder den. En erfaren operatör som övervakar automation blir så småningom en oerfaren operatör med begränsade möjligheter att ta över. En situation som kräver mänskligt ingripande är dessutom sällan helt normal utan kräver extra skicklighet. Till detta kommer att övervakning inte är en uppgift som människan är väl lämpad för. Vi klarar helt enkelt inte av att sitta och titta/lyssna i väntan på att något ska hända. Alltså krävs en alarmfunktion och då uppstår frågan om vem som övervakar alarmfunktionen?

Lösningar
Bainbridge pekar inte bara på ironierna utan föreslår även lösningar. För att mänsklig övervakning ska fungera krävs alarm och helst ska alarmet tydligt visa vad som är fel samt vad som behöver göras.
Ett sätt att hantera svårigheten att ta över då automation fallerar är genom att träna regelbundet i t.ex. en simulator. Sådan utbildning bör dessutom vara mindre inriktad på att ”följa procedurer” utan mer på att kunna hantera ovana och oförutsedda situationer. Ironin här är att ju bättre ett automatiserat system fungerar, desto mindre naturlig erfarenhet får operatören och desto högre blir kostnaderna för simulatorer och utbildning.
Bainbridge artikel är alltså över 35 år gammal och man kan tycka att den borde vara överspelad vid det här laget. Ändå ser vi fortfarande exempel på de ironier hon pekar på. Automation bygger på mänsklig design och den är inte felfri. Kraven på människan i samband med automation ökar ofta istället för att minska och därmed följer ökat behov av utbildning.

Anders Ellerstrand: Automation del 1 – Fitts List och MABA MABA

Redan 1951 publicerades ”Fitts list”. Den kallas också MABA-MABA (Man-Are-Better-At-Machine-Are-Better-At).

Bilder från Human Engineering for an Effective Air Navigation and Traffic Control System, National Academy of Sciences, Washington, D.C., 1951.

Förenklat säger Fitts list att människan är bättre än maskinen på att:
• Uppfatta/upptäcka variationer med syn eller hörsel
• Uppfatta mönster i ljus eller ljud
• Improvisera och använda flexibla procedurer
• Lagra stor mängd information under lång tid och ta fram relevant fakta när den behövs
• Lösa problem genom slutledningar/hypoteser utifrån fakta och observationer (induktion)
• Göra bedömningar/avvägningar

På liknande sätt säger listan att maskiner är bättre än människan på att:
• Reagera snabbt på en signal
• Använda stor kraft mjukt och med precision
• Utföra upprepade rutingöromål
• Spara information under kort tid samt radera information fullständigt
• Dra slutledningar utifrån logik (deduktion), inklusive matematiska beräkningar
• Hantera komplexa uppgifter där flera olika saker behöver utföras samtidigt

Listan kan ju användas för att se till att automation görs på rätt sätt – att nyttja såväl maskinens som människans olika styrkor. Även om listan snart är 70 år gammal tror jag de flesta nickar instämmande då vi läser den. Även om tekniken har utvecklats mycket under 70 år lär människan vara sig lik.

Än idag refereras det till Fitts list men den har också kritiserats. Ibland har kritiken varit orättvis eftersom Fitts faktiskt pekar på och förutsåg många problem med introduktionen av automation. En kritik som framförts av Sidney Dekker och David Woods är att den här typen av listor leder oss fel. Utmaningen med automation inte är att allokera uppgifter på bästa sätt utan hur man får människa och maskin att arbeta bra tillsammans.

AI används nu på Gatwick för turnarounds

Det måste erkännas att AI inte är ett lätt ämne att skriva om. Många vill skriva om det för att det är så aktuellt och har så stor potential, men det blir lätt spekulativt. Ämnet har dock tagits upp på bloggen tidigare (länk och länk), då det handlade om användning av kameror och AI för att hantera trafik på marken på Heathrow. Det finns nu ännu ett AI projekt på en stor flygplats i London och när det gäller sådana konkreta projekt skriver vi gärna om det här på bloggen.

Det är sajten internationalairportreview.com som tagit upp detta i en artikel (länk nedan). Enligt artikeln kostar ineffektiv hantering av flygplan på marken flygindustrin en miljard dollar om året. Med målet att göra sådan hantering mer effektiv har Gatwick satsat på att kameror och AI – för bättre koordinering, mindre förseningar, bättre on time performance.

Runt ett flygplan som ska ha sin ”turnaround” på en flygplats kan det finnas ett stort antal olika ”service providers” – engineering, fuel, catering, cargo, städning, fordon som flyttar flygplanet, hantering av passagerare o.s.v. Detta leder ibland till säkerhetsproblem, både piloter och annan personal har blivit påkörd av fordon vid flygplan. Det kan också leda till att de olika tjänsterna som ska utföras får vänta på varandra.

Med hjälp av kameror och AI som identifierar och registrerar de olika rörelserna runt flygplan kan data samlas in för att bättre förstå och optimera processer för arbetet kring flygplan. Det kan också ge möjlighet till att förmedla information till varandra i processen och därmed undvika problem. Avsikten är även att låta machine learning hantera data för att hitta mönster som representerar mer effektiva arbetssätt.

Artikeln är ganska sparsam på specifika detaljer, vilket antyder att detta projekt är i sin början. Det är dock ett intressant exempel på hur AI allt mer kan komma att användas i flygindustrin. Det finns sannolikt många processer som repeteras ofta och som skulle kunna optimeras än mer enligt samma modell som denna, t.ex. bagagehantering, passagerarflygen på flygplatser o.s.v. Det är inte alls svårt att lova att det kommer att skrivas mer om AI på bloggen framöver.

Länk till artikel:
Gatwick Airport welcomes AI technology to its apron

Anders Ellerstrand: Automation del 3 – automation och arbetsbelastning

Automation är ofta tänkt att avlasta människan och därmed minska arbetsbelastningen med effekten att systemet får en högre kapacitet. I stora delar av luftrummet över Europa råder det idag brist på kapacitet och här finns höga förhoppningar på automation som lösningen på problemet.

Som en del i min Masters-utbildning i Human Factors fick jag göra en så kallad ”critical literature review” för att utifrån vald fråga se vilka vetenskapliga stöd som finns och jag valde frågan om automation kan minska arbestbelastning för flygledare som arbetar en-route. Här berättar jag kort vad jag fann.
NASA-studier

Fyra välgjorda NASA-studier stöder möjligheten för automation att minska arbetsbelastningen men en förutsättning är att flygledaren dels får relevant information om vad automationen gör, dels finns kvar i beslutsfattandet.

En intressant fråga är vilka funktioner som kan och ska automatiseras. NASA fann att automatisering av enklare funktioner (koordinering och överlämning) kan minska arbetsbelastning. Större uppgifter för automationen är att dels upptäcka konflikter mellan flygplan och sedan att lösa dem. Ett intressant experiment gjordes där flygledaren helt enkelt inte såg trafiken förrän automationen hade hittat en konflikt. Det var tydligt att uppgiften att lösa konflikten tog längre tid om flygledaren inte varit delaktig i att söka och upptäcka konflikter. Det visar på att automation inte bara handlar om att ersätta människan i valda delar utan att detta får påverkan på även andra uppgifter. En tredje test visade i princip att ju mer automation desto lägre arbetsbelastning men samtidigt att högst kvalitet/flygsäkerhet nåddes med ”måttlig” automation. Den fjärde testen var också ett stöd för att automation minskar arbetsbelastning.

Konfliktlösning
Automation för att upptäcka och peka ut konflikter har funnits ganska länge medan system som föreslår konfliktlösning är mer ovanliga men säkert på väg. En välgjord amerikansk studie kring automation för konfliktlösning ger visst stöd för minskad arbetsbelastning. En ny (2016) europeisk studie visade tydligt stöd för minskad arbetsbelastning med automation för konfliktlösning. Intressant här var att även om konfliktlösningen inte var helt tillförlitlig fortsatte flygledaren att använda den om än med mindre förtroende. En brist med denna studie var dock att få av deltagarna var flygledare.

Ett problem med automation är att en människa ändrar sitt arbetssätt vid ökad arbetsbelastning. Man kan öka sina marginaler eller man kan nöja sig med en bra och säker lösning istället för att söka den optimala. Sådan variation är inte typisk för automation och om automationen ger förslag som inte stämmer överens med vad flygledaren själv valt kan man förkasta det. Förslag som inte känns bra ökar dessutom belastningen eftersom de måste utvärderas. Det finns tankar på automation som anpassar sig efter situation och t.o.m. efter individ. Det är nog lättare sagt än gjort och här förutser man problem när det gäller acceptans för mer automatiserade system. Bäst acceptans får man om automationen ger förslag på lösningar som man själv skulle ha kommit fram till.

Detta leder också till en annan viktig diskussion. Ska automation anpassa sig till människan och se till så att människan är delaktig i processen eller måste automation få gå vidare och arbeta snabbare och bättre än människan för att verkligen bli till nytta? Här ser man att utvecklingen kommer att gå i olika faser, där det initialt är viktigt att människan förstår och accepterar automationen som därför behöver anpassas till människans sätt att arbeta. Ett praktiskt exempel är att man som flygledare kan lägga flygplan på parallella kurser som ett sätt att minska antalet konflikter medan automationen, med sin större förmåga att ha flera uppgifter samtidigt, kan föreslå mer optimala lösningar. På sikt kan vi därmed se ett behov av människan att anpassa sig efter automation vilket lär få påverkan på hur vi utbildar.

Slutligen visar ett stort test att automation kan öka komplexiteten och ställa större krav på systemkunskap hos flygledaren för att verkligen kunna dra nytta av automation. Så svaret på frågan är att automation kan minska arbetsbelastning – men bara om det görs med hänsyn till människan. Vill du läsa min artikel i helhet hittar du den här: länk.

Anders Ellerstrand: Human factors – vad är det?

Det är inte helt lätt att definiera vad ”Human Factors” är. En av de verkliga pionjärerna, Alphonse Chapanis, skrev om hur han länge besvärades av att många människor utgav sig för att vara kunniga men inte förstod vad Human Factors är. Chapanis har nämnts på bloggen tidigare – länk. Själv menade Chapanis att nyckelordet är ”design” därför att det är detta som skiljer Human Factors från psykologi, fysiologi och antropologi. Forskning som inte är inriktat mot design är enligt Chapanis inte Human Factors. Chapanis gav också två definitioner:

1. ”Human Factors (Ergonomics) is a body of knowledge about human abilities, human limitations and other human characteristics that are relevant to design.”

2. ”Human Factors Engineering (The practice of ergonomics) is the application of human factors (ergonomic) information to the design of tools, machines, systems, tasks, jobs, and environments for safe, comfortable and effective human use.”

Notera att Human Factors och Ergonomi används som synonymer, inte bara här utan av flera organisationer. På Linkedin lånade jag denna bild som visar hur svårt det kan vara att definiera Human Factors:

En nutida expert på området är Steven Shorrock som arbetat mycket med Human Factors och flygsäkerhet men som brukar säga att hans verkliga intresse helt enkelt är arbete. Han har gedigen akademisk bakgrund och arbetar sedan flera år för Eurocontrol där han bl.a. är redaktör för deras utmärkta tidning Hindsight – http://lusa.one/2018/09/11/anders-ellerstrand-hindsight-tidning-om-flygsakerhet-nytt-nummer-ute-nu/ och http://lusa.one/2019/02/07/anders-ellerstrand-tips-om-nytt-nummer-av-hindsight/. Shorrock skriver en personlig blog som är mycket läsvärd – https://humanisticsystems.com/ – där man bl.a. hittar en beskrivning av fyra varianter Human Factors:

1. Den mänskliga faktorn är en välkänd term som vi ofta möter i nyhetsmedia för att t.ex. beskriva orsaken till en olycka. Termen används nog aldrig av den som arbetar med Human Factors. Accepterar man denna beskrivning av problem söker man lösningar som beteendeförändring, kampanjer via posters, utbildning eller kanske att ersätta människan med maskiner.

2. Mänskliga faktorer handlar om ett fokus på mänskliga egenskaper. Det kan handla om till exempel vår förmåga att ta in information eller att minnas, liksom det kan handla om vår oförmåga. Många kända human factors-experter har skrivit om detta, såsom Jens Rasmussen och James Reason. Det kan också handla om vår fysik – styrka och precision, räckvidd m.m. liksom om faktorer som stress och behov av sömn. Här kan vi återknyta till Chapanis ovan – god design tar hänsyn till såväl mänskliga styrkor som svagheter.

3. Faktorer som påverkar människan kan vara såväl externa faktorer (arbetsmiljö, procedurer, utbildning, kultur osv.) som olika interna aspekter hos människan. Det här är nog den mest typiska varianten av human factors och den som har tydligast koppling till flygsäkerhet där man söker orsaker till olyckor just bland faktorer som påverkade människan. Det finns gott om litteratur som tar upp denna variant och dessa kunskaper kan användas vid design av såväl arbetsmiljö som utbildning, organisation och annat. Här handlar det om faktorer som påverkar och ibland förklarar mänskligt beteende.

4. Socio-teknisk systeminteraktion är en något krånglig benämning på en fjärde variant av human factors. Ordet ”interaktion” är något av nyckeln här eftersom det handlar om gränsytorna, samverkan mellan människor och mellan människor och miljö, inklusive maskiner. Det betyder också att design handlar om att samverkan, interaktion ska fungera väl. Målet med sådan design är alltid dubbelt – att förbättra systemets prestanda samt att förbättra människans välbefinnande. Att förbättra systemets prestanda kan handla om produktivitet, effektivitet, kapacitet, miljö och säkerhet. Viktigt här är att bibehålla en systemsyn och förstå t.ex. att en lokal förbättring kan få en negativ effekt på helheten.

Själv gillar jag den sista varianten. I en organisation arbetar många med delar av system. Någon utbildar personalen, någon arbetar med arbetsmiljö, någon utvecklar tekniska system, någon skriver procedurer osv. Det är lätt att missa gränsytorna mellan de olika delarna och det är här Human Factors har en roll att fylla. Gränsytornas betydelse för flygsäkerhet har vi tagit upp tidigare här på bloggen – länk.

Den som vill ta del av ännu fler aspekter på detta ämne rekommenderas att besöka Shorrocks blogg som t.ex. har en serie artiklar om vad Human Factors INTE är!

Anders Ellerstrand: Costa Concordia – att lära från olyckor

Jag deltog nyligen i en konferens i Köpenhamn. Konferensen leddes av Nippin Anand med många år inom sjöfarten och som nu har eget företag med inriktning på ledarskap och säkerhet. Temat var att lära från olyckor och utgångspunkten var olyckan då kryssningsfartyget Costa Concordia gick på grund vid ön Giglio i Medelhavet 13 januari 2012. Även om olyckan skedde till sjöss kan vi som jobbar inom flyget också lära oss av denna olycka. Här är en kort sammanfattning.

Jag tror alla minns olyckan med Costa Concordia. Vi fick snabbt en bild i media av en oansvarig italiensk kapten som brutit mot alla säkerhetsföreskrifter och med hög fart gått nära en ö där fartyget gick på grund och kapsejsade med resultatet att 32 människor dog. Vi läste om olika pikanta detaljer om kaptenen som inkluderade att han lämnat skeppet innan alla passagerare var räddade. Denna bild stöddes av pressreleaser från kryssningsföretaget som förklarade att skulden helt låg hos kaptenen. Så småningom kom den officiella haveriutredningen som även den lade den mesta skulden på kaptenen. Det gällde såväl navigering och grundstötning som hur situationen hanterades därefter med att evakuera passagerarna från fartyget. Kaptenen dömdes också till 16 års fängelse.

Syftet med konferensen var inte att fastställa någon orsak till olyckan eller att fria kaptenen från ansvar utan att visa betydelsen av att lyssna på flera historier för att verkligen kunna lära av en olycka. Anand träffade och intervjuade kapten Francesco Schettino 2017. Enligt Schettino var detta första gången någon visade ett professionellt intresse för olyckan och första gången han kunde ge sin version. Anand påpekade att det är en brist att det gick fem år vilket naturligtvis påverkat kaptenens historia. En annan brist är att det inte varit möjligt att intervjua övriga ur besättningen på bryggan. Det finns alltså fler historier som skulle kunna ge ett än bättre underlag för att verkligen lära från denna olycka.

Enligt kaptenen var det vanligt att segla nära land. Det gav ett mervärde åt passagerarna och begärdes ofta av t.ex. hotell. I detta fallet hade kaptenen tidigare fått en begäran från ön Giglio som han avslagit pga väder men denna gång hade han accepterat. Normalt skedde dessa mycket nära land med reducerad hastighet. Vid detta tillfälle tillät inte planeringen detta så passagen skulle ske med högre fart men längre från land – en halv sjömil eller en knapp kilometer. Enligt kaptenen var detta fullt normalt.

Varken kaptenen eller någon annan på bryggan hade genomgått utbildning inom ”Bridge Resource Management” (liknande flygets CRM). Kaptenen menar att viktigare är bristen på kompetens på bryggan. Kryssningarna på Medelhavet hade under de tio åren innan olyckan ökat sin kapacitet med 166 %; fler fartyg och större fartyg. En effekt var brist på erfaren personal som man försökt åtgärda bl.a. med snabbutbildning och snabba karriärer men också genom att anställa personal från andra länder. Det säga att den som stod vid rodret vid olyckan varken förstod italienska eller engelska. För kaptenen var detta ett problem som han påpekat till företaget, senast någon månad innan olyckan, men utan några åtgärder. Kaptenen hade inte stor tilltro till sin besättning. Han såg sig som en lärare med uppgift att utbilda dem. Kaptenen själv var mycket erfaren vilket gav en stor s.k. ”skill gradient” på bryggan. Det kan ha påverkat att ingen på bryggan ifrågasatte navigeringen eller hur den utvecklades. Anand menade att BRM, Non-technical skills och ”feedback loops” inte fungerar med alltför stor ”skill gradient”.

Kaptenen kom upp på bryggan då man närmade sig Giglio. Han ifrågasatte varför man ännu gick på auto-pilot istället för manuell styrning. Han hade ännu inte övertagit kontrollen av fartyget men den som haft befälet uppfattade kommentaren som att kapten nu tog över. Effekten var att fartyget fortsatte flera minuter utan något befäl och detta var kanske den viktigaste orsaken till att man kom för nära. Då kaptenen såg risken för kollision försökte han undvika detta och trodde han skulle lyckas men den som stod vid rodret följde inte instruktionerna vilket förvärrade situationen. Resultatet var att mittdelen på fartyget träffade klipporna och de delar som vattenfylldes var de där motorerna fanns. Nödgeneratorn fungerade inte och efter kollisionen blev fartyget omöjligt att styra. Det fortsatte av farten en bit ut från land men drev sedan tillbaka och grundstötte en andra gång.

Enligt haveriutredningen kunde alla passagerare räddats om alarm givits tidigare och om evakueringen inletts snabbare. I utredningen menar man att procedurer inte följdes. Det tog 51 minuter från grundstötning till order om evakuering. Vi tog del av kaptenens berättelse om hur han långsamt, långsamt fick information om omfattningen av skadorna till det läge då han förstod att fartyget faktiskt skulle sjunka. Vi fick titta på de procedurer som fanns. Diskussionen på konferensen utmynnade i att procedurerna inte var bra, att de tycks ha följts men att just procedurerna kan ha försenat förloppet. Flera menade ändå att det var imponerande att man lyckades evakuera så många på så kort tid och att olyckan mycket väl kunde ha resulterat i många fler dödsfall. Flera livbåtar var felaktiga och kunde inte sänkas ner.

Slutsatsen från dagen var att om man verkligen vill lära av en olycka måste man lyssna på flera historier kring vad som hände och man måste försöka undvika att göra bedömningar utan istället förstå hur olika personer tänkte i situationen och vilka förutsättningar som faktiskt rådde då.

Anders Ellerstrand