Home » Human Factors (Page 7)

Category Archives: Human Factors

Anders Ellerstrand: Automation del 4 – är det så enkelt?

Jag kan avslöja redan nu att jag avser besvara frågan med ett ”nej”…

Utgångspunkten är en händelse i Arizona, 18 mars 2016. En självkörande Volvo XC90 körde under mörker på en människa med en hastighet av 70 kilometer i timmen. Offret, en 49-årig kvinna som ledde en cykel, kastades iväg 20 meter och dog. Olyckan har utretts under 20 månader av US National Safety Transportation Board, NTSB och det hela har naturligtvis uppmärksammats. Detta inlägg bygger på två artiklar (länkar finns i slutet av detta inlägg).

Bilen var en av Ubers app-taxibilar. Den hade dels en radar som upptäckte kvinnan drygt 5 sekunder före olyckan, dels en s.k. lidarsensor som upptäckte kvinnan något senare. Det gav egentligen gott om tid att undvika olyckan. Systemet gjorde dock först en analys av vad den upptäckt och klassade kvinnan först som ”bil”, sedan som ”övrigt objekt”, sedan tillbaka som ”bil”, tillbaka till ”övrigt objekt”, sedan till ”cykel”, åter till ”övrigt objekt” och slutligen tillbaka till ”cykel”. För varje ny klassning, startades en ny process för att analysera vart det upptäckta objektet var på väg. Dessa olika klassningar ledde till att systemet inte kunde bedöma vart objektet var på väg och till att inbromsning inte var nödvändig.

Att systemet aldrig klassade kvinnan som en människa berodde på att det inte letade efter människor annat än vid övergångsställen. Att människor skulle kunna korsa en väg utanför övergångsställen var inte en möjlighet för systemet som alltså saknade en möjlighet att identifiera kvinnan som människa.

Den som vill kan här återvända till ”Automation Del 1” (länk) för att läsa om vad Fitts list har att säga om vad människan är bra på. Även om en människa kan ha svårt att t.ex. se en mörkklädd person i mörker så har vi god förmåga att uppfatta variationer och mönster. Vi kan också dra slutsatser från våra observationer, vi kan göra bedömningar även utifrån bristande underlag och vi kan improvisera och vara flexibla.

Det verkar som att Uber var så oroliga för falsklarm (onödiga inbromsningar) att man lagt in en fördröjning på en sekund från identifierad risk för kollision till inbromsning. Först 1,2 sekunder före kollisionen förstod systemet att bilen skulle träffa kvinnan, att en undanmanöver inte var möjlig och att nödinbromsning var nödvändig. Med en sekunds fördröjning startade nödinbromsningen alltså 0,2 sekunder innan kollision och ett alarm startade i bilen.

Sista säkerhetsnätet var den säkerhetsförare som fanns ombord. Hon lär dock ha tittat på film och såg inte vad som var på väg att hända. Då alarmet kom, tog hon ratten, kopplade ur automatiken och bromsade. När hennes fötter trampade på bromsen hade det gått nästan en sekund sedan kvinnan som korsade gatan hade träffats av bilen.

Här kan man ju återvända till ”Automation Del 2” (länk) och fundera på vad Bainbridge skrev om automationens ironier. När det gäller Uber-systemet och dess mjukvara så är det naturligtvis design utförd av människor vilket innebär att vi inte slipper problem med mänskliga fel för att vi automatiserar. Det är vanligt då vi automatiserar att vi lämnar övervakningen till människan trots att det inte är något människan är bra på. Därför krävs det alarm. Sådana alarm måste ges i god tid och med tydlig indikation på vad som är fel och vad som ska göras. Bainbridge pekade också på att automation ofta ökar krav på människan och leder till ökat behov av utbildning.

Det var alltså en Volvo som var inblandad i olyckan men Volvos egna säkerhetssystem var avstängt. Istället användes Ubers egna system. Det har påståtts att olyckan kunnat undvikas om Volvos system använts samtidigt som det knappast varit rimligt att låta två olika system hantera säkerheten samtidigt. Uber skriver i ett uttalande att man beklagar olyckan men nu har gjort förbättringar. Bland dessa förbättringar finns en förändrad utbildning av säkerhetsförarna och att man nu har två säkerhetsförare i varje bil! Det antyder ju att man åtminstone i någon mån ser olyckan som ett resultat av den ”mänskliga faktorn”.

Bland slutsatserna från utredningen finns också att Ubers program för självkörande bilar inte hade någon safety manager eller avdelning för operativ safety. Man har numera ändrat sin organisation för safety och infört ett system där anställda kan rapportera safety-händelser anonymt.

Här kan man återvända till Nicklas artikel kring FAA och EASA (länk) och fundera på myndigheternas roll och förmåga. Jag hittar inget som antyder att Uber inte följde myndigheternas krav. Automation och autonomi tågar snabbt in i vår vardag. Kan myndigheterna hantera detta?

Jag tror alltså inte att det är så enkelt att lämna över allt från människa teknik. Jag ser hellre att tekniken hjälper människan än att tekniken ersätter människan. Det får dock bli ämnet för ett senare inlägg.
Källor:

https://www.wired.com/story/ubers-self-driving-car-didnt-know-pedestrians-could-jaywalk/

Anders Ellerstrand: Hindsight – tidning om flygsäkerhet. Nummer 29 ute nu!

Eurocontrol påkostade tidning om flygsäkerhet kommer ut med två nummer om året och nu är det alltså dags att ta del av Hindsight 29 – https://skybrary.aero/bookshelf/books/5377.pdf

Tidningen produceras främst för flygledare men läses av många inom branschen, inte minst piloter. Titeln ”Hindsight” kan översättas till ”efterklokhet” och syftet med tidningen är bl.a. att hjälpa operativa flygledare att ta del av andra flygledares erfarenheter. Redaktör för tidningen är Steven Shorrock och han har åter lagt ner ett mycket gediget arbete på att sätta samman tidningen.

Den senast utgåvan har ”målkonflikter och kompromisser” som tema och de olika artiklarna ger många intressanta vinklar på ämnet. Du hittar en riktigt bra introduktion av Steven Shorrock och du hittar två artiklar som handlar om ”QF32”, dvs Qantas Airbus 380 där besättningen gjorde en mirakulös lyckad landning efter att en motor exploderat och orsakat hundratals fel, på bl.a. styrsystem. Bland de mer kända författarna hittar du Erik Hollnagel som skriver om osynliga kompromisser och synliga konsekvenser, samt Nippin Anand som skriver om erfarenheter från Costa Concordia. De 80 sidorna innehåller naturligtvis mycket, mycket mer!

Så småningom kommer tidningen att komma som papperstidning till de som prenumererar, men redan nu kan du alltså ladda ner den som pdf-tidning!

En eller ingen pilot på flygplanet – vill du flyga med?

En gång i tiden var det många i cockpit – minst två piloter, en en flygingenjör, en navigatör och en radiooperatör. Med tiden försvann än den ena och än den andra tills dess arr det bara var två piloter kvar. Med ny och avancerad teknologi samt automation kunde de funktioner som tidigare utfärdat av besättningsmedlemmar nu tas om hand utan dem. Det handlar nu om det verkligen behövs två piloter på flygplan, vilket inte är något nytt eftersom de flesta mindre flygplan endast har en pilot. För större flygplan och speciellt de med många passagerare är detta dock en svårare och mer känslig fråga. Ett flertal artiklar har tagit upp detta på senaret tid (länkar nedan) och detta inlägg blir kanske mer än start på att utforska denna fråga än ett svar påhugg det kommer att gå.

Frågan om single pilot operations har tagits upp tidigare på bloggen, kopplat till forskning som berört detta (länk). Det finns flera olika sätt att se på detta. Ett är att betona att de framgångar med att förbättra flygsäkerheten som lett till dagens minimala risk bygger på att ha två piloter och detta är manifesterat i procedurer såväl som i Human Factors och CRM aspekter av deras samarbete. Ett annat är passagerarpsykologi och juridiska perspektiv – oavsett teknologiska framsteg ill passagerare ha piloter i kontroll och att inte ha det skapar en oklar situation avseende ansvar för flygsäkerhet.

Mot detta finns nåde kommersiella och teknologiska drivkrafter som driver fram en utveckling mot förarlösa fordon, inte bara avresan bilar utan även för fartyg och flygplan. Det bygger förmodligen även på en vision av att väl utvecklad teknologi kan i något skede vara säkrare än människor. Det är inte svårt att se detta som ett argument när det gäller vägtrafik, men för flyg förefaller en sådan vision långt borta. Det som är svårast med en sådan vision är steget från mänskligt kontrollerade fordon till automatiserade. Det är den blandande miljön – att ha både förarstyrda och förarlösa fordon – som utgör den kanske svåraste situationen avseende att ha ett system där alla delar av det förstår varandras intentioner.

Det pågår idag utveckling mot både single pilot operations och förarlösa flygplan (länk). I båda fallen kommer försök i mindre skala sannolikt att leda till försök med mindre flygplan för att sedan gå vidare med större flygplan och i första hand fraktflyg. Det är svårt att säga på vilken tidsskala detta kommer att utspela sig eftersom det har att göra inte bara med teknologisk utveckling utan även med utveckling av regler och allmänhetens inställning samt juridiska, politiska och andra faktorer. Om olyckor inträffar kan de också få avgörande inflytande på utvecklingen.

Det mesta av intresse i dessa frågor sägs ofta informellt på konferenser eller via kontakter. Min egen bedömning baserat på sådana samtal är att single pilot operations forfarande inte kommer att vara verklighet inom det närmaste årtiondet, men att det kan att vara det i slutet av årtionden därefter. Via en start med mindre flygplan och frakt kan det sedan skalas upp mot större passagerarflygplan. Förarlösa mindre flygande farkoster utprovas redan idag i stadsmiljöer och är snart verklighet. För traditionella flygplan och deras verksamhet är det dock långt fortfarande borta, med en betydande utmaning i att lösa övergången och den blandade trafikmiljö som detta skulle innebära. Med detta sagt är det bara att vänta och se hur felaktiga dessa förutsägelser kan visa sig ha varit.

Länkar till artiklar:
Single Pilot Operations for Air Cargo a Test for Autonomous Flying
ALPA: Single-pilot Ops Not a Risk Worth Taking

Anders Ellerstrand: Automation del 3 – automation och arbetsbelastning

Automation är ofta tänkt att avlasta människan och därmed minska arbetsbelastningen med effekten att systemet får en högre kapacitet. I stora delar av luftrummet över Europa råder det idag brist på kapacitet och här finns höga förhoppningar på automation som lösningen på problemet.

Som en del i min Masters-utbildning i Human Factors fick jag göra en så kallad ”critical literature review” för att utifrån vald fråga se vilka vetenskapliga stöd som finns och jag valde frågan om automation kan minska arbestbelastning för flygledare som arbetar en-route. Här berättar jag kort vad jag fann.

NASA-studier
Fyra välgjorda NASA-studier stöder möjligheten för automation att minska arbetsbelastningen men en förutsättning är att flygledaren dels får relevant information om vad automationen gör, dels finns kvar i beslutsfattandet.
En intressant fråga är vilka funktioner som kan och ska automatiseras. NASA fann att automatisering av enklare funktioner (koordinering och överlämning) kan minska arbetsbelastning. Större uppgifter för automationen är att dels upptäcka konflikter mellan flygplan och sedan att lösa dem. Ett intressant experiment gjordes där flygledaren helt enkelt inte såg trafiken förrän automationen hade hittat en konflikt. Det var tydligt att uppgiften att lösa konflikten tog längre tid om flygledaren inte varit delaktig i att söka och upptäcka konflikter. Det visar på att automation inte bara handlar om att ersätta människan i valda delar utan att detta får påverkan på även andra uppgifter. En tredje test visade i princip att ju mer automation desto lägre arbetsbelastning men samtidigt att högst kvalitet/flygsäkerhet nåddes med ”måttlig” automation. Den fjärde testen var också ett stöd för att automation minskar arbetsbelastning.

Konfliktlösning
Automation för att upptäcka och peka ut konflikter har funnits ganska länge medan system som föreslår konfliktlösning är mer ovanliga men säkert på väg. En välgjord amerikansk studie kring automation för konfliktlösning ger visst stöd för minskad arbetsbelastning. En ny (2016) europeisk studie visade tydligt stöd för minskad arbetsbelastning med automation för konfliktlösning. Intressant här var att även om konfliktlösningen inte var helt tillförlitlig fortsatte flygledaren att använda den om än med mindre förtroende. En brist med denna studie var dock att få av deltagarna var flygledare.

Ett problem med automation är att en människa ändrar sitt arbetssätt vid ökad arbetsbelastning. Man kan öka sina marginaler eller man kan nöja sig med en bra och säker lösning istället för att söka den optimala. Sådan variation är inte typisk för automation och om automationen ger förslag som inte stämmer överens med vad flygledaren själv valt kan man förkasta det. Förslag som inte känns bra ökar dessutom belastningen eftersom de måste utvärderas. Det finns tankar på automation som anpassar sig efter situation och t.o.m. efter individ. Det är nog lättare sagt än gjort och här förutser man problem när det gäller acceptans för mer automatiserade system. Bäst acceptans får man om automationen ger förslag på lösningar som man själv skulle ha kommit fram till.

Detta leder också till en annan viktig diskussion. Ska automation anpassa sig till människan och se till så att människan är delaktig i processen eller måste automation få gå vidare och arbeta snabbare och bättre än människan för att verkligen bli till nytta? Här ser man att utvecklingen kommer att gå i olika faser, där det initialt är viktigt att människan förstår och accepterar automationen som därför behöver anpassas till människans sätt att arbeta. Ett praktiskt exempel är att man som flygledare kan lägga flygplan på parallella kurser som ett sätt att minska antalet konflikter medan automationen, med sin större förmåga att ha flera uppgifter samtidigt, kan föreslå mer optimala lösningar. På sikt kan vi därmed se ett behov av människan att anpassa sig efter automation vilket lär få påverkan på hur vi utbildar.

Slutligen visar ett stort test att automation kan öka komplexiteten och ställa större krav på systemkunskap hos flygledaren för att verkligen kunna dra nytta av automation. Så svaret på frågan är att automation kan minska arbetsbelastning – men bara om det görs med hänsyn till människan. Vill du läsa min artikel i helhet hittar du den här: länk

Anders Ellerstrand: Automation del 2 – ironier och paradoxer

En av de mest citerade artiklarna om automation är ”Ironies of Automation” från 1983 av Lisanne Bainbridge, kognitiv psykolog. Hennes artikel må vara över 35 år gammal men känns ännu relevant och citeras fortfarande.
En utgångspunkt för Bainbridge är att målet med automation oftast är att minska behovet av människan men hon påpekar direkt att även högt automatiserade system har behov av människan för övervakning, justering, underhåll och utveckling, dvs de är egentligen människa/maskin-system som är väldigt beroende av människan! Förväntningar på automation rymmer dock parodier och paradoxer.

Ironier kring design av automation
En utgångspunkt för design av automation är ofta att människan är opålitlig och ineffektiv och därför bör ersättas. Detta är förknippat med två ironier:
1. Designern är människa och designfel kan vara ett stort operativt problem.
2. Designern ersätter människan med automation så långt det är möjligt. Det som är för svårt att automatisera får människan fortfarande utföra.

Vad återstår för människan efter automation?
En vanlig uppgift som lämnas kvar åt människan är att övervaka så att automationen fungerar korrekt och att vid behov ta över om automationen fallerar. Ironin är här att skickligheten försämras om man inte använder den. En erfaren operatör som övervakar automation blir så småningom en oerfaren operatör med begränsade möjligheter att ta över. En situation som kräver mänskligt ingripande är dessutom sällan helt normal utan kräver extra skicklighet. Till detta kommer att övervakning inte är en uppgift som människan är väl lämpad för. Vi klarar helt enkelt inte av att sitta och titta/lyssna i väntan på att något ska hända. Alltså krävs en alarmfunktion och då uppstår frågan om vem som övervakar alarmfunktionen?

Lösningar
Bainbridge pekar inte bara på ironierna utan föreslår även lösningar. För att mänsklig övervakning ska fungera krävs alarm och helst ska alarmet tydligt visa vad som är fel samt vad som behöver göras.
Ett sätt att hantera svårigheten att ta över då automation fallerar är genom att träna regelbundet i t.ex. en simulator. Sådan utbildning bör dessutom vara mindre inriktad på att ”följa procedurer” utan mer på att kunna hantera ovana och oförutsedda situationer. Ironin här är att ju bättre ett automatiserat system fungerar, desto mindre naturlig erfarenhet får operatören och desto högre blir kostnaderna för simulatorer och utbildning.
Bainbridge artikel är alltså över 35 år gammal och man kan tycka att den borde vara överspelad vid det här laget. Ändå ser vi fortfarande exempel på de ironier hon pekar på. Automation bygger på mänsklig design och den är inte felfri. Kraven på människan i samband med automation ökar ofta istället för att minska och därmed följer ökat behov av utbildning.

Anders Ellerstrand: Automation del 1 – Fitts List och MABA MABA

Redan 1951 publicerades ”Fitts list”. Den kallas också MABA-MABA (Man-Are-Better-At-Machine-Are-Better-At).

Bilder från Human Engineering for an Effective Air Navigation and Traffic Control System, National Academy of Sciences, Washington, D.C., 1951.

Förenklat säger Fitts list att människan är bättre än maskinen på att:
• Uppfatta/upptäcka variationer med syn eller hörsel
• Uppfatta mönster i ljus eller ljud
• Improvisera och använda flexibla procedurer
• Lagra stor mängd information under lång tid och ta fram relevant fakta när den behövs
• Lösa problem genom slutledningar/hypoteser utifrån fakta och observationer (induktion)
• Göra bedömningar/avvägningar

På liknande sätt säger listan att maskiner är bättre än människan på att:
• Reagera snabbt på en signal
• Använda stor kraft mjukt och med precision
• Utföra upprepade rutingöromål
• Spara information under kort tid samt radera information fullständigt
• Dra slutledningar utifrån logik (deduktion), inklusive matematiska beräkningar
• Hantera komplexa uppgifter där flera olika saker behöver utföras samtidigt

Listan kan ju användas för att se till att automation görs på rätt sätt – att nyttja såväl maskinens som människans olika styrkor. Även om listan snart är 70 år gammal tror jag de flesta nickar instämmande då vi läser den. Även om tekniken har utvecklats mycket under 70 år lär människan vara sig lik.

Än idag refereras det till Fitts list men den har också kritiserats. Ibland har kritiken varit orättvis eftersom Fitts faktiskt pekar på och förutsåg många problem med introduktionen av automation. En kritik som framförts av Sidney Dekker och David Woods är att den här typen av listor leder oss fel. Utmaningen med automation inte är att allokera uppgifter på bästa sätt utan hur man får människa och maskin att arbeta bra tillsammans.

Anders Ellerstrand: Hanterar du organisationsproblem på rätt sätt?

Att skilja orden ”komplicerad” och ”komplex” åt är inte helt enkelt. Det som är komplicerat är svårt att förstå sig på men det går om man har tillräcklig kunskap och det är möjligt att förutse hur ett komplicerat system kommer att fungera i olika situationer. Ett exempel skulle kunna vara en motor i en bil, eller varför inte ett flygplan.

Det som är komplext går emellertid inte att helt förstå eller förklara även om man har mycket god kunskap. Ett komplext system agerar inte bara utifrån sina beståndsdelar utan har egenskaper som växer fram då delarna samverkar. Det betyder bl.a. att det inte går att helt förutsäga hur det kommer att bete sig. Exempel är biologiska system och ibland säger man att så fort man tar med människor i ett system så blir det komplext.

Det här betyder att problem som uppstår i ett komplext system inte kan hanteras på samma sätt som ett problem i ett komplicerat system. Detta är en grund för ett ramverk som kallas Cynefin som är skapat av Dave Snowden. Han har bl.a. jobbat många år för IBM men också grundat ”Cognitive Edge” baserat på just Cynefin. Här gör jag ett försök att kort beskriva konceptet. (Vi har haft uppe Cynefin här tidigare – länk)

Cynefin (uttalas kanevin, med betoning på ”e”), är walesiska och betyder ungefär livsmiljö. Det handlar om en struktur som kan stödja analys, beslutsfattande, projektledning osv. i en organisation. Den hjälper beslutsfattare att välja arbetssätt utifrån situation.

Cynefin beskriver olika domäner som syns i bilden ovan.

De två första domänerna är båda ordnade system, dvs de har samband mellan orsak och verkan och man kan förutse hur de kommer att fungera.

1. Ett enkelt system går att förstå av de allra flesta. Här finns ett tydligt samband mellan orsak och verkan. Det finns ett optimalt sätt att agera på – vi söker ”best practice”. Här fungerar processer utmärkt – vi hanterar liknande uppgifter på samma sätt varje gång. Då vi uppfattar ett problem kan vi kategorisera det och bestämma hur det ska åtgärdas. Vi uppfattar – kategoriserar – reagerar.

2. Ett komplicerat system har fortfarande ett samband mellan orsak och verkan men det kan vara svårt att se och förstå. Då vi uppfattar att vi har problem måste detta analyseras och för det behövs experter. Det finns inte en självklart bästa lösning utan flera – vi söker en som är tillräckligt bra. Vi uppfattar – analyserar – reagerar.

3. Ett komplext system har är inte förutsägbart utan effekterna av händelser är ”framväxande”. Sambandet mellan orsak och verkan är bara synligt i efterhand. Verkan är inte förutsägbar utan framväxande. Det betyder att problem inte har någon självklar lösning eftersom vi inte kan förutse effekten. Vi får istället prova oss fram, göra tester. Om det faller väl ut kan vi förstärka och gå vidare, annars får vi dämpa och prova något annat. Det betyder att då vi går in och förändrar bör ha förberett strategier för att såväl fortsätta som att t.ex. kunna backa tillbaka. Ett komplext system är inte lämpat för alltför central styrning, istället behövs nätverk med god kommunikation. Vi sonderar – uppfattar – reagerar.

4. Ett kaotiskt system ger ingen möjlighet att fastställa samband mellan orsak och verkan. Man kan välja att befinna sig här för innovation men hamnar man här oavsiktligt krävs snabba åtgärder för att stabilisera situationen. Allt vi gör här är oprövat och oförutsägbart. Vi agerar – uppfattar – reagerar.

I mitten av bilden ovanför finns ett gult fält – det är ”oordning”. Det symboliserar att vi ofta inte är på det klara med i vilken domän vi befinner oss. Enligt Snowden har vi en tendens att tolka situationen utifrån våra erfarenheter och utifrån hur vi är mest bekväma att agera:

• Har du erfarenhet av enkla (byråkratiska) system tenderar du att se problem som brister i processer.

• Är du ämnesexpert ser du problem som resursbrist som gör att analysen är otillräcklig.

• Har du erfarenhet av komplexa system tenderar du att samla arbetsgrupper i hopp om att någon ska komma på en lösning.

• Uppfattar du kaos vill du ha en befälhavare som kan beordra alla utan att bli ifrågasatt.

Med kunskap om Cynefin får du en ökad möjlighet att förstå i vilken domän ett problem hör hemma:
• Detta är komplext – hur kan vi prova oss fram?
• Detta är komplicerat – vilken expert behöver vi nu?

Slutligen betonar Snowden att gränserna mellan domäner innebär gradvisa övergångar – men med ett viktigt undantag! Ytan mellan enkelt och kaotiskt är en avsats. Om du tror att ditt system är enkelt och välordnat, om du tror på dina egna ”myter” eller om du tror att tidigare framgång gör dig osårbar – ja, då förflyttar du dig till en slags självbelåten zon nära gränsen mellan den enkla och den kaotiska domänen där du kan falla ”över kanten” in i en kris. Att ta sig ur detta är svårt och blir gärna kostsamt.

Snowdens slutsats är att man bör försöka hantera sitt system inom de komplicerade och komplexa domänerna.

Titta gärna på YouTube:

Själv tycker jag Cynefin är lite svårt att helt förstå men samtidigt intressant och fascinerande. Det arrangeras regelbundet konferenser kring Cynefin och jag hoppas få möjlighet att besöka en sådan snart för att lära mig mer.

Anders Ellerstrand: Human Factors – utbildning del 4; Kurser och konferenser

För den som vill öka sin kunskap inom HF utan att binda upp sig i en mer omfattande och långvarig utbildning finns det många möjligheter. Jag tänkte här nämna några som jag hittat.

EAAP
Bland det första jag hittade när jag sökte efter utbildningar var ”European Association for Avoiation Psychology” (EAAP). På deras hemsida hittade jag en utbildning som verkade intressant och blev medlem i föreningen. Jag gick sedan kursen ”Human Factors in Flight Safety course” i Barcelona juni 2017 (http://lusa.one/2017/06/20/rapport-fran-anders-ellerstrand-eaap-human-factors-training-i-barcelona/). Det var en väldigt gedigen och trevlig kurs med två ytterst kvalificerade instruktörer; Rob Lee (avled tyvärr för en tid sedan) och Brent Hayward, båda från Australien. Brent brukar synas som instruktör på IANS i Luxemburg då och då. Jag har fortfarande kontakten med flera på kursen och brukar möta några av dem på olika kurser och konferenser. Det var även via EAAP jag hittade den MSc-kurs jag gått vid Coventry Uni. Vartannat år har EAAP sedan länge ordnat en sommarvecka i Graz där jag deltagit två gånger. Mycket trevligt, med varierande utbud av föredrag och även kortare kurser. Graz-epoken verkar nu vara över men vi hoppas på fortsättning någon annanstans. EAAP ordnar även en konferens vartannat år; en vecka med mängder av föredrag och ofta med föreläsare av hög klass. Jag deltog i Dubrovnik 2018 (länk) och ser fram emot nästa.

Amsterdam University
Sedan några år tillbaka anordnas en konferens i Amsterdam; ”International Cross-industry Safety Conference” (ICSC). Här diskuteras säkerhet inom många olika branscher. Jag deltog 2017 (länk) och kommer att vara med i oktober i år.

Universitet anordnar även utbildningar av olika slag och i januari i år var jag i Amsterdam för en ”Master Class Human Factors & Safety” med Robert J. de Boer och Sidney Dekker som instruktörer.

CIEHF
Chartered Institute of Ergonomics and Human Factors är en stor och seriös brittisk organisation. Som medlem får man en tidning; ”The Ergonomist” med artiklar med HF-anknytning.

sdr

Organisationen ordnar också konferenser och jag deltog i en; ”Human Factors in Aviation” på Gatwick i november 2018. Jag hoppas kunna åka till nästa som går i Stratford-upon-Avon i april nästa år.

SafetySynthesis
SafetySynthesis är en hemsida som skapats av Erik Hollnagel för att vara en knutpunkt för sådant som Resilience Engineering, Functional Resonance Analysis Modelling (FRAM), Resilience Analysis Grid (RAG) och Safety-II. Man anordnade en workshop kring Safety-II i Cardiff i juni 2018 som jag deltog i. Jag missade uppföljaren i Lissabon i maj i år men hoppas det blir fler tillfällen.

REA
Resilience Engineering Association är grundat av flera personer, bl.a. Erik Hollnagel, David D. Woods, Richard Cook och Sidney Dekker. Man har haft ett antal symposier och jag deltog i den åttonde som hölls i Kalmar i juni i år. Det var mycket intressant med 140 deltagare från hela världen. I Kalmar valdes bl.a. en ny styrelse med Ivonne Herrera som ny president och det kändes som att det finns ambitioner att försöka få i gång fler aktiviteter och en hemsida med diskussioner. Blir intressant att se vad som kommer ut av detta.

HFN
Slutligen tar jag upp det svenska ”Human Factors Network” som jag inte tror är så väldigt aktivt men som varje år anordnar en konferens. Jag har varit med två gånger och hoppas kunna vara med även i år. Det brukar innebära bra föreläsningar och intressanta möten med HF-intresserade från olika branscher.

Det finns så klart långt mycket mer att upptäcka än det jag hittat. Att åka iväg på en kurs eller konferens innebär att man får möjlighet att ta till sig nya intryck och ny kunskap. Minst lika viktigt är att träffa människor som delar intresset för Human Factors. Genom att resa iväg får man möjlighet att bygga ett värdefullt nätverk av HF-kontakter.

Anders Ellerstrand

Anders Ellerstrand: Human Factors – utbildning del 3; Coventry University

Ett alternativ till utbildningen i Lund är ju att gå en Masters-utbildning på ett annat universitet. Det finns säkert flera att välja på men jag ”snubblade” ganska tidigt över den som ges av Coventry University i England. Främsta skälet var till en början att jag här lagligt kunde betala för utbildningen själv. Här accepteras också min flygledarutbildning som motsvarande ”bachelor degree” och jag får alltså en MSc. En annan skillnad i förhållande till utbildningen i Lund är att detta är en utbildning för ”Human Factors in Aviation” och alltså hämtar exempel och uppgifter helt från flygbranschen. Det betyder också att mina kurskamrater har en bakgrund inom flyget – piloter, flygvärdinnor, flygledare och ingenjörer från hela världen. Innebär säkert såväl fördelar som nackdelar.

Jag gjorde viss research och kom fram till att det nog var en utbildning av god kvalitet. Professor här är Don Harris som skrivit flera böcker och papper, bl.a. kring design av cockpit, och som jag senare lärt uppskatta som en kunnig och trevlig person. Kursdirektör och assisterande professor är Dr Rebecka Grant, som bl.a. arbetat mycket med situationen för kabinpersonal och passagerare. När jag bestämt mig fick jag göra en telefonintervju på ca en timme för att bli ”godkänd”. Det handlade nog bl.a. om språkkunskaper (de fick jag även dokumentera och skicka in) men också om inställning och förmåga att ge sig in på akademiska studier utan att ha gjort det tidigare.

Kursen är upplagd som distansutbildning på halvfart under två år. Det finns inga krav på att besöka Coventry. Kursen är uppdelad på åtta moduler om sju veckor vardera. Varje modul har 1-3 inlämningsuppgifter av olika omfattning. Som regel finns det en statistik-övning bland dessa. Sist kommer en mer omfattande modul som varar 28 veckor. Det är en ganska stor forskningsuppgift som ska utmynna i en avhandling på 10 000 ord samt en poster som kortfattat beskriver avhandlingen.

Ordningen på modulerna kan variera men för mig såg det ut så här:
1. Human Information Processing
2. Decision Making and Error in Aviation
3. Flight Deck Design
4. Selection, Stress and Stressors
5. Training and Simulation
6. Critical Literature Review
7. Crew Resource Management
8. Human Factors and Safety Management
9. Research Project

Alla inlämningsuppgifter rättas och betygssätts och varje modul måste ge godkänt resultat. Betygen ges i procent och 40 % är minimum för godkänt. Om man vid kursens slut har ett snitt på minst 60 % kan man få ”Merit” och med minst 70 % ”Distinction”.

Jag påbörjade kursen september 2017 och lämnade in min avhandling augusti 2019. För kort tid sedan fick jag besked om att den var godkänd. Jag kommer att åka till Coventry i november (frivilligt) för att iklädd fyrkantig hatt motta mitt diplom!

Utan att ha något att jämföra med uppfattar jag kursen på Coventry som ganska traditionell men gedigen och jag tycker jag har fått sätta mig in i mycket och att inlämningsuppgifterna låtit mig tillämpa kunskaperna brett. Det har varit ganska tufft att under två år jobba heltid och plugga halvtid. Man disponerar dock de sju veckorna per modul tämligen fritt så vissa veckor har jag inte pluggat alls medan det andra veckor blivit mer.

Bilden ovan: jag och mina två handledare; Rebecca Grant och Dale Richards

Man blir lätt ensam då man pluggar på distans men vi var fyra på kursen som tidigt bildade en WhatsApp-grupp där vi stöttat varandra och kunnat ha bra diskussioner. En av dem har jag träffat på en konferens och sedan sammanstrålade vi i Coventry i juni i år då vi även träffade våra respektive handledare för avhandlingen. Vi kommer att träffas igen i november på ceremonin då vi får våra diplom.

Anders Ellerstrand

Anders Ellerstrand: Automation del 3 – automation och arbetsbelastning

Automation är ofta tänkt att avlasta människan och därmed minska arbetsbelastningen med effekten att systemet får en högre kapacitet. I stora delar av luftrummet över Europa råder det idag brist på kapacitet och här finns höga förhoppningar på automation som lösningen på problemet.

Som en del i min Masters-utbildning i Human Factors fick jag göra en så kallad ”critical literature review” för att utifrån vald fråga se vilka vetenskapliga stöd som finns och jag valde frågan om automation kan minska arbestbelastning för flygledare som arbetar en-route. Här berättar jag kort vad jag fann.
NASA-studier

Fyra välgjorda NASA-studier stöder möjligheten för automation att minska arbetsbelastningen men en förutsättning är att flygledaren dels får relevant information om vad automationen gör, dels finns kvar i beslutsfattandet.

En intressant fråga är vilka funktioner som kan och ska automatiseras. NASA fann att automatisering av enklare funktioner (koordinering och överlämning) kan minska arbetsbelastning. Större uppgifter för automationen är att dels upptäcka konflikter mellan flygplan och sedan att lösa dem. Ett intressant experiment gjordes där flygledaren helt enkelt inte såg trafiken förrän automationen hade hittat en konflikt. Det var tydligt att uppgiften att lösa konflikten tog längre tid om flygledaren inte varit delaktig i att söka och upptäcka konflikter. Det visar på att automation inte bara handlar om att ersätta människan i valda delar utan att detta får påverkan på även andra uppgifter. En tredje test visade i princip att ju mer automation desto lägre arbetsbelastning men samtidigt att högst kvalitet/flygsäkerhet nåddes med ”måttlig” automation. Den fjärde testen var också ett stöd för att automation minskar arbetsbelastning.

Konfliktlösning
Automation för att upptäcka och peka ut konflikter har funnits ganska länge medan system som föreslår konfliktlösning är mer ovanliga men säkert på väg. En välgjord amerikansk studie kring automation för konfliktlösning ger visst stöd för minskad arbetsbelastning. En ny (2016) europeisk studie visade tydligt stöd för minskad arbetsbelastning med automation för konfliktlösning. Intressant här var att även om konfliktlösningen inte var helt tillförlitlig fortsatte flygledaren att använda den om än med mindre förtroende. En brist med denna studie var dock att få av deltagarna var flygledare.

Ett problem med automation är att en människa ändrar sitt arbetssätt vid ökad arbetsbelastning. Man kan öka sina marginaler eller man kan nöja sig med en bra och säker lösning istället för att söka den optimala. Sådan variation är inte typisk för automation och om automationen ger förslag som inte stämmer överens med vad flygledaren själv valt kan man förkasta det. Förslag som inte känns bra ökar dessutom belastningen eftersom de måste utvärderas. Det finns tankar på automation som anpassar sig efter situation och t.o.m. efter individ. Det är nog lättare sagt än gjort och här förutser man problem när det gäller acceptans för mer automatiserade system. Bäst acceptans får man om automationen ger förslag på lösningar som man själv skulle ha kommit fram till.

Detta leder också till en annan viktig diskussion. Ska automation anpassa sig till människan och se till så att människan är delaktig i processen eller måste automation få gå vidare och arbeta snabbare och bättre än människan för att verkligen bli till nytta? Här ser man att utvecklingen kommer att gå i olika faser, där det initialt är viktigt att människan förstår och accepterar automationen som därför behöver anpassas till människans sätt att arbeta. Ett praktiskt exempel är att man som flygledare kan lägga flygplan på parallella kurser som ett sätt att minska antalet konflikter medan automationen, med sin större förmåga att ha flera uppgifter samtidigt, kan föreslå mer optimala lösningar. På sikt kan vi därmed se ett behov av människan att anpassa sig efter automation vilket lär få påverkan på hur vi utbildar.

Slutligen visar ett stort test att automation kan öka komplexiteten och ställa större krav på systemkunskap hos flygledaren för att verkligen kunna dra nytta av automation. Så svaret på frågan är att automation kan minska arbetsbelastning – men bara om det görs med hänsyn till människan. Vill du läsa min artikel i helhet hittar du den här: länk.