Hem » Human Factors

Kategoriarkiv: Human Factors

Anders Ellerstrand: Automation del 5 – ersätta eller hjälpa?

Här vill jag ta upp några egna reflektioner kring detta med automation, med tillbakablickar på tidigare blogg-inlägg.

I ett tidigare blogg-inlägg (Automation del 1 – Fitts List och MABA MABA) nämndes att Dekker och Woods kritiserat Fitts List eftersom den leder oss fel. Utmaningen med automation är inte att allokera uppgifter på bästa sätt utan hur man får människa och maskin att arbeta bra tillsammans.

Att detta är en utmaning som dessutom är svår kan man förstå. I ett tidigare inlägg (Automation del 4 – är det så enkelt?) såg vi hur en självkörande bil inte kunde hantera en människa som agerade utanför mjukvarans definitioner. En människa som leder en cykel och korsar en väg där det saknas övergångsställe fanns inte med som en möjlighet.

Om man arbetar med tekniska lösningar för automation är det nog lätt att se människan som problemet. En människa är inte förutsägbar på samma sätt som teknik oftare är. Det gör ju att varje situation får fler möjligheter att ta hänsyn till. Det är ganska lätt att komma till slutsatsen att det bästa vore fullständigt autonoma system där man inte behöver ta hänsyn till mänsklig variation. Som vi redan sett (Automation del 2 om automationens ironier) så finns det dock knappast några system som inte har gränsytor mot människor – i t.ex. design, tillverkning, underhåll och utveckling. På liknande sätt kan den som t.ex. arbetar med människor se automation som något negativt med krav på kompetensutveckling eller som något som förtar arbetsglädjen.

Precis som Dekker och Woods säger är utmaningen att få människa och maskin att arbeta bra tillsammans. För att lyckas med det krävs en systemsyn där man tittar på helhet istället för delar. Där passar tankarna på ett distribuerat kognitivt system (se separat blogginlägg om detta) väl in. Använder man systemsyn då man studerar ett distribuerat kognitivt system så inser man också att minst lika viktigt som delarna är interaktionen mellan delarna och då hamnar man på ett område som är högintressant för denna blogg – Human Factors. I ett tidigare blogginlägg (Human Factors – vad är det?) refererade jag till ett blogginlägg av Steven Shorrock som presenterade fyra varianter av Human Factors där den fjärde varianten pekar på just behovet av ”socio-teknisk systeminteraktion” där design ska se på gränsytor mellan människor och miljö, inklusive teknik med automation.

Ur ett Human Factors perspektiv ska design alltid arbeta med dubbla mål – att förbättra systemets prestanda samt att förbättra människans välbefinnande. Med ett sådant perspektiv tror jag inte man har som mål att låta automation ersätta människan. Istället ska automation vara en del i ett socio-tekniskt system där det viktiga är hela systemets prestanda. Automationen och människan ska stödja varandra på ett sätt som gör arbetet positivt för människan. Automation ska inte ses som ett hot mot människan utan något som gör jobbet roligare och som gör det möjligt att prestera bättre.

Det finns nog anledning att återkomma till automation här på bloggen … 😉

NOTAMs – kan det äntligen bli en förändring?

NOTAMs – Notice to Airmen – är den information om olika förhållanden längs en rutt eller på en plats som kan påverka flygsäkerheten. Så långt är allt väl, men alla som tvingas läsa dessa varje dag de är ute och flyger vet hur problematiskt det är med formatet och läsbarheten. Det handlar om ett format som togs fram för att fungera med den teknologi som fanns för hundra år sedan och som som inte anpassats till utvecklingen därefter. Speciellt på längre rutter blir de mängder med NOTAMs som finns mycket svåra att ta sig igenom utan att det finns risk för att missa något som kan vara viktigt.

Det är pålitliga sajten AINonline som nyligen skrivit om detta (länk nedan). Ämnet har tidigare tagits upp här på bloggen (länk) och har länge varit ett av de minst uppmärksammade men mest problematiska av utmaningar för flygindustrin. Det är nog få piloter som inte någon gång under sin karriär svurit över NOTAMs.

NOTAMs har vid flera tillfällen tagits upp som en bidragande orsak till incidenter, till exempel 2017 då Air Canada 759 var nära att landa på en taxibana på flygplatsen i San Francisco. I sin rapport om händelsen konstaterade den amerikans haveriutredningsmyndigheten NTSB att NOTAMs ofta är oläsliga och ignoreras samt rekommenderade att ett bättre system för att förmedla denna typ av information tas fram.

Till det som har hänt nu – nyligen beslutades det i representanthuset i USA att NOTAMs ska förbättras. Detta ska först tas upp i senaten, men ett positivt beslut förväntas där. Uppgiften att utföra arbetet kommer sedan att gå till den amerikanska luftfartsmyndigheten FAA. En grupp av experter kommer att sättas samman och en tidsperiod på 18 månader bedöms som en rimlig förväntan på detta arbete. Det betonas att gruppen av experter ska inkludera Human Factors expertis för att få till ett fungerande och säkert system.

Det är inte runt hörnet att flygindustrin äntligen får till en bättre lösning avseende NOTAMs, men detta är i alla fall ett första steg. Det återstår att se om en ny lösning kan tas fram och om den kan ta sig igenom de tekniska, administrativa och andra hinder som kan komma att försvåra detta projekt.

Länk till artikel:
Bill To Improve Notam System Takes Step Forward

Anders Ellerstrand: Ett distribuerat kognitivt system

Jag har svårt att tänka mig att rubriken lockade till läsning, men eftersom du nu har börjat ska jag försöka hålla dig kvar genom att säga att det handlar om din vardag och ditt arbete.

En synonym för ordet distribuera kan vara fördela. Kognition betyder att det handlar om tänkande, kunskap, information. Distribuerad kognition innebär att vi använder vår omgivning som hjälp för kognitiva funktioner. Vardagliga exempel kan vara att göra en inköpslista när vi går och handlar eller att vi skriver upp släktens födelsedagar på en väggkalender. Dessa anteckningar hjälper oss att minnas, vilket är en kognitiv funktion.

Ett distribuerat kognitivt system är alltså ett system där tänkandet är fördelat. Inom kognitiv vetenskap utgår man oftast från en individ, men vill vi förstå arbete så är det sällan resultatet beror bara på en individ. Ett exempel är ett flygplans cockpit. Flygningens framgång beror på ett samarbete mellan två piloter och de tekniska system de arbetar med. Man kan säga att en cockpits kognitiva egenskaper skiljer sig från en enskild pilots kognitiva egenskaper.

För snart 25 år sedan skrev Edwin Hutchins (University of Californa) den idag klassiska artikeln ”How a Cockpit Remembers Its Speeds” där han lade grunden till ett teoretiskt ramverk för ett distribuerat socio-tekniskt system. Han använde en DC-9 cockpit som exempel. Då inflygningen planeras ska relevant fart beräknas för olika skeenden under inflygningen och landningen. De olika farterna beror på flygplanets aktuella vikt. För att minnas de olika farterna markeras dessa på hastighetsmätaren med ”speed bugs”.

Denna hjälp att minnas kan jämföras med din handlingslista i affären. I en cockpit har piloterna var sin uppsättning av instrument så markeringarna måste göras på båda sidor och jämföras så att de är lika vilket möjliggör för piloterna att hjälpa varandra att minnas.

Konceptet går naturligtvis att hitta på fler arbetsplatser. Själv tänker jag på en kontrollcentral där två flygledare jobbar i en sektor och bildar ett system som liknar en cockpit. Då jag började arbeta som flygledare skrev jag ner klareringar på en bit papper monterad i en plasthållare. Idag matas klareringen in i ett tekniskt system men en av funktionerna är fortfarande att det hjälper flygledaren att komma ihåg vilken klarering som gavs.

Naturligtvis finns det många fler exempel på distribuerad kognition där människor och maskin tillsammans gör det möjligt att t.ex. ständigt bli avbruten och ändå kunna återgå och slutföra en uppgift. Tekniska alarm och kollegans hjälp att fokusera på rätt saker kan vara andra exempel.

Detta synsätt fokuserar på behovet av systemsyn. När vi t.ex. vill förbättra flygning eller flygtrafikledning kan vi inte isolerat förbättra teknik genom mer automation eller personal genom bättre utbildning. Förändringen behöver utgå från en förståelse av hur det distribuerade kognitiva systemet fungerar. Tekniska förändringar måste ta hänsyn till de människor som ska använda det och utbildning måste ta hänsyn till tekniska system. Det är viktigt att förstå och ta hänsyn till relationer och gränsytor inom systemet.

Ett problem, som Hutchins pekade på, är att det är relativt lätt att se och förstå det tekniska systemets möjligheter och begränsningar. I en cockpit är ”speed bugs” enkla att observera och arbeta med. Hur piloterna minns de aktuella farterna har vi svårare att observera och svårare att förstå hur vi kan utveckla.

Jag vet att Lunds Universitet nyligen slutfört en artikel som arbetat vidare på Hutchins gamla klassiker och introducerat nya sätt att se på det distribuerade kognitiva systemet i en cockpit. Kanske kan Nicklas övertyga någon av författarna att berätta om det här på bloggen?

Kris! Därefter femton minuter till första meddelande…

Hur kan dåliga nyheter hanteras i en tid när nyheter sprids snabbare än någonsin tidigare? Detta är en stor och svår fråga för många organisationer, men speciellt för flygbolag och deras hantering av incidenter och haverier. Det finns alltid mediaintresse för dramatiska händelser med flyg och därför måste varje flygbolag ha planer för hur sådan händelser ska hantera även avseende media. I en intressant artikel på sajten itproportal.com (länk nedan) tas detta upp med fokus på dagens situation och hur nyheter snabbt sprids via informella kanaler.

Qantas flight QF 32 med en Airbus A380 hade 2010 en brand i en motor fyra minuter efter takeoff från Singapore. När flygplanet landade på samma flygplats nittio minuter senare rapporterades det redan från flera nyhetskanaler att flygplanet havererat. Dessa uppgifter baserades på bilder och kommentarer från sociala medier, på vilka det fanns uppgifter flygplansdelar på marken, rapporter om en explosion i luften och flera platser i Indonesien där flygplanet kraschat. Inget av detta var sant men så fort och vilt spred sig denna typ av ”nyheter”.

Som gensvar på denna nya situation har IATA nyligen publicerat riktlinjer avseende kriskommunikation samt hantering av anseende och varumärke för flygbolag. Enligt dessa riktlinjer kan ett flygbolags anseende och kommersiella verksamhet komma till allvarlig skada om det inte reagerar snabbt. Rapporten uppger att med ”snabbt” avses att en reaktion inte kan låta vänta på sig längre än femton minuter. Därefter kan spridningen av rykten och kommentarer, med eller utan grund i verkligheten, ha tagit över nyhetsflödet.

Detta är en helt ny verklighet jämfört med den ”Golden Hour” som tidigare rekommenderades. Denna tidsram gav möjlighet till att aktivera krisplaner, samla krisledningen, bekräfta händelser och detaljer samt formulera ett svar. Allt detta tillhör nu en svunnen tid. Strategin som rekommenderas numera är ”always on”, d.v.s. att flygbolag alltid måste lyssna och vara beredd att reagera på händelser via sociala medier.

Detta innebär att för alla operatörerna, utom de riktigt små, som har någon form av operationell kontrollcentral så måste denna också kunna följa och hantera media, inklusive sociala. Enligt artikeln har t.ex. American Airlines sådana roller för personal i sin kontrollcentral. Med tidsmarginaler på minuter kan man ändå fundera lite kring risken att det kan bli fel. Det finns nog dock inga andra alternativ – om inte flygbolaget själv tar initiativ avseende vad som kommuniceras om en händelse så kommer ändå att kommuniceras om den. En redan svår uppgift har därmed blivit så mycket svårare.

Länk till artikel:
The era of always on crisis communications for the aviation industry has arrived

Anders Ellerstrand: Automation del 4 – är det så enkelt?

Jag kan avslöja redan nu att jag avser besvara frågan med ett ”nej”…

Utgångspunkten är en händelse i Arizona, 18 mars 2016. En självkörande Volvo XC90 körde under mörker på en människa med en hastighet av 70 kilometer i timmen. Offret, en 49-årig kvinna som ledde en cykel, kastades iväg 20 meter och dog. Olyckan har utretts under 20 månader av US National Safety Transportation Board, NTSB och det hela har naturligtvis uppmärksammats. Detta inlägg bygger på två artiklar (länkar finns i slutet av detta inlägg).

Bilen var en av Ubers app-taxibilar. Den hade dels en radar som upptäckte kvinnan drygt 5 sekunder före olyckan, dels en s.k. lidarsensor som upptäckte kvinnan något senare. Det gav egentligen gott om tid att undvika olyckan. Systemet gjorde dock först en analys av vad den upptäckt och klassade kvinnan först som ”bil”, sedan som ”övrigt objekt”, sedan tillbaka som ”bil”, tillbaka till ”övrigt objekt”, sedan till ”cykel”, åter till ”övrigt objekt” och slutligen tillbaka till ”cykel”. För varje ny klassning, startades en ny process för att analysera vart det upptäckta objektet var på väg. Dessa olika klassningar ledde till att systemet inte kunde bedöma vart objektet var på väg och till att inbromsning inte var nödvändig.

Att systemet aldrig klassade kvinnan som en människa berodde på att det inte letade efter människor annat än vid övergångsställen. Att människor skulle kunna korsa en väg utanför övergångsställen var inte en möjlighet för systemet som alltså saknade en möjlighet att identifiera kvinnan som människa.

Den som vill kan här återvända till ”Automation Del 1” (länk) för att läsa om vad Fitts list har att säga om vad människan är bra på. Även om en människa kan ha svårt att t.ex. se en mörkklädd person i mörker så har vi god förmåga att uppfatta variationer och mönster. Vi kan också dra slutsatser från våra observationer, vi kan göra bedömningar även utifrån bristande underlag och vi kan improvisera och vara flexibla.

Det verkar som att Uber var så oroliga för falsklarm (onödiga inbromsningar) att man lagt in en fördröjning på en sekund från identifierad risk för kollision till inbromsning. Först 1,2 sekunder före kollisionen förstod systemet att bilen skulle träffa kvinnan, att en undanmanöver inte var möjlig och att nödinbromsning var nödvändig. Med en sekunds fördröjning startade nödinbromsningen alltså 0,2 sekunder innan kollision och ett alarm startade i bilen.

Sista säkerhetsnätet var den säkerhetsförare som fanns ombord. Hon lär dock ha tittat på film och såg inte vad som var på väg att hända. Då alarmet kom, tog hon ratten, kopplade ur automatiken och bromsade. När hennes fötter trampade på bromsen hade det gått nästan en sekund sedan kvinnan som korsade gatan hade träffats av bilen.

Här kan man ju återvända till ”Automation Del 2” (länk) och fundera på vad Bainbridge skrev om automationens ironier. När det gäller Uber-systemet och dess mjukvara så är det naturligtvis design utförd av människor vilket innebär att vi inte slipper problem med mänskliga fel för att vi automatiserar. Det är vanligt då vi automatiserar att vi lämnar övervakningen till människan trots att det inte är något människan är bra på. Därför krävs det alarm. Sådana alarm måste ges i god tid och med tydlig indikation på vad som är fel och vad som ska göras. Bainbridge pekade också på att automation ofta ökar krav på människan och leder till ökat behov av utbildning.

Det var alltså en Volvo som var inblandad i olyckan men Volvos egna säkerhetssystem var avstängt. Istället användes Ubers egna system. Det har påståtts att olyckan kunnat undvikas om Volvos system använts samtidigt som det knappast varit rimligt att låta två olika system hantera säkerheten samtidigt. Uber skriver i ett uttalande att man beklagar olyckan men nu har gjort förbättringar. Bland dessa förbättringar finns en förändrad utbildning av säkerhetsförarna och att man nu har två säkerhetsförare i varje bil! Det antyder ju att man åtminstone i någon mån ser olyckan som ett resultat av den ”mänskliga faktorn”.

Bland slutsatserna från utredningen finns också att Ubers program för självkörande bilar inte hade någon safety manager eller avdelning för operativ safety. Man har numera ändrat sin organisation för safety och infört ett system där anställda kan rapportera safety-händelser anonymt.

Här kan man återvända till Nicklas artikel kring FAA och EASA (länk) och fundera på myndigheternas roll och förmåga. Jag hittar inget som antyder att Uber inte följde myndigheternas krav. Automation och autonomi tågar snabbt in i vår vardag. Kan myndigheterna hantera detta?

Jag tror alltså inte att det är så enkelt att lämna över allt från människa teknik. Jag ser hellre att tekniken hjälper människan än att tekniken ersätter människan. Det får dock bli ämnet för ett senare inlägg.
Källor:

https://www.wired.com/story/ubers-self-driving-car-didnt-know-pedestrians-could-jaywalk/

Anders Ellerstrand: Hindsight – tidning om flygsäkerhet. Nummer 29 ute nu!

Eurocontrol påkostade tidning om flygsäkerhet kommer ut med två nummer om året och nu är det alltså dags att ta del av Hindsight 29 – https://skybrary.aero/bookshelf/books/5377.pdf

Tidningen produceras främst för flygledare men läses av många inom branschen, inte minst piloter. Titeln ”Hindsight” kan översättas till ”efterklokhet” och syftet med tidningen är bl.a. att hjälpa operativa flygledare att ta del av andra flygledares erfarenheter. Redaktör för tidningen är Steven Shorrock och han har åter lagt ner ett mycket gediget arbete på att sätta samman tidningen.

Den senast utgåvan har ”målkonflikter och kompromisser” som tema och de olika artiklarna ger många intressanta vinklar på ämnet. Du hittar en riktigt bra introduktion av Steven Shorrock och du hittar två artiklar som handlar om ”QF32”, dvs Qantas Airbus 380 där besättningen gjorde en mirakulös lyckad landning efter att en motor exploderat och orsakat hundratals fel, på bl.a. styrsystem. Bland de mer kända författarna hittar du Erik Hollnagel som skriver om osynliga kompromisser och synliga konsekvenser, samt Nippin Anand som skriver om erfarenheter från Costa Concordia. De 80 sidorna innehåller naturligtvis mycket, mycket mer!

Så småningom kommer tidningen att komma som papperstidning till de som prenumererar, men redan nu kan du alltså ladda ner den som pdf-tidning!

En eller ingen pilot på flygplanet – vill du flyga med?

En gång i tiden var det många i cockpit – minst två piloter, en en flygingenjör, en navigatör och en radiooperatör. Med tiden försvann än den ena och än den andra tills dess arr det bara var två piloter kvar. Med ny och avancerad teknologi samt automation kunde de funktioner som tidigare utfärdat av besättningsmedlemmar nu tas om hand utan dem. Det handlar nu om det verkligen behövs två piloter på flygplan, vilket inte är något nytt eftersom de flesta mindre flygplan endast har en pilot. För större flygplan och speciellt de med många passagerare är detta dock en svårare och mer känslig fråga. Ett flertal artiklar har tagit upp detta på senaret tid (länkar nedan) och detta inlägg blir kanske mer än start på att utforska denna fråga än ett svar påhugg det kommer att gå.

Frågan om single pilot operations har tagits upp tidigare på bloggen, kopplat till forskning som berört detta (länk). Det finns flera olika sätt att se på detta. Ett är att betona att de framgångar med att förbättra flygsäkerheten som lett till dagens minimala risk bygger på att ha två piloter och detta är manifesterat i procedurer såväl som i Human Factors och CRM aspekter av deras samarbete. Ett annat är passagerarpsykologi och juridiska perspektiv – oavsett teknologiska framsteg ill passagerare ha piloter i kontroll och att inte ha det skapar en oklar situation avseende ansvar för flygsäkerhet.

Mot detta finns nåde kommersiella och teknologiska drivkrafter som driver fram en utveckling mot förarlösa fordon, inte bara avresan bilar utan även för fartyg och flygplan. Det bygger förmodligen även på en vision av att väl utvecklad teknologi kan i något skede vara säkrare än människor. Det är inte svårt att se detta som ett argument när det gäller vägtrafik, men för flyg förefaller en sådan vision långt borta. Det som är svårast med en sådan vision är steget från mänskligt kontrollerade fordon till automatiserade. Det är den blandande miljön – att ha både förarstyrda och förarlösa fordon – som utgör den kanske svåraste situationen avseende att ha ett system där alla delar av det förstår varandras intentioner.

Det pågår idag utveckling mot både single pilot operations och förarlösa flygplan (länk). I båda fallen kommer försök i mindre skala sannolikt att leda till försök med mindre flygplan för att sedan gå vidare med större flygplan och i första hand fraktflyg. Det är svårt att säga på vilken tidsskala detta kommer att utspela sig eftersom det har att göra inte bara med teknologisk utveckling utan även med utveckling av regler och allmänhetens inställning samt juridiska, politiska och andra faktorer. Om olyckor inträffar kan de också få avgörande inflytande på utvecklingen.

Det mesta av intresse i dessa frågor sägs ofta informellt på konferenser eller via kontakter. Min egen bedömning baserat på sådana samtal är att single pilot operations forfarande inte kommer att vara verklighet inom det närmaste årtiondet, men att det kan att vara det i slutet av årtionden därefter. Via en start med mindre flygplan och frakt kan det sedan skalas upp mot större passagerarflygplan. Förarlösa mindre flygande farkoster utprovas redan idag i stadsmiljöer och är snart verklighet. För traditionella flygplan och deras verksamhet är det dock långt fortfarande borta, med en betydande utmaning i att lösa övergången och den blandade trafikmiljö som detta skulle innebära. Med detta sagt är det bara att vänta och se hur felaktiga dessa förutsägelser kan visa sig ha varit.

Länkar till artiklar:
Single Pilot Operations for Air Cargo a Test for Autonomous Flying
ALPA: Single-pilot Ops Not a Risk Worth Taking

Anders Ellerstrand: Automation del 3 – automation och arbetsbelastning

Automation är ofta tänkt att avlasta människan och därmed minska arbetsbelastningen med effekten att systemet får en högre kapacitet. I stora delar av luftrummet över Europa råder det idag brist på kapacitet och här finns höga förhoppningar på automation som lösningen på problemet.

Som en del i min Masters-utbildning i Human Factors fick jag göra en så kallad ”critical literature review” för att utifrån vald fråga se vilka vetenskapliga stöd som finns och jag valde frågan om automation kan minska arbestbelastning för flygledare som arbetar en-route. Här berättar jag kort vad jag fann.

NASA-studier
Fyra välgjorda NASA-studier stöder möjligheten för automation att minska arbetsbelastningen men en förutsättning är att flygledaren dels får relevant information om vad automationen gör, dels finns kvar i beslutsfattandet.
En intressant fråga är vilka funktioner som kan och ska automatiseras. NASA fann att automatisering av enklare funktioner (koordinering och överlämning) kan minska arbetsbelastning. Större uppgifter för automationen är att dels upptäcka konflikter mellan flygplan och sedan att lösa dem. Ett intressant experiment gjordes där flygledaren helt enkelt inte såg trafiken förrän automationen hade hittat en konflikt. Det var tydligt att uppgiften att lösa konflikten tog längre tid om flygledaren inte varit delaktig i att söka och upptäcka konflikter. Det visar på att automation inte bara handlar om att ersätta människan i valda delar utan att detta får påverkan på även andra uppgifter. En tredje test visade i princip att ju mer automation desto lägre arbetsbelastning men samtidigt att högst kvalitet/flygsäkerhet nåddes med ”måttlig” automation. Den fjärde testen var också ett stöd för att automation minskar arbetsbelastning.

Konfliktlösning
Automation för att upptäcka och peka ut konflikter har funnits ganska länge medan system som föreslår konfliktlösning är mer ovanliga men säkert på väg. En välgjord amerikansk studie kring automation för konfliktlösning ger visst stöd för minskad arbetsbelastning. En ny (2016) europeisk studie visade tydligt stöd för minskad arbetsbelastning med automation för konfliktlösning. Intressant här var att även om konfliktlösningen inte var helt tillförlitlig fortsatte flygledaren att använda den om än med mindre förtroende. En brist med denna studie var dock att få av deltagarna var flygledare.

Ett problem med automation är att en människa ändrar sitt arbetssätt vid ökad arbetsbelastning. Man kan öka sina marginaler eller man kan nöja sig med en bra och säker lösning istället för att söka den optimala. Sådan variation är inte typisk för automation och om automationen ger förslag som inte stämmer överens med vad flygledaren själv valt kan man förkasta det. Förslag som inte känns bra ökar dessutom belastningen eftersom de måste utvärderas. Det finns tankar på automation som anpassar sig efter situation och t.o.m. efter individ. Det är nog lättare sagt än gjort och här förutser man problem när det gäller acceptans för mer automatiserade system. Bäst acceptans får man om automationen ger förslag på lösningar som man själv skulle ha kommit fram till.

Detta leder också till en annan viktig diskussion. Ska automation anpassa sig till människan och se till så att människan är delaktig i processen eller måste automation få gå vidare och arbeta snabbare och bättre än människan för att verkligen bli till nytta? Här ser man att utvecklingen kommer att gå i olika faser, där det initialt är viktigt att människan förstår och accepterar automationen som därför behöver anpassas till människans sätt att arbeta. Ett praktiskt exempel är att man som flygledare kan lägga flygplan på parallella kurser som ett sätt att minska antalet konflikter medan automationen, med sin större förmåga att ha flera uppgifter samtidigt, kan föreslå mer optimala lösningar. På sikt kan vi därmed se ett behov av människan att anpassa sig efter automation vilket lär få påverkan på hur vi utbildar.

Slutligen visar ett stort test att automation kan öka komplexiteten och ställa större krav på systemkunskap hos flygledaren för att verkligen kunna dra nytta av automation. Så svaret på frågan är att automation kan minska arbetsbelastning – men bara om det görs med hänsyn till människan. Vill du läsa min artikel i helhet hittar du den här: länk

Anders Ellerstrand: Automation del 2 – ironier och paradoxer

En av de mest citerade artiklarna om automation är ”Ironies of Automation” från 1983 av Lisanne Bainbridge, kognitiv psykolog. Hennes artikel må vara över 35 år gammal men känns ännu relevant och citeras fortfarande.
En utgångspunkt för Bainbridge är att målet med automation oftast är att minska behovet av människan men hon påpekar direkt att även högt automatiserade system har behov av människan för övervakning, justering, underhåll och utveckling, dvs de är egentligen människa/maskin-system som är väldigt beroende av människan! Förväntningar på automation rymmer dock parodier och paradoxer.

Ironier kring design av automation
En utgångspunkt för design av automation är ofta att människan är opålitlig och ineffektiv och därför bör ersättas. Detta är förknippat med två ironier:
1. Designern är människa och designfel kan vara ett stort operativt problem.
2. Designern ersätter människan med automation så långt det är möjligt. Det som är för svårt att automatisera får människan fortfarande utföra.

Vad återstår för människan efter automation?
En vanlig uppgift som lämnas kvar åt människan är att övervaka så att automationen fungerar korrekt och att vid behov ta över om automationen fallerar. Ironin är här att skickligheten försämras om man inte använder den. En erfaren operatör som övervakar automation blir så småningom en oerfaren operatör med begränsade möjligheter att ta över. En situation som kräver mänskligt ingripande är dessutom sällan helt normal utan kräver extra skicklighet. Till detta kommer att övervakning inte är en uppgift som människan är väl lämpad för. Vi klarar helt enkelt inte av att sitta och titta/lyssna i väntan på att något ska hända. Alltså krävs en alarmfunktion och då uppstår frågan om vem som övervakar alarmfunktionen?

Lösningar
Bainbridge pekar inte bara på ironierna utan föreslår även lösningar. För att mänsklig övervakning ska fungera krävs alarm och helst ska alarmet tydligt visa vad som är fel samt vad som behöver göras.
Ett sätt att hantera svårigheten att ta över då automation fallerar är genom att träna regelbundet i t.ex. en simulator. Sådan utbildning bör dessutom vara mindre inriktad på att ”följa procedurer” utan mer på att kunna hantera ovana och oförutsedda situationer. Ironin här är att ju bättre ett automatiserat system fungerar, desto mindre naturlig erfarenhet får operatören och desto högre blir kostnaderna för simulatorer och utbildning.
Bainbridge artikel är alltså över 35 år gammal och man kan tycka att den borde vara överspelad vid det här laget. Ändå ser vi fortfarande exempel på de ironier hon pekar på. Automation bygger på mänsklig design och den är inte felfri. Kraven på människan i samband med automation ökar ofta istället för att minska och därmed följer ökat behov av utbildning.

Anders Ellerstrand: Automation del 1 – Fitts List och MABA MABA

Redan 1951 publicerades ”Fitts list”. Den kallas också MABA-MABA (Man-Are-Better-At-Machine-Are-Better-At).

Bilder från Human Engineering for an Effective Air Navigation and Traffic Control System, National Academy of Sciences, Washington, D.C., 1951.

Förenklat säger Fitts list att människan är bättre än maskinen på att:
• Uppfatta/upptäcka variationer med syn eller hörsel
• Uppfatta mönster i ljus eller ljud
• Improvisera och använda flexibla procedurer
• Lagra stor mängd information under lång tid och ta fram relevant fakta när den behövs
• Lösa problem genom slutledningar/hypoteser utifrån fakta och observationer (induktion)
• Göra bedömningar/avvägningar

På liknande sätt säger listan att maskiner är bättre än människan på att:
• Reagera snabbt på en signal
• Använda stor kraft mjukt och med precision
• Utföra upprepade rutingöromål
• Spara information under kort tid samt radera information fullständigt
• Dra slutledningar utifrån logik (deduktion), inklusive matematiska beräkningar
• Hantera komplexa uppgifter där flera olika saker behöver utföras samtidigt

Listan kan ju användas för att se till att automation görs på rätt sätt – att nyttja såväl maskinens som människans olika styrkor. Även om listan snart är 70 år gammal tror jag de flesta nickar instämmande då vi läser den. Även om tekniken har utvecklats mycket under 70 år lär människan vara sig lik.

Än idag refereras det till Fitts list men den har också kritiserats. Ibland har kritiken varit orättvis eftersom Fitts faktiskt pekar på och förutsåg många problem med introduktionen av automation. En kritik som framförts av Sidney Dekker och David Woods är att den här typen av listor leder oss fel. Utmaningen med automation inte är att allokera uppgifter på bästa sätt utan hur man får människa och maskin att arbeta bra tillsammans.