Scaricare la presentazione
La presentazione è in caricamento. Aspetta per favore
1
Human-Centred Design in Aviation
by Mauro Pedrali Politecnico di Milano - Dipartimento di Ingegneria Aerospaziale, 24 Maggio, 2001
2
Sommario Introduzione: I fattori Umani
User-Centred Design: Concetti principali Applicazioni in aviazione Interfacce utente Automazione Conclusioni
3
Cosa sono ? I Fattori Umani (o Ergonomia) possono essere definiti come quella Tecnologia multidisciplinare che si preoccupa della ottimizzazione delle relazioni tra l’uomo e le sue attività attraverso la sistematica applicazione delle scienze umane e dell’ingegneria dei sistemi (Edwards, 1972)
4
Cosa comprendono ? L’approccio ‘Fattori Umani’ è basato su varie discipline: psicologia cognitiva, clinica e sociale sociologia ed antropologia fisiologia, biologia e medicina ergonomia ingegneria
5
Caratteristiche Orientati alla risoluzione di problemi pratici
Mirati all’utilizzo di concetti scelti sulla base della loro utilità Estesi oltre il posto di lavoro Ottimizzare: benessere dell’uomo sicurezza, ma anche appagamento come risultato dell’attività efficienza del sistema raggiungimento dell’obbiettivo tenendo conto dei costi
6
Aree di Applicazione Addestramento Analisi ‘Ex-post’ Analisi ‘Ex-ante’
Potenziamento Capacità ‘Non-Tecniche’ Analisi ‘Ex-post’ Eventi indesiderati ed Errori Umani Analisi ‘Ex-ante’ Predizione delle Prestazioni Umane Progettazione Sistemi automatici, Interfacce utente, Procedure ...
7
Human-Centred Design Progettazione Centrata sull’Uomo, ovvero, applicazione dell’approccio Human Factors alla Progettazione
8
Cos’è ? L’esperienza maturata nel passato a seguito di analisi di tipo ‘ex-post’ nell’interazione uomo sistema ha portato ad elaborare un approccio che ha come obbiettivo principale guidare i progettisti nella creazione di sistemi usabili
9
Modello concettuale SHEL
(Edwards, 1972)
10
Hardware S H L E La totalità delle entità fisiche inanimate, come ad esempio edifici materiali, veicoli, equipaggiamenti, materiale e.g., torre di controllo, aerostazione, radar, aeromobile, cockpit, altimetro, radio, schermo radar, impianto di condizionamento
11
Software S H L E Regole e regolamenti, sia scritti (come le leggi e le procedure operative), sia comportamentali (come le abitudini di ogni individuo, di un gruppo o della società) che governano il modo in cui il sistema opera e in cui sono organizzate le informazioni
12
Liveware S H L E Tutto ciò che è umano, in altre parole gli operatori di un sistema e.g.: piloti, assistenti di volo, tecnici della manutenzione, controllori del traffico aereo, agenti di scalo, portabagagli, etc.
13
Environment S H L E Tutto ciò su cui il progettista non può avere nessun tipo di controllo caratterizzato non sono solo da condizioni fisiche, ma anche economiche, politiche e sociali
14
Usabilità sistema = Facilità d’uso
Dipende dalle caratteristiche di Utente Compito Ambiente Requisiti fondamentali Efficacia Efficienza Soddisfazione International Standard Organisation norma ISO CD 9241, Part 11, Guidance on the specification and measures
15
Human-Centred Design Caratteristiche Coinvolgimento attivo dell’utente
Accurata ripartizione funzioni/compiti tra utente e sistema Iterazione Progettazione multidisciplinare Fasi Definizione del contesto d’uso Specificazione delle esigenze dell’utente e dell’organizzazione Produzione di soluzioni di progettazione Valutazione
16
Coinvolgimento Natura ‘partecipativa’ approccio Inizialmente
l'utente finale viene coinvolto per identificare: contesto d'uso compiti che dovranno essere eseguiti per mezzo del sistema Successivamente per testare il prototipo messo a punto sulla base delle informazioni raccolte
17
Ripartizione funzioni/compiti
Specificare compiti, attività e responsabilità spettanti all'utente eseguiti automaticamente dal sistema Errato attribuire tutto al sistema, assegnando all’operatore le restanti funzioni Questa ripartizione deve basarsi su capacità, attitudini e le limitazioni degli utilizzatori rispetto al sistema in termini di affidabilità, accuratezza, velocità, flessibilità e costo economico
18
Iterazione Non è possibile stabilire con precisione fin dall'inizio le esigenze dell'utente solo grazie a ripetuti aggiustamenti successivi si arriva a capire esattamente quali necessità il sistema debba soddisfare Si riduce al minimo il rischio che il sistema finale non soddisfi le esigenze dei suoi utilizzatori favorire l'emersione di quei bisogni che sono difficili da esplicitare verbalmente per la apparente ovvietà
19
Multidisciplinare Utenti finali Acquirenti, manager degli utenti
Specialisti del dominio di applicazione, analisti commerciali Analisti di sistema, ingegneri di sistema, programmatori Venditori, rappresentanti Progettisti di interfaccia utente, grafici Esperti di ergonomia e di fattori umani, esperti di interazione uomo-macchina Autori tecnici, personale di formazione e supporto
20
Definizione contesto d’uso
Rappresentato da Utenti Caratteristiche: conoscenze, abilità, esperienza, istruzione, attributi fisici, abitudini e preferenze Compiti Obiettivi per cui si usa il sistema Ambiente Attributi dal punto di vista tecnico, legislativo, fisico, sociale, culturale e organizzativo
21
Specificazioni delle esigenze
Caratteristiche della prestazione attesa dal nuovo sistema in rapporto agli obiettivi economici e finanziari Vincoli legislativi, compresi quelli che riguardano la sicurezza e la salute degli utenti diretti e indiretti Caratteristiche dell'eventuale cooperazione tra gli utenti e altri attori rilevanti Mansioni degli utenti, ovvero compiti specifici, attuale livello di benessere complessivo e motivazione Modalità di esecuzione del compito Progettazione e organizzazione del processo produttivo Gestione del cambiamento, ovvero caratteristiche della formazione e dei dipendenti coinvolti Fattibilità dell'utilizzo effettivo del prodotto e della manutenzione Progettazione dell'interfaccia uomo-macchina e della postazione di lavoro
22
Produzione di soluzioni
3 attività previste (a) Utilizzo della conoscenza già esistente in materia (b) Realizzazione di modelli, prototipi o strumenti di simulazione rendono più esplicite le decisioni di progettazione permettono di valutare diverse idee prima di scegliere quella migliore consentono di apportare delle modifiche al progetto durante le fasi iniziali (c) Test dei prototipi
23
Valutazione Obbiettivo
fornire delle informazioni di ritorno che possano essere usate per migliorare il progetto valutare se gli obiettivi dell'utente e dell'organizzazione sono stati raggiunti monitorare l'utilizzo di lungo termine del sistema Le tecniche si differenziano per il grado di formalizzazione, rigore e coinvolgimento utente Non termina con la realizzazione del prodotto finale
24
Prototipi di interfaccia
Iterazione Prototipi di sistema Sistema pronto per l’uso Progettazione e sviluppo Visualizzazione Prototipi di interfaccia utente Valutazione Requisiti del sistema Esigenze dell’utente Analisi dell’utente, del compito, e dell’ambiente
25
Un’altalena, o un ...
26
Applicazioni Interfacce utente Automazione Controllo Procedure ...
27
Progettazione ‘Human-Centred’ delle Interfacce utente
Principi e Regole Progettazione ‘Human-Centred’ delle Interfacce utente
28
Principi Caratteristiche
Indicazioni generali di alto livello, applicabili a molti ambiti dell'interazione uomo-macchina Raccomandazioni di tipo trasversale, che devono essere interpretate dal progettista in base al particolare contesto d'uso Richiedono uno sforzo al designer che voglia servirsene "ridurre il carico mentale dell'utente” "adeguare il linguaggio del sistema alle esigenze dell'operatore"
29
Regole Caratteristiche
Indicazioni dettagliate di basso livello, applicabili ad ambiti ristretti dell'interazione uomo-macchina Richiedono uno sforzo interpretativo minimo da parte del progettista e possono derivare da teorie psicologiche o dall'esperienza pratica "collocare il pulsante 'esci' in basso a destra dello schermo” "cominciare la numerazione degli elementi di un insieme con '1'"
30
Pro & Contro Principi Regole
A volte contraddittorie e sovrapponibili, e.g., Presentazione informazioni in base alla funzione rispettando l'ordine alfabetico tenendo conto della frequenza utilizzo o della importanza per l'utente Principi condensano in pochi punti gli aspetti rilevanti nella progettazione di un'interfaccia si applicano ad una maggiore quantità di casi
31
Interfaccia usabile Consistenza dell'interfaccia Feedback per l'utente
Carico mentale dell'operatore Linguaggio dell'interfaccia Prevenzione e correzione degli errori
32
Consistenza Un sistema consistente si comporta in modo simile in situazioni simili La consistenza sollecita e favorisce l'uso di ragionamenti basati sull'analogia sia a livello di interfaccia sia, soprattutto, a livello funzionale i vari procedimenti da seguire per portare a termine compiti diversi si basano su una stessa logica per evitare confusioni all'utente e consentirgli un più rapido sviluppo di reazioni automatiche
33
Attributi Prevedibilità Familiarità Generalizzabilità
caratteristica per cui l'utente ritiene di poter prevedere l'effetto delle sue azioni future basandosi sull'esperienza maturata durante le interazioni passate Familiarità proprietà che misura la correlazione tra la conoscenza già posseduta dall'utente e quella necessaria per procedere ad un'effettiva interazione Generalizzabilità proprietà del sistema per cui l'utente può estendere la conoscenza maturata in una specifica interazione ad altre situazioni simili
34
Mapping naturale Ovvero compatibilità di risposta
le modalità di azionamento dei comandi sono progettate in analogia al tipo di risultati che questi producono e.g., innalzare un cursore genera la naturale aspettativa di incrementare la quantità di un qualcosa stereotipo: corrispondenza tra azionamento di un comando ed effetto prodotto, percepita come naturale dalla stragrande maggioranza dei soggetti di una data popolazione
35
Feedback Regola il rapporto comunicativo tra l'utente e la macchina
Grazie all'informazione di ritorno che l'operatore può sapere se e come il suo comando è stato recepito e quindi può stabilire il successivo passo da compiere. Informa costantemente l'utente circa l'attività in corso non solo quando si presentano degli errori, ma anche durante la regolare interazione
36
Carico mentale ‘Costo Psicologico’ che l’operatore sopporta come conseguenza della sua occupazione Cause Situazione lavorativa (e.g. condizioni fisico ambientali, orari, strumenti di lavoro ), Fattori legati all’individuo (esperienza, salute, motivazione), Fattori sociali (grado di inserimento, famiglia) Come alleviarlo recupero mnemonico; abbinamento comando/funzione; pre-determinazione delle informazioni; riduzione delle informazioni
37
Linguaggio interfaccia
Adeguarsi alla caratteristiche dell’operatore la terminologia, gli elementi iconici e quelli grafici devono tenere conto delle esigenze dell’utente sia fisiche, sia psicologiche e devono ispirarsi alle convenzioni dell'ambiente culturale cui egli fa riferimento Teoria della Gestalt tendenze organizzative innate, chiamate principi di raggruppamento, predispongono naturalmente l'uomo a considerare elementi di uno stesso gruppo quegli stimoli che presentano tra loro un rapporto di vicinanza, somiglianza, chiusura, continuità o comunanza
38
Errori "Se un errore è possibile, qualcuno prima o poi lo farà" (Norman, 1990) Prevenzione Raggruppare comandi in base: Funzione, Sequenza e Frequenza d’uso Evitare comandi troppo simili Ricorso a funzioni obbliganti Correzione “all’indietro”, “in avanti” (sforzo commisurato)
39
“Any task can be automated. The question is whether it should be ...”
Wiener & Curry (1980). Flight-deck automation: Promises and Problems. Ergonomics, 23, pp
40
Automazione Posizionamento del problema
Panorama storico dell’automazione Vantaggi e svantaggi Ruolo dell’Uomo e della Macchina Requisiti per un’automazione di tipo ‘human-centred’
41
Posizionamento del problema
42
Perché automatizzare ? Più automazione, Meno errori umani
Punto di vista dell’industria e delle compagnie aeree Problemi di interazione tra operatore umano e automazione Risultati analisi di Incidenti ed Inconvenienti “… Automation does not eliminate human errors, but rather changes its nature and possibly increases the severity of its consequences ...” (Wiener, 1993)
43
Complessità Rende più difficile all'uomo, la comprensione, la modellazione (modello mentale) ed il richiamo alla memoria dei dettagli dell'automazione Rende più difficile il ricordare ciò che serve per spiegare il comportamento del sistema automatico Questo è specialmente vero quando una funzione automatica è utilizzata o richiamata solo in rare occasioni “… Apparent simplicity, real complexity” (Woods, 1996)
44
‘Coupling’ Relazioni, o interdipendenze interne, fra tutte le funzioni eseguite in maniera automatica. Queste interdipendenze sono raramente ovvie ... … molte non sono nemmeno trattate in manuali o in altre pubblicazioni accessibili agli utenti dei sistemi automatici La possibile sorpresa che gli operatori potrebbero mostrare per il comportamento del sistema in particolare modo se il modo di funzionamento del dispositivo è determinato da fattori contingenti e quindi appare, apparentemente, imprevedibile
45
Autonomia Comportamento autonomo, reale o apparente, della macchina
Quando il comportamento autonomo è inaspettato, il controllore umano percepisce questo come animato ... … il sistema automatico appare guidato da una mente propria. L'essere umano deve decidere, talvolta velocemente, se il comportamento osservato è corretto o meno Questa decisione può essere difficile, in parte a causa del coupling e in parte perché può non esserci feedback adeguato
46
Assenza di feedback Situazione in cui l'automazione
non comunica, o comunque comunica in maniera povera o ambigua sia quello che sta facendo, o perché lo sta facendo sia, in alcuni casi, perché sta per mutare il modo di operare all'interno di una certa funzione Senza questo feedback, l'operatore umano deve capire, facendo appello alla sua memoria o al modello che ha del sistema automatico, la ragione del comportamento osservato
47
Conseguenze Allontanamento dell’operatore umano (pilota, controllore, …) dalla macchina Minore coinvolgimento nella missione Perdita della consapevolezza della situazione spazio-temporale Non più ‘locus’ del controllo
48
Principi di Progettazione
L’operatore deve ... avere la responsabilità per la sicurezza avere la relativa autorità di comando essere attivamente coinvolto essere adeguatamente informato essere in grado di monitorare i sistemi automatici che lo assistono Il sistema automatico deve … essere prevedibile controllare gli esseri umani deve conoscere le intenzioni degli altri componenti del sistema (operatori o sistemi che siano)
49
L’automazione in aviazione: dal dopoguerra ad oggi
Panorama storico L’automazione in aviazione: dal dopoguerra ad oggi
50
4 generazioni
51
Evoluzione 1a Generazione 2a Generazione 3a Generazione 4a Generazione
sistemi automatici semplici molti compiti manuali navigazione manuale 2a Generazione ridondanza dei sistemi navigazione automatica 3a Generazione sistemi digitali display grafici FMS allarmi integrati 4a Generazione fly-by-wire operazioni integrate dei sistemi
52
1a Generazione B707 DC-9 Comet DC-8
53
2a Generazione L-1011 B727 DC-10 B747
54
3a Generazione F-28 MD-11 A310
55
4a Generazione A330 B777
56
Caratteristiche 3 Strutture di controllo 3 Modelli di automazione
interna (Inner loops) intermedia (Intermediate loops) esterna (Outer loops) 3 Modelli di automazione Automazione nel controllo Automazione nell’informazione Automazione nella gestione
57
… nel controllo Automazione che assiste o sostituisce l’equipaggio nel controllo e nella direzione dell’aeromobile Esempi: Flight Directors, VHF Omnidirectional Range (VOR) Distance Measuring Equipment (DME), Instrument Landing System (ILS), Integrated Flight Control Systems, Sidesticks, Full Authority Digital Engine Controllers (FADECs)
58
Inner & Intermediate loops
59
... nell’informazione Automazione mirata alla gestione e alla presentazione delle informazioni rilevanti all’equipaggio Esempi: Primary Flight Display (PFD), Navigation Display (NAV), Multi Function Display (MFD)
60
Glass cockpit
61
Primary Flight Display
62
Navigation Display
63
Multi Function Display
64
... nella gestione Automazione che permette il controllo tattico e, soprattutto, strategico di un'operazione Flight Management System
65
FMS - Funzioni Navigazione Valutazione prestazioni Pilotaggio
Gestione strumenti elettronici Gestione unità di controllo Gestione input-output Esecuzione test Gestione del sistema operativo Honeywell FMS MD-11
66
Outer loops
67
COMPLESSITÀ CRESCENTE, CONTROLLO DIRETTO IN DIMINUZIONE
68
Dell’Automazione in Aviazione
Vantaggi e Svantaggi Dell’Automazione in Aviazione
69
Luci ed Ombre Vantaggi / Benefici Svantaggi / Costi Sicurezza
Affidabilità Economia Comfort Svantaggi / Costi Complessità Fragilità Opacità ‘Alla lettera’ Addestramento
70
Complessità Diversi ‘modi’ di funzionamento
Accoppiamento (coupling) controllo tattico e gestione strategica del volo Grande flessibilità Interazione non chiara/ovvia all’operatore Modello mentale non corretto Uso improprio
71
L1011 vs A320 Lockheed L-1011 Airbus A-320 DUAL AXIS PITCH AXIS
Approach Approach/land Go-around Take-off Turbulence PITCH AXIS Control wheel steering Altitude hold Vertical speed hold IAS hold Mach hold Altitude capture ROLL AXIS Heading select VOR hold R-nav coupling Localiser hold Lockheed L-1011 Airbus A-320 Autothrust Modes TOGA FLX 42 MCT CLB IDLE THR SPD/MACH ALPHA FLOOR TOGA LK Vertical Modes SRS DES OPEN CLB OPEN DES EXPEDITE ALT V/S-FPA G/S-FINAL FLARE Lateral Modes RWY NAV HDG/TRK LOC* LOC/APP NAV LAND ROLLOUT
72
Autopilota - ‘climb modes’
24000 25000 26000 27000 26500 23000 CAPTURE VERTICAL SPEED 2 7 4 ALT 24000 25000 26000 27000 26500 23000 CAPTURE VERTICAL SPEED 2 7 6
73
Fragilità Funziona bene in condizioni normali ma presenta dei comportamenti indesiderati in prossimità di condizioni limiti Più un software è complesso più è difficile testarlo in tutto lo spettro operativo Solo alcune delle condizioni limiti possono essere valutate per la certificazione Ci possono essere situazioni che insorgono in maniera del tutto imprevista (Mulhouse-Habsheim, 1988, Air France A320)
74
Opacità “Cosa sta facendo ?”, “Perché lo sta facendo?”, “Cosa farà dopo?” Inadeguato modello mentale Complessità dell’automazione Addestramento inadeguato / insufficiente ‘Strong and silent” (Sarter and Woods, 1994) Complessità crescente Difficoltà nel dare informazioni ovvie / non ambigue
75
‘Alla lettera’ L’automazione fa solo ed esattamente quello che le si dice di fare L’operatore può ‘ingannare’ l’automazione, ma lo fa a spese do un carico mentale maggiore e con la possibilità di commettere errori
76
Addestramento “How they operate” “How to operate”
Cambio di paradigma? Se l’operatore non possiede un adeguato modello mentale del sistema e su come il sistema lavora (quando lavora correttamente) a maggior ragione sarà più difficile capire quando il sistema non funziona correttamente
77
Altri problemi Fiducia (eccessiva) nell’automazione
Automazione insensibile (Clumsy) Digitale vs. Analogico Autonomia completa dell’automazione Degrado delle capacità Coordinamento equipaggio Requisiti di monitoraggio Sistemi automatici e navigazione Sovraccarico di dati
78
Sostituibili ? Complementari ? Intercambiabili ?
Ruoli Uomo e Macchina Sostituibili ? Complementari ? Intercambiabili ?
80
Controllore o Manager ? I piloti possono giocare una varietà di ruoli
preferiscono operare con più ruoli Un ragionevole spettro di opzioni controllo/gestione deve essere fornito Maggior addestramento Più tempo per acquisire familiarità con le capacità dell’automazione Maggiori costi per le attrezzature
81
Responsabilità - Autorità
Autorità di comando: può essere delegata, può essere limitata Responsabilità: non può essere delegata Se l’operatore ha la responsabilità, allora deve avere la conoscenza e l’autorità necessaria per restare al comando
82
Requisiti o Linee Guida
Progettazione ‘Human-Centred’ dell’Automazione in Aviazione
83
Ricapitolazione Fattori comuni riscontrati negli incidenti
Complessità Accoppiamento (Coupling) Autonomia Feedback inadeguato Caratteristiche associate all’utilizzo Fragilità Opacità ‘Alla lettera’ Insensibilità Sovraccarico di dati ...
84
L’operatore qualche volta non capisce ...
… Cosa sta facendo l’automatismo … Perché lo sta facendo … Cosa farà dopo
85
Peculiarità linee guida
Considerare tali linee guida come ‘a whole’ non solo come ‘stand-alone ’ ‘What to do (or not to do) ’ piuttosto che ‘how to do ’ Tipologia Raccomandazioni generali Raccomandazioni specifiche
86
Raccomandazioni generali
Operatore sempre ... al comando coinvolto informato informato sul sistema Automatismi prevedibili monitori Mutua conoscenza di ogni agente Automazione, ma solo se … Automazione facile da insegnare apprendere utilizzare
87
“The Human Operator Must be in Command”
88
Al Comando Non affidare il comando all’automazione
Autorità del comando legata alla Responsabilità Automazione non può gestire l’incertezza Autorità del comando compromessa se Ceduta, per indecisione, all’automazione o ad un altro uomo quando una decisione è necessaria (Portland, Oregon, 1978, United Airlines DC8) Piegata alle politiche e procedure di compagnia (Dryden, Ontario, 1989, Air Ontario F28) Degradata da decisioni progettuali (Toulouse, 1994, Flight Test A330)
89
“To Command Effectively, the Human Operator Must Be Involved”
90
Coinvolto Ruolo attivo nel controllo diretto dell’aeromobile e nella gestione delle risorse umane e tecniche Richiedere sempre dei compiti significativi che coinvolgano almeno una componente percettiva cognitiva psicomotoria
91
“To Remain involved, the Human Operator Must Be Appropriately Informed”
92
Informato Informazione adeguata sull’operazione automatica
Maggiore coinvolgimento dell’operatore Decisioni prevedibili da parte dell’operatore Meno sorprese per l’operatore Contenuto e modalità di presentazione rafforzano le priorità di un compito
93
“The Human Operator Must Be Informed About Automated Systems Behaviour”
94
Informato sul sistema L’automatismo deve fornire informazioni
sull’attività in corso, sulle attuali prestazioni e potenziali degradi Operatore deve conoscere Funzionamenti e malfunzionamenti del sistema per poter intervenire in tempo
95
“Automated Systems Must Be Predictable”
96
Prevedibile Come manager, l’operatore deve essere in grado di predire come le prestazioni dell’ aeromobile saranno influenzate da quel tipo di automatismo Al momento della selezione Per tutto il volo
97
“Automated Systems Must Also Monitor Human Operators”
98
Monitore Poiché l’uomo può commettere errori, è necessario che l’automazione li identifichi diagnostici gestisca corregga Arduo monitorare la presa di decisione
99
“Each Agent in an Intelligent Human-Machine System Must Have Knowledge of the Intent of the Other Agents”
100
Conoscenza mutua Condivisione delle intenzioni sia da parte dell’automazione sia da parte dell’uomo Agevolare la comunicazione delle intenzioni e proteggere dai ‘qui-pro-quo’ Strasbourg (1992), Air Inter - A320 Nagoya (1994), China Airlines, A300
101
“Functions Should Be Automated Only If There is a Good Reason for Doing So”
102
Automazione, solo se ... “… Tecnicamente e economicamente fattibile”
“… Esiste la tecnologia per automatizzare una funzione che impedirebbe al pilota di superare, senza volerlo, i limiti di sicurezza” “… L’operatore può essere sempre in grado di sostituirsi all’automatismo”
103
Prima di automatizzare ...
… Chiedersi “Perché questa funzione deve essere automatizzata?” “La nuova funzione automatizzata migliorerà le capacità del sistema o la consapevolezza dell’equipaggio?” “Non automatizzando, si migliorerebbero il coinvolgimento o la capacità di restare al comando ?”
104
“Automation Should Be Designed to Be Simple to Train, to Learn, and to Operate”
105
Facile da ... Insegnare, Apprendere, Utilizzare
Semplice, Trasparente e Intuitiva Deve essere pensata per essere utilizzata in condizioni difficili ed in un ambiente avverso da operatori stanchi e distratti con abilità medie
106
Raccomandazioni specifiche
Comprensibile Non rimuovere l’uomo dal comando Mantenere/Aumentare consapevolezza Mai silente Facilitare interazione Uomo-Macchina Fiducia e Affidabilità
107
Raccomandazioni specifiche
Controllo Autorità limitata Non limitare l’azione Offrire ampio spettro di possibilità Coinvolgere operatore Carico di lavoro Tollerante e resistente all’errore Informazione Enfasi e Importanza Avvertimenti e Allarmi Integrazione Gestione Nei limiti delle capacità umane
108
“Automated Systems must be Comprehensible”
109
Comprensibile Mantenere le operazioni dei sistemi e degli automatismi Semplici e Prevedibili limitando (in quantità) i modi di funzionamento riducendo la complessità ed il rischio di coupling Transizioni più veloci verso i nuovi sistemi Addestramento meno oneroso Accettazione utente
110
“Automation Must Insure That Operators Are Not Removed from the Command Role”
111
Non rimuovere l’uomo dal comando
La crescente integrazione e coupling dei sistemi automatici rischia di bypassare l’operatore Mostrare le conseguenze di una scelta prima della sua accettazione Assicurarsi che l’operatore acconsenta ad eventuali cambiamenti prima di attuarli Permettere un minimo di negoziazione
112
“A Primary objective of Automation is to Maintain and Enhance Situation Awareness. All Automation Elements and Display Must Contribute to this Objective”
113
Mantenere/Aumentare Consapevolezza
Elementi che concorrono: posizione, velocità, assetto, pericoli, stato di funzionamento ausili, ‘cosa fare dopo’ … Stabilire quale sia la forma e la rappresentazione migliore per rafforzare la consapevolezza della situazione spazio temporale
114
“Automation Must Never Be Permitted to Perform, or Fail, Silently”
115
Mai silente Se un’avaria di un automatismo non si manifesta esplicitamente mette l’intero sistema in pericolo Anche se si delega il controllo all’automatismo, l’operatore deve essere sempre a conoscenza Miami (1972), Eastern Air Lines L-1011
116
“Management Automation Should Make Human-Machine Systems Easier to Manage”
117
Facilitare HMI L’automatismo non deve rendere più complesso un compito di per sé facile Programmazione del FMS
118
“Designers Must Assume That Human Operators Will Rely on Reliable Automation, Because They Will”
119
Fiducia e Affidabilità
La fiducia nei confronti di un sistema automatico aumenta con l’aumentare della sua affidabilità Tuttavia, se l’informazione è derivata o è il risultato di un processo, il progettista deve assicurarsi che i dati cui l’informazione è ricavata siano o visibili o accessibili per una verifica raw data vs. processed data
120
“Control Automation Should Be Limited in Its Authority
“Control Automation Should Be Limited in Its Authority. It Must Not Be Permitted to Become Insubordinate”
121
Autorità limitata L’automatismo non dovrebbe mai permettere che il sistema giunga ad una situazione ‘difficile’ (che comprometta la sicurezza) da cui è difficile sottrarsi sia in modo automatico, perché potrebbe anche fallire per causa di un’avaria (fragilità) sia in modo manuale, perché la situazione potrebbe eccedere le capacità dell’operatore
122
“Designers Should Not Foreclose Pilot Authority to Override Normal Aircraft Operating Limits When Required for Safe Mission Completion”
123
Non limitare l’azione 2 filosofie a confronto Costruttore ‘A’
“L’automazione deve impedire che l’operatore agisca in modo da compromettere la sicurezza” Costruttore ‘B’ “L’operatore deve essere sempre in grado di sostituirsi all’automatismo”
124
“Automation Should Provide the Human Operator with an Appropriate Range of Control and Management Options”
125
Ampio spettro di possibilità
L’automazione deve essere sufficientemente flessibile Gli operatori possono avere diverse esperienze Le condizioni operative possono variare Spettro non troppo ampio per non aumentare il carico di lavoro dell’operatore e la complessità del sistema
126
“Designers Should Keep Human Operators Involved in an Operation by Requiring of Them Meaningful and Relevant Tasks, Regardless of the Level of Management Being Utilised by Them”
127
Coinvolgere operatore
Livelli di gestione strategica troppo spinti possono diminuire il coinvolgimento dell’operatore oltre limite desiderabile L’automazione deve essere progettata per minimizzare questo distacco in modo che l’operatore possa sempre reinserirsi nel loop in caso di avaria
128
“Aircraft Control Automation Should Be Designed to be of Most Help During Times of Highest Workload, and Somewhat Less Help During Times of Lowest Workload”
129
Carico di lavoro Il carico di lavoro varia
in funzione delle fasi della missione in funzione delle caratteristiche dell’operatore L’automazione deve assecondare il carico di lavoro
130
“Aircraft and ATC Automation Should Be Designed Both for Maximum Error Resistance and Maximum Error Tolerance”
131
Resistente e Tollerante
Automatismi e relative interfacce devono avere architettura semplice essere dotati display chiari e intuitivi fornire risposte non ambigue ai comandi Il sistema dovrebbe essere dotato di capacità di monitoraggio prevedere dei dispositivi di riconoscimento dell’errore e di correzione
132
“Emphasise Information in Accordance with Its Importance”
133
Enfasi e Importanza l’informazione più importante deve essere la più ovvia e più localizzata centralmente cambi/transizioni vs. staticità ridondanza d’informazioni simboliche forma, dimensione, colore, luminosità … informazioni tattili e uditive per rafforzare o sostituire quelle visive limitare uso di segnali acustici
134
“Alerting and Warning Systems Should Be as Simple and Foolproof as Possible”
135
Avvertimenti ed Allarmi
Non devono essere ambigui l’operatore deve poterne identificare la causa Devono essere accompagnati, se possibile, da informazioni di tendenza non deve giungere inaspettatamente Evitare il rischio di falsi allarmi cfr. fiducia ed affidabilità degli automatismi
136
“Integration of Information Does Not Mean Simply Adding More elements to a Single Display”
137
Integrazione 1 + 1 2 All’operatore deve essere facilitato il compito di comprendere l’informazione In caso di cambiamento Preservare la familiarità con alcuni degli elementi Maggiore attenzione verso quei dati che possono cambiare
138
“Future Automation Must Insure That Control and Management Remain Within the Capabilities of the Human Operators Who Must Accomplish the Task if Automation Fails”
139
Nei limiti delle capacità umane
“… advances in technology lead to a reduction in perceived risk, hence to behaviour that is closer to the limits of acceptable performance - thereby effectively reducing the margin for safety” (Hollnagel, 1993)
140
Per concludere ... “ The modern airplane is the product of a program of research, development, and refinement in detail that no other structure or mechanism has ever matched. The results have been so remarkable that there is always the danger of forgetting that these extraordinary craft still have to be operated by men, and that the most important test they have to meet is still that of being operable without imposing unreasonable demands or unnecessary strains on the flight personnel ” Edward P. Warner, citato da Ross McFarland, 1946
141
Riferimenti http://www.airdisaster.com/ http://aviation-safety.net/
Billings, C. E. (1997). Aviation Automation: The search for a Human-Centred Approach. Lawrence Erlbaum Ass., New Jersey, USA
Presentazioni simili
© 2024 SlidePlayer.it Inc.
All rights reserved.