Factores Humanos en ATM PDF

Document Details

HardWorkingDwarf

Uploaded by HardWorkingDwarf

null

Tags

control de trafico aereo factores humanos seguridad operacional aviacion

Summary

Este documento analiza los factores humanos en la gestión del tráfico aéreo, incluyendo las amenazas, errores y estados no deseados asociados a la operación. Utiliza el modelo TEM para evaluar los riesgos y las estrategias de mitigación.

Full Transcript

julio/2023 61/65 FIGURA 11 EL MODELO TEM DEFINIDO POR OACI En la operación del trabajo diario del controlador hay tres componentes básicos en función del riesgo: Amenazas Son errores externos o incidencias que aumentan la complejidad de la situación operacional y que tienen lugar sin que las haya pr...

julio/2023 61/65 FIGURA 11 EL MODELO TEM DEFINIDO POR OACI En la operación del trabajo diario del controlador hay tres componentes básicos en función del riesgo: Amenazas Son errores externos o incidencias que aumentan la complejidad de la situación operacional y que tienen lugar sin que las haya propiciado el controlador. El controlador deberá ingeniárselas para que no se reduzcan los márgenes de seguridad. En este apartado incluimos, por ejemplo, indicativos de llamada similares, procedimientos locales que no están normalizados, restricciones del espacio aéreo, condiciones meteorológicas adversas, congestión del espacio aéreo, contingencias, etc., y equivocaciones cometidas por personas que no trabajan en el entorno operativo. Las amenazas pueden anticiparse o no: o Amenazas previsibles: cuando el controlador puede prever su aparición, como meteorología adversa. o Amenazas imprevistas: que pueden surgir inesperadamente como por ejemplo cuando un piloto copia las instrucciones transmitidas a otro. En este caso, el controlador debe aplicar toda su pericia, entrenamiento y experiencia para solventar la situación. Un factor esencial para resolver las amenazas, sean previstas o no, es la posibilidad de detectarlas a tiempo para permitir al controlador tomar las decisiones adecuadas. El TEM parte de la premisa de que los errores y amenazas no son eliminables y por lo tanto, hemos de saber idear estrategias para afrontarlas. No siempre hay una relación directa y lineal entre Amenaza-Error-Estado no deseado. Las amenazas pueden, en ocasiones, llevarnos a estados © 2023 ENAIRE La información aquí expuesta es propiedad de ENAIRE. No puede ser usada, reproducida y/o transmitida por ningún medio, sin la autorización expresa de ENAIRE. julio/2023 62/65 no deseados sin haber cometido errores. Los controladores aéreos, en ocasiones, pueden cometer errores en el desempeño de sus funciones operativas, aunque no haya amenazas. Errores Se materializan en decisiones u omisiones por parte del controlador que nos llevan a que no se cumplan los objetivos planificados y que se comprometan los márgenes de seguridad. El no afrontar adecuadamente los errores nos puede llevar a situaciones no deseadas. Los errores pueden ser espontáneos, estar ligados a amenazas o formar parte de una cadena de errores. Estados no deseados Los errores y amenazas que forman parte del trabajo cotidiano del controlador pueden generar estados no deseados (undesired states), y estas situaciones no deseables, pueden convertirse en un riesgo para la seguridad. Para el método TEM como herramienta en el análisis de los riesgos a la seguridad de las operaciones, es tan importante estudiar las circunstancias no deseadas que se pueden crear en el desarrollo de las operaciones, como el análisis de los errores y amenazas potenciales. Podemos definir las situaciones no deseadas como aquellas en las que ha fallado la planificación prevista y como consecuencia, se reducen los límites de seguridad, por ej.: una aeronave que asciende a un nivel de vuelo no autorizado o que vira a un rumbo no planificado. Estas circunstancias creadas por haber gestionado mal los errores o amenazas previas han de ser afrontadas por los controladores, si lo hacen bien restauraran los márgenes de seguridad reglamentarios y si no es así se podría desencadenar un incidente o accidente. Es importante distinguir entre las circunstancias no deseadas y el resultado o consecuencia de las acciones. Mientras estemos en un estado no deseado, podemos resolver la situación mediante la aplicación de medidas oportunas, pero una vez que se produce un desenlace ya no se puede volver atrás. Lo más relevante de cara a los estados no deseados es que de forma implícita, el control de tránsito aéreo consiste en la detección de estados no deseados, tanto los que aparecen de forma natural por la propia evolución del tráfico y del contexto, como los que se generan por la propia actuación ATC. Entrenar la detección de estados no deseados es esencial para consolidar estrategias de trabajo seguros, y el conocimiento en factores humanos permite adelantarse a amenazas internas y estados no deseados. © 2023 ENAIRE La información aquí expuesta es propiedad de ENAIRE. No puede ser usada, reproducida y/o transmitida por ningún medio, sin la autorización expresa de ENAIRE. julio/2023 63/65 8. BIBLIOGRAFÍA ASOCIACIÓN ESPAÑOLA DE NORMALIZACIÓN Y CERTIFICACIÓN (2001). Principios Ergonómicos Relativos a la Carga de Trabajo Mental. UNE-EN ISO 10075-1, y 2. Madrid: AENOR. ASOCIACIÓN ESPAÑOLA DE NORMALIZACIÓN Y CERTIFICACIÓN (2005). Principios Ergonómicos Relativos a la Carga de Trabajo Mental. UNE-EN ISO 10075-3. Madrid: AENOR, 21 p. Dekker, S. (2006) “Resilience Engineering: Chronicling the Emergence of Confused Consensus'. In Resilience Engineering: Concepts and Precepts. ed. by Hollnagel, E., Woods, D. D. and Leveson, N. G. Aldershot: Ashgate, 77-92. Edwards, E. (1972). “Man and machine: Systems for safety”. In Proc. of British Airline Pilots Associations Technical Symposium, (pp. 21-36). British Airline Pilots Associations, London. Edwards, E. (1988) “Introductory Overview” in E.L. Wiener & D.C. Nagel (Eds) Human Factors in Aviation. San Diego, CA: Academic Press. Endsley, M.R., (1999) “Situational Awareness in Aviation Systems”. In Handbook of Aviation Human Factors. ed. by Garland, D.J., Wise, J.A., and Hopkin, V.D. Mahwah, NJ: Lawrence Erlbaum Associates, 257-276. Endsley, M. R. (1996) “Automation and Situation Awareness”. Automation and Human Performance: Theory and Applications, 163-181. EUROCONTROL (2014) Systems Thinking for Safety: Ten Principles. A White Paper. Moving Towards Safety II. Brussels: EUROCONTROL. EUROCONTROL (2013) From Safety-I to Safety-II. A White Paper. Brussels: EUROCONTROL. EUROCONTROL/FAA Action Plan 15 Safety (2010) Human Performance in Air Traffic Management Safety. A White Paper. Brussels: EUROCONTROL. EUROCONTROL (2008) Critical Incident Stress Management: User Implementation Guidelines. Brussels: EUROCONTROL. EUROCONTROL (2008) EATCHIP Human Resources Team, Human Factors Module: Critical Incident Stress Management. Brussels: EUROCONTROL. Everly, G.S. (2006) Assisting Individuals in Crisis. 4th edn. Ellycott City, MD: International Critical Incident Stress Foundation. Everly, G.S., Mitchell, J.T., (1997) Innovations in Disaster and Psychology, Volume Two: Critical Incident Stress Management, a New Era and Standard of Care in Crisis Intervention. Ellycott City, MD: Chevron. © 2023 ENAIRE La información aquí expuesta es propiedad de ENAIRE. No puede ser usada, reproducida y/o transmitida por ningún medio, sin la autorización expresa de ENAIRE. julio/2023 64/65 Hollnagel, E. (2014) Safety-I and Safety-II. The Past and Future of Safety Management. Farnham: Ashgate. Hollnagel, E. (2009) The ETTO Principle: Efficiency-Thoroughness Trade-off: Why Things that Go Right Sometimes Go Wrong. Ashgate Publishing, Ltd. Hopkin, V.D. (1995) Human Factors in Air Traffic Control. London: Taylor and Francis. Isaac, A.R. and Ruitenberg, B. (1999). Air Traffic Control: Human Performance Factors. Aldershot: Ashgate. Leonhardt, J. and Vogt, J. (Eds.) (2006) Critical Incident Stress Management CISM in Aviation. Aldershot, UK: Ashgate. Mitchell, J.T., (2006) Critical Incident Stress Management (CISM): Group Crisis Intervention. 4th edn. Ellycott City, MD: International Critical Incident Stress Foundation. Mitchell, J.T., Everly, G.S. (1996) Critical Incident Stress Debriefing. An Operation Manual for the Prevention of Traumatic Stress among Emergency Services and Disaster Workers. 2nd edn. Ellycott City, MD: Chevron. Mitchell, J.T., Everly, G.S. (1994) Human Elements Training for Emergency Services, Public Safety and Disaster Personnel: an Instructional Guide to Teaching Debriefing, Crisis Intervention and Stress Management Programs. Ellycott City, MD: Chevron. OACI (2016) Manual para la Supervisión de los Enfoques de Gestión de la Fatiga. Doc 9966. 2nd ed. Montreal: OACI. OACI (2011) Manual sobre la Observación Continua del Programa Universal de Auditoría de la Vigilancia de la Seguridad Operacional. Doc 9735 AN/960. 3rd ed. Montreal: OACI. OACI (2005) Manejo de Amenazas y Errores (TEM) en el Control de Tránsito Aéreo. CIR 314 AN/178 Montreal: OACI. OACI (1994) Anexo 13 al Convenio sobre Aviación Civil Internacional – Investigación de Accidentes e incidentes de Aviación. Montreal: OACI. Rankin, A., Lundberg, J., Woltjer, R., Rollenhagen, C., and Hollnagel, E. (2014). “Resilience in Everyday Operations a Framework for Analyzing Adaptations in High-Risk Work”. Journal Of Cognitive Engineering and Decision Making 8 (1), 78-97. Rasmussen, J. (1986) Information Processing and Human-Machine Interaction. Amsterdam: Elsevier. Rasmussen, J. (1985) “Trends in Human Reliability Analysis. Ergonomics, 28 (8), 1185-1196. Rasmussen, J. (1983) “Skills, Rules and Knowledge: Signals, Signs and Symbols; and other Distinctions in Human Performance Models”. IEEE Transactions on Systems, Man and Cybernetics, 13, 257-266. © 2023 ENAIRE La información aquí expuesta es propiedad de ENAIRE. No puede ser usada, reproducida y/o transmitida por ningún medio, sin la autorización expresa de ENAIRE. julio/2023 65/65 Reason, J. (1997) Managing the Risks of Organizational Accidents. Farnham: Ashgate. Reason, J. (1990) Human error. New York: Cambridge University Press. Reason, J. (1987) “Generic Error-Modelling Systems (GEMS). A Cognitive Framework for Locating Common Human Error Forms”. in New Technology and Human Error. ed. by. Rasmussen, K., Duncan, K. and Leplat, J. Chichester:Wiley, 63-83. Reglamento de Ejecución (UE) 2017/373 por el que se establecen los Requisitos Comunes para los Proveedores de Servicios de Gestión del Tránsito Aéreo/Navegación Aérea y otras Funciones de la Red de Gestión del Tránsito Aéreo y su Supervisión, por el que se derogan el Reglamento (CE) nº 482/2008 y los Reglamentos de Ejecución (UE) nº 1034/2011, (UE) nº 1035/2011 y (UE) 2016/1377, y por el que se modifica el Reglamento (UE) nº 677/2011. Bruselas: La Comisión Europea. Reglamento (UE) 2015/340 de la Comisión, de 20 de febrero de 2015, por el que se establecen Requisitos Técnicos y Procedimientos Administrativos relativos a las Licencias y los Certificados de los Controladores de Tránsito Aéreo en virtud del Reglamento (CE) nº 216/2008 del Parlamento Europeo y del Consejo, se modifica el Reglamento de Ejecución (UE) nº 923/2012 de la Comisión y se deroga el Reglamento (UE) nº 805/2011 de la Comisión. Bruselas: La Comisión Europea. Reglamento (UE) 376/2014 del Parlamento Europeo y del Consejo de 3 de abril de 2014 relativo a la Notificación de Sucesos en la Aviación Civil, que modifica el Reglamento (UE) nº 996/2010 del Parlamento Europeo y del Consejo, y por el que se derogan la Directiva 2003/42/CE del Parlamento Europeo y del Consejo y los Reglamentos (CE) nº 1321/2007 y (CE) nº 1330/2007 de la Comisión. Bruselas: Parlamento Europeo y Consejo de la Unión Europea. Salvendy, G. (2012) The Handbook of Human Factors and Ergonomics. 4th edn. Hoboken, NJ: John Wiley & Sons, Inc. Shorrock, S., Williams, C. (2017) Human Factors and Ergonomics in Practice. Improving System Performance and Human Well-Being in the Real World. Boca Raton, FL: CRC Press Simon, H. (1957) Models of Man (Social and Rational). New York: John Wiley and Sons. Woods, D. D, Dekker, S., Cook, R., Johannesen, L. and Sarter, N. (2010) Behind Human Error. Farham: Ashgate Woods, D. D. and Cook, R. I. (2002) “Nine Steps to Move Forward From Error”. Cognition, Technology and Work, 4 (2), 137-144. Woods, D. D. and Cook, R. I. (1999) “Perspectives on Human Error: Hindsight Biases and Local Rationality”. In Handbook of Applied Cognition. ed. by Durso, F. New York: Wiley, 141-171. © 2023 ENAIRE La información aquí expuesta es propiedad de ENAIRE. No puede ser usada, reproducida y/o transmitida por ningún medio, sin la autorización expresa de ENAIRE.

Use Quizgecko on...
Browser
Browser