Expertos del sector aéreo alertan: la inteligencia artificial debe apoyar, no sustituir, al factor humano en la aviación

Mesa 1. Fernando Miragaya, presidente del SEPLA; José Manuel Hesse, Decano del COIAE; Javier Gándara, presidente de ALA; y Monserrat Mestres, directora de AESA. Foto: Diego Gómez
Mesa 1. Fernando Miragaya, presidente del SEPLA; José Manuel Hesse, Decano del COIAE; Javier Gándara, presidente de ALA; y Monserrat Mestres, directora de AESA. Foto: Diego Gómez
El II Congreso Español de Seguridad Operativa Aeronáutica, se expuso de forma unánime la idea de que los sistemas automáticos ya facilitan numerosas tareas tanto dentro como fuera de la cabina de vuelo, permitiendo manejar grandes volúmenes de información que apoyan el proceso de toma de decisiones; y la inteligencia artificial (IA) predictiva es una herramienta que cada vez asiste más a los profesionales en su labor, aunque no está capacitada para decidir de manera autónoma ni operar sin la supervisión de una persona.

En su segunda edición, el congreso coorganizado por Sepla (Sindicato Español de Pilotos de Líneas Aéreas); la Asociación Española de Derecho Aeronáutico y Espacial (AEDAE); Soluciona, del Grupo Cobendai; y el Real Aero Club de España (RACE), ha centrado su atención en la relación entre la inteligencia artificial y la seguridad operacional, congregando en Madrid a especialistas procedentes de aerolíneas, colectivos de pilotos y controladores aéreos, organismos reguladores, entidades de gestión del tráfico aéreo y de la actividad aeroportuaria, así como expertos en psicología aeronáutica.

Introducción a la seguridad operacional

En la sesión “Introducción a la seguridad operacional” del II Congreso Español de Seguridad Operativa Aeronáutica, los responsables de SEPLA, COIAE, ALA y AESA advirtieron de que el tráfico aéreo crecerá al menos un 20 % en los próximos años y que, de cara a 2040, el volumen de vuelos podría multiplicarse por 2,5, con una coexistencia cada vez más intensa entre aeronaves tripuladas y drones. Frente a esta presión, coincidieron en que la inteligencia artificial debe apoyar, nunca sustituir, a los dos pilotos de cabina, pues juicio, intuición y transmisión intergeneracional resultan insustituibles para garantizar la seguridad.

Fernando Miragaya, presidente de SEPLA, recalcó que este aumento de tráfico aéreo someterá a controladores, pilotos y sistemas a una “presión muy grande” y que habrá hasta 80 millones de desplazamientos de drones en quince años. Alertó además de que: “prescindir de la redundancia piloto–copiloto pondría en riesgo la seguridad”. Trató los posibles riesgos de darle el control del avión a una IA, entre los que destacó, la falta de juicio e intuición que sí tiene los pilotos y la posible utilización de “IA maliciosa que puede hackear los sistemas de un avión o los sistemas de control”.

Fernando Miragaya, presidente del SEPLA. Foto: Diego Gómez

Fernando Miragaya (derecha), presidente del SEPLA. Foto: Diego Gómez

José Manuel Hesse, decano del Colegio Oficial de Ingenieros Aeronáuticos de España (COIAE), subrayó que los pilotos noveles aprenden juicio e intuición de los más experimentados y advirtió de que reemplazar al segundo piloto con IA generativa, de comportamiento impredecible, comprometería la toma de decisiones “en un medio de incertidumbre pura”.

José Manuel Hesse, Decano del COIAE; Javier Gándara, presidente de ALA. Foto: Diego Gómez

José Manuel Hesse (derecha), Decano del COIAE; Javier Gándara, presidente de ALA. Foto: Diego Gómez

Javier Gándara, presidente de la Asociación de Líneas Aéreas (ALA), también defendió la redundancia como pilar del transporte aéreo y aseguró que, por ahora, las compañías no contemplan reducir la tripulación. Apuesta por integrar la IA como apoyo en momentos críticos, siempre bajo estándares de seguridad iguales o superiores a los actuales.

Montserrat Mestres, directora de la Agencia Estatal de Seguridad Aérea (AESA), explicó que la futura regulación europea impondrá requisitos rigurosos de seguridad, transparencia y conformidad a los sistemas de IA en aviación. Hablo de los procesos de la EASA para certificar la IA en mantenimiento predictivo, detección de anomalías y apoyo a la toma de decisiones, y subrayó que ningún avance tecnológico puede rebajar el nivel de seguridad vigente. Por último, destaco que ve factible la utilización de la IA como “Apoyo al piloto en la toma de decisiones, mantenimiento e identificación de patrones anómalos”.

Monserrat Mestres, directora de AESA. Foto: Diego Gómez

Monserrat Mestres, directora de AESA. Foto: Diego Gómez

Javier Gándara, presidente de la Asociación de Líneas Aéreas (ALA), subrayó que la inteligencia artificial ya desempeña un papel relevante en la aviación en el mantenimiento predictivo. Sin embargo, advirtió que la IA no puede reemplazar el factor humano, y defendió la necesidad de que especialistas con conocimiento aeronáutico lideren su integración, evitando que sean externos al sector quienes implementen estas tecnologías en un entorno que desconocen.

Javier Gándara, presidente de ALA. Foto: Diego Gómez

La sesión concluyó poniendo de relieve la necesidad de una integración gradual, controlada y supervisada de la inteligencia artificial combinada con el conocimiento humano y la formación, garantizando que las futuras soluciones tecnológicas respeten la cultura de seguridad que convierte al avión en el medio de transporte más seguro.

¿Es la inteligencia artificial compatible con los principios fundamentales que sustentan la gestión de la seguridad operacional?

Mesa 2. Idoia Salazar, fundadora de Odiseia; Jesús Romero, jefe de división de Seguridad Operacional de Enaire; Marta Lestau, directora de seguridad de aeronaves de AESA. Foto: Diego Gómez

Mesa 2. Idoia Salazar, fundadora de Odiseia; Jesús Romero, jefe de división de Seguridad Operacional de Enaire; Marta Lestau, directora de seguridad de aeronaves de AESA. Foto: Diego Gómez

En la segunda mesa del II Congreso Español de Seguridad Operacional Aeronáutica, titulada "¿Es la inteligencia artificial compatible con los principios fundamentales que sustentan la gestión de la seguridad operacional?" participaron especialistas procedentes de la fundación tecnológica, la gestión de la seguridad operacional en navegación aérea y la certificación de aeronaves, lo que permitió abordar la cuestión desde el prisma normativo, operativo y ético.

Idoia Salazar, fundadora de Odiseia, abrió la conversación recordando que, hace tan solo unos años, la inteligencia artificial se consideraba una moda y muchas organizaciones sentían la necesidad de adoptarla sin un propósito claro. Subrayó que la IA ya no es una simple tendencia, pero insistió en la importancia de no considerarla una solución universal ni un reemplazo automático del factor humano. Para Salazar, es fundamental realizar un análisis previo y riguroso para determinar en qué procesos aeronáuticos la incorporación de la IA es realmente útil, puesto que, en muchos casos, la intervención humana es insustituible.

Foto 7: Idoia Salazar, fundadora de Odiseia. Foto: Diego Gómez

Foto 7: Idoia Salazar, fundadora de Odiseia. Foto: Diego Gómez

Además, destacó el reto normativo que se avecina: a partir de 2026, los algoritmos de alto riesgo deberán cumplir requisitos legales muy exigentes, incluyendo la supervisión humana y la formación a todos los niveles. Salazar también planteó la pregunta clave de la mesa: ¿sobre quién recae la responsabilidad si una decisión tomada por la IA desencadena un error? En su opinión, la persona física debe seguir siendo la última responsable, ya que: “la IA, al carecer de derechos, tampoco puede asumir responsabilidades”.

Marta Lestau, directora de seguridad de aeronaves de AESA, explicó el marco regulador en que se desenvuelve la introducción de la IA en el sector aeronáutico. Recordó que la Organización de Aviación Civil Internacional (OACI) y la Agencia de la Unión Europea para la Seguridad Aérea (EASA) establecen un nivel de regulación, certificación y supervisión inédito en comparación con otros sectores. Lestau reconoció que la cultura de seguridad está cada vez más arraigada, como demuestran los 50.000 reportes registrados el año pasado, lo que permite acumular información valiosa para prevenir incidentes. 

Marta Lestau, directora de seguridad de aeronaves de AESA. Foto: Diego Gómez

Marta Lestau, directora de seguridad de aeronaves de AESA. Foto: Diego Gómez

En el ámbito del mantenimiento, la IA puede aportar una mayor eficiencia, aunque advirtió de que aún queda un largo camino por recorrer para certificar y confiar plenamente en algoritmos que, como en el caso del aprendizaje automático, evolucionan constantemente. Lestau puso especial énfasis en el aprendizaje obtenido por el sector a través de los drones, que han pasado del uso militar al civil, permitiendo experimentar nuevas tecnologías y automatismos en entornos controlados. 

Subrayó que la introducción de IA en aeronaves certificadas sigue siendo incipiente; aunque existen equipos especializados en sistemas no tripulados y en la gestión del espacio aéreo para drones, la implantación generalizada llevará tiempo y requerirá adaptaciones normativas importantes. También mencionó el proyecto "smart cockpit" de EASA, que busca rediseñar la cabina de los aviones incorporando IA, y remarcó los desafíos regulatorios y de factores humanos que ello implica, desde la gestión de emergencias hasta la interacción entre piloto y sistemas inteligentes.

Jesús Romero, jefe de división de Seguridad Operacional de Enaire, abordó el reto de integrar la inteligencia artificial en un entorno, el aeronáutico, que ya es extremadamente seguro y controlado. Romero remarcó la necesidad de identificar y gestionar los nuevos riesgos que puede comportar la incorporación de IA y subrayó que, aun con la automatización creciente, la toma de decisiones debe permanecer en manos de los pilotos. Confía en que los avances en el ámbito de los drones, cuyo uso civil está permitiendo validar nuevas soluciones tecnológicas, sirvan como laboratorio de pruebas antes de dar el salto a una aplicación más generalizada en la aviación tripulada, manteniendo siempre las máximas garantías de seguridad.

Jesús Romero, jefe de división de Seguridad Operacional de Enaire. Foto: Diego Gómez

Jesús Romero, jefe de división de Seguridad Operacional de Enaire. Foto: Diego Gómez

En resumen, la mesa concuerda en que la inteligencia artificial aportará importantes ventajas para la seguridad y la eficiencia operativa, pero su integración debe hacerse de forma muy cautelosa, progresiva, sometida a una regulación estricta y sin perder de vista el papel esencial del profesional humano en el corazón de la aviación.

Seguridad operacional aeroportuaria e inteligencia artificial

En la tercera mesa del II Congreso Español de Seguridad Operacional Aeronáutica, titulada “Seguridad Operacional Aeroportuaria e Inteligencia Artificial”, se abordó el papel de la inteligencia artificial en la seguridad aeroportuaria, con una perspectiva integral de la operación aeronáutica. La mesa reunió a representantes de los subsectores clave: gestión aeroportuaria, aviación general y deportiva, asistencia en tierra, control aéreo y seguridad operativa en navegación aérea.

A lo largo de la sesión, se puso de manifiesto el reto y la oportunidad de incorporar la inteligencia artificial (IA) como apoyo a las tareas de seguridad operacional, sin perder el protagonismo y la responsabilidad del factor humano. Los ponentes debatieron sobre la integración de la IA en los sistemas actuales, su utilidad práctica y los límites éticos y técnicos, además de atender a los desafíos estructurales de los entornos aeroportuarios.

Perspectiva del gestor aeroportuario y la cadena de seguridad

José Sanz Dodero, formador internacional de la IATA, recalcó que la seguridad operacional en el aeropuerto no es solo responsabilidad de pilotos o ingenieros, sino de toda la cadena: desde el agente de handling hasta el último operario de mantenimiento. En su intervención, defendió que el sistema de gestión de la seguridad operacional ofrece un enfoque preventivo: “La IA puede aportar valor facilitando la captura y el análisis masivo de datos que permitan anticipar riesgos antes de que ocurran incidentes graves”. Sanz Dodero insistió en que la introducción de nuevas tecnologías, incluida la inteligencia artificial, debe ser siempre un recurso orientado a reforzar la toma de decisiones del profesional, no un fin en sí mismo.

Jose Sanz Dodero, Airport Management International Trainer, International Air Transport Association (IATA); Jorge Martínez Jericó, responsable de Oficina Técnica del RACE; Mª Dolores Couso Cambeiro, jefa de relaciones de compañías asistidas; Alejandro Rodriguez Nijpjes, vicepresidente de APROCTA; Acorán Viera, Técnico de Seguridad Operativa de Navegación Aérea (Enaire). Foto: Diego GómezMesa 3. Habla Jose Sanz Dodero (izquierda), Airport Management International Trainer, International Air Transport Association (IATA); Jorge Martínez Jericó (segundo por la izquerda), responsable de Oficina Técnica del RACE; Mª Dolores Couso Cambeiro, jefa de relaciones de compañías asistidas; Alejandro Rodriguez Nijpjes (2º por la derecha), vicepresidente de APROCTA; Acorán Viera (derecha), Técnico de Seguridad Operativa de Navegación Aérea (Enaire). Foto: Diego Gómez

Aviación general y deportiva: visibilidad y gestión de riesgos por fauna

Para Jorge Martínez Jericó, responsable de la Oficina Técnica del RACE, la visibilidad es el factor esencial en la seguridad operacional, especialmente en aeródromos no controlados. Explicó la importancia de “ver y ser visto” en estos entornos, y puso el foco en el problema real y recurrente de la colisión con fauna, especialmente buitres. Presentó un proyecto de investigación desarrollado junto con ENAIRE y la Universidad Politécnica de Madrid, donde se está utilizando inteligencia artificial para detectar aves y prevenir incidentes fatales que, en la última década, ya han costado vidas y causado daños importantes en la aviación ligera. Martínez Jericó subrayó que la IA será una herramienta valiosa tanto para la detección temprana de riesgos como para el análisis de performance y la mejora de la formación en las escuelas de vuelo.

Jorge Martínez Jericó (segundo por la izquerda), responsable de Oficina Técnica del RACE

Jorge Martínez Jericó, responsable de Oficina Técnica del RACE. Foto: Diego Gómez

Asistencia en tierra: entornos hostiles, reporte y gestión del talento

Mª Dolores Couso Cambeiro, jefa de Relaciones con Compañías Asistidas, aportó la visión del personal de handling y operaciones en tierra. Explicó que los aeropuertos son entornos altamente hostiles donde confluyen aeronaves, vehículos, tecnología y personas en tiempos críticos. “Cada operación de asistencia en tierra implica riesgos singulares y exige reportar cualquier evento, por pequeño que sea, para alimentar el sistema de gestión de la seguridad operacional”, señaló Couso Cambeiro. Destacó que la IA es especialmente útil para establecer patrones, anticipar riesgos y extraer enseñanzas de los reportes, agilizando la comunicación con todos los trabajadores y favoreciendo la cultura de aprendizaje continuo. Sin embargo, advirtió del riesgo de ciberataques y del error de desplazar al talento humano. Defendió que la toma de decisiones debe permanecer en manos del profesional cualificado, apoyándose en las sugerencias de la IA: “Quiero seguir siendo yo quien toma las decisiones”. Además, llamó la atención sobre la pérdida de atractivo del sector y la fuga de talento cualificado después de la pandemia, lo que supone un nuevo factor de riesgo.

Mª Dolores Couso Cambeiro, jefa de relaciones de compañías asistidas. Foto: Diego Gómez

Mª Dolores Couso Cambeiro, jefa de relaciones de compañías asistidas. Foto: Diego Gómez

Controladores aéreos: cautela ante el cambio y defensa del factor humano

Alejandro Rodríguez Nijpjes, vicepresidente de la Asociación Profesional de Controladores de Tránsito Aéreo (APROCTA), transmitió la postura de los controladores aéreos, tradicionalmente reacios a cambios que no hayan sido completamente acreditados y comprobados. Enfatizó que la integridad del sistema es prioritaria y que cualquier herramienta de IA debe garantizar que no proporcione información engañosa o errónea, lo que en el sector se conoce como “alucinaciones”. Rodríguez Nijpjes defendió que la IA tiene un gran potencial como complemento, especialmente en análisis de datos voluminosos y tareas repetitivas, pero nunca debe plantearse como sustituto del profesional. “No entiendo el empeño de eliminar el factor humano. La improvisación, el criterio experto, la experiencia y la motivación del trabajador son insustituibles, sobre todo en situaciones críticas”, afirmó. Además, reivindicó la importancia de unas condiciones laborales dignas y de la formación continua para garantizar la calidad y la seguridad del servicio, con impacto directo en la experiencia del pasajero.

Foto 12:

Alejandro Rodriguez Nijpjes, vicepresidente de APROCTA. Foto: Diego Gómez

Investigación y análisis de incidentes: la IA como apoyo, pero bajo supervisión

Acorán Viera, técnico de Seguridad Operativa en Enaire, orientó su intervención hacia la “pedagogía” del proceso de investigación de incidentes en navegación aérea. Explicó que todos los actores deben notificar cualquier anomalía en 72 horas, tras lo cual se evalúa la gravedad, se recopilan datos técnicos y humanos, y se reconstruye la secuencia real de los hechos mediante modelos sistémicos. Destacó que la IA puede agilizar la recopilación, preclasificación y análisis de grandes volúmenes de información, así como facilitar la elaboración de informes y la simulación de escenarios alternativos. Sin embargo, alertó de que la IA puede no interpretar bien el contexto específico de cada suceso y que, por tanto, su utilización siempre debe estar supervisada por expertos humanos. “La IA debe servir para ayudar a procesar los datos, pero la interpretación y la toma de decisiones deben seguir siendo humanas”.

Acorán Viera (derecha), Técnico de Seguridad Operativa de Navegación Aérea (Enaire). Foto: Diego Gómez

Acorán Viera (derecha), Técnico de Seguridad Operativa de Navegación Aérea (Enaire). Foto: Diego Gómez

Conclusión

La mesa concluyó con la idea compartida de que la inteligencia artificial tiene aplicaciones muy prometedoras en la seguridad operacional aeroportuaria: desde la gestión de datos, la identificación de patrones de riesgo y el apoyo a la investigación de incidentes, hasta la facilitación de tareas administrativas y de formación. 

Como expresó el experto Ramón López de Mántaras y fue citado en la mesa: “La inteligencia artificial viene para ayudar a tomar decisiones, no para tomarlas”. Los ponentes defendieron que la clave está en lograr sistemas híbridos donde la tecnología potencie la labor de los profesionales, pero sin perder el control y la supervisión humana.

¿Es seguro reducir el número de pilotos por la inteligencia artificial?

Mesa 4. Juan Carlos Lozano, Director Técnico de ECA (European Cockpit Association); José Manuel Ponz, Presidente de SEPAC (Sociedad Española de la Psicología Aeroespacial y Aeronáutica Civil); Iván García Luengo, Teniente Coronel del Ejército del Aire. Foto: Diego Gómez

Mesa 4. Juan Carlos Lozano, Director Técnico de ECA (European Cockpit
Association); José Manuel Ponz, Presidente de SEPAC (Sociedad Española de la
Psicología Aeroespacial y Aeronáutica Civil); Iván García Luengo, Teniente Coronel del Ejército del Aire. Foto: Diego Gómez

En la cuarta mesa del II Congreso Español de Seguridad Operacional Aeronáutica, titulada “Seguridad Operacional Aeroportuaria e Inteligencia Artificial”, se reunieron expertos del ámbito de la operación aérea, la psicología aeronáutica y el ámbito militar para debatir sobre los desafíos y oportunidades que supone la integración de la inteligencia artificial (IA) en la aviación. En este panel, las perspectivas de los pilotos, la psicología aeroespacial y la defensa han dibujado un panorama repleto de matices, en el que la tecnología avanza imparable pero sigue generando interrogantes cruciales sobre el factor humano y los límites éticos.

Juan Carlos Lozano, director técnico de la European Cockpit Association (ECA), subrayó que los pilotos son los primeros beneficiarios de la revolución tecnológica y que la profesión ha evolucionado enormemente gracias a los avances en automatización y digitalización. Sin embargo, advirtió sobre la tentación de ver a la IA como un sustituto del ser humano, cuando su papel debe ser fundamentalmente el de apoyo para la toma de decisiones. Lozano remarcó la implicación de la ECA en el desarrollo normativo junto a EASA y la Comisión Europea, pero también mostró su preocupación ante la posibilidad de que el regulador europeo acelere la certificación de operaciones comerciales con un solo piloto (Single Pilot Operations, SPO) cuando, desde su punto de vista, el sistema aún no está maduro. Recordó que la industria debe alcanzar consensos éticos similares a los que han limitado la manipulación genética, estableciendo fronteras claras para el uso de la inteligencia artificial.

Juan Carlos Lozano, Director Técnico de ECA (European Cockpit Association). Foto: Diego Gómez

Juan Carlos Lozano, Director Técnico de ECA (European Cockpit Association). Foto: Diego Gómez

En cuanto a la seguridad de las fases de vuelo, Lozano matizó que no existen fases “no críticas”, recordando que muchos incidentes graves, como el del vuelo Air France 447, han ocurrido en crucero, una etapa frecuentemente considerada de bajo riesgo. La fiabilidad de los sistemas de navegación actuales, como el GPS, puede verse comprometida por interferencias, lo que refuerza la exigencia de no relajar la vigilancia humana ante una posible sobredigitalización.

Desde el ámbito de la defensa, el teniente coronel Iván García Luengo fue rotundo al señalar que la IA ya forma parte del presente y que su potencial solo tiende a crecer, pero insistió en que la seguridad del espacio aéreo nacional es prioritaria y no se debe delegar jamás en sistemas que pueden ser vulnerados por guerra electrónica o interferencias intencionadas. García Luengo explicó que el Ejército del Aire conoce el concepto de operaciones con un solo piloto (SPO) y participa en proyectos de investigación en este sentido, pero no está dispuesto a “entregar un sistema de armas a una IA que pueda ser fácilmente perturbable”. Insistió en que el factor humano debe estar siempre en el centro de la toma de decisiones, evitando que la tecnología pase de ser una herramienta a convertirse en un fin en sí misma.

Iván García Luengo, Teniente Coronel del Ejército del Aire. Foto: Diego Gómez

Por su parte, José Manuel Ponz, presidente de la Sociedad Española de la Psicología Aeroespacial y Aeronáutica Civil, centró su intervención en los riesgos emocionales y psicológicos de la soledad en cabina. Ponz defendió que el “calor humano” es esencial en un entorno donde la presión y la responsabilidad pueden alcanzar niveles extremos. Insistió en que no existen estudios sólidos sobre el impacto emocional de largos periodos de operación en solitario, pero los datos recogidos en programas de apoyo a pilotos tras incidentes graves, como el accidente de Germanwings, permiten anticipar que la soledad podría agravar problemas latentes relacionados con la fatiga, la presión y la toma de decisiones bajo estrés.

José Manuel Ponz, Presidente de SEPAC (Sociedad Española de la Psicología Aeroespacial y Aeronáutica Civil)

José Manuel Ponz, Presidente de SEPAC (Sociedad Española de la Psicología Aeroespacial y Aeronáutica Civil)

En la mesa se recordó el valor incalculable de las capacidades humanas de improvisación y pensamiento lateral, como demuestran casos históricos en los que la colaboración y la intuición de la tripulación permitieron salvar vidas en situaciones límite. Lozano trajo a colación el accidente del DC-10 de United en 1989, donde la cooperación entre varios pilotos fue determinante, a la hora de buscar una alternativa y usar los motores para gobernar la aeronave. Ésta había perdido sus sistemas hidráulicos para controlarla. Carlos Lozano alertó, además, de que la IA, a día de hoy, no puede sustituir esa interacción y capacidad de juicio humano, menos aún en contextos de alta incertidumbre.

A modo de conclusión, el panel defendió la necesidad de que la industria aeronáutica, así como todos sus subsectores -pilotos, ingenieros, técnicos de mantenimiento, controladores, personal de handling y expertos en factores humanos- trabajen de manera conjunta para que la inteligencia artificial se desarrolle bajo criterios éticos claros y siempre como un complemento, nunca como reemplazo de la responsabilidad humana.


Copyright © Grupo Edefa S.A. Prohibida la reproducción total o parcial de este artículo sin permiso y autorización previa por parte de la empresa editora.

Deje un comentario

Su e-mail no será publicado.

*

*

*