Boeing y su mala hora

Existen serios y crecientes cuestionamientos sobre la preparación y aseguramiento de la competencia técnica de estos pilotos, ya que los sistemas tan autónomos reducen gravemente los requerimientos formativos y los años de experiencias significativas

Las dos recientes tragedias de aeronaves 737 MAX 8 de este gigante de la aeroindustria, han impactado gravemente su capitalización de mercado —hasta hoy ha perdido un total de USD 25 mil millones—, pero también dañado severamente su prestigiosa reputación corporativa, exhibiendo también las cuestionables relaciones acomodaticias con los reguladores —la FAA (Federal Aviation Administration)— encargada de efectuar las verificaciones y certificación de seguridad de los nuevos modelos, reduciendo esta delicada e independiente supervisión de carácter altamente crítico, a un ritual protocolario, omitiendo la obligación y rigurosidad de las pruebas requeridas y la debida diligencia técnica.

La falla identificada en ambas catástrofes —Ethiopian Airlines y Lion Air, de Indonesia— con 157 y 189 fatalidades, respectivamente, ha sido provocada —paradójicamente—, por una medida de seguridad fallida en su diseño; en donde el sistema automático de prevención de pérdida crítica (falta de sustentación vertical al enfrentar un movimiento repentino que posicione la aeronave en un ángulo crítico de elevación), el software controlador denominado MCAS (Maneuvering Characteristics Augmentation System) efectúa de inmediato, y autónomamente, un descenso agudo para prevenir esta pérdida de sustentación.

Lea: Administrando el desempeño

Este complejo sistema se activó en los dos accidentes provocando una caída en picada sin posibilidad de control alguno por los pilotos.

El poder del mecanismo automático —durmiente pero activo para esas eventuales situaciones límite— fue subestimado en su casuística automática y en su sensibilidad, para lo cual, quienes estaban encargados de efectuar la revisión crítica, la FAA, sus funcionarios presionaron para delegar en los mismos ingenieros de seguridad de Boeing el efectuar las pruebas técnicas de ese mecanismo, autoexcluyéndose esta agencia de su rol protagónico en la verificación de seguridad de un modelo de aeronave completamente nuevo, pero que la FAA sostenía, tercamente, que era “solamente una actualización de una versión del 737”.

Lea:¿Falta de compromiso?

El tema no deja de ser relevante como aprendizaje en los siempre interesantes fenómenos de causación de un fiasco empresarial.
Este avanzada aeronave es operada por un poderoso software totalmente autónomo que ha provocado cuestionamientos serios sobre el verdadero valor y función de la otrora glamorosa profesión de piloto, que en un pasado no lejano, requerían obligatoriamente miles de horas de vuelo para ser habilitados a operar una compleja aeronave; oficio ahora venido a menos con el advenimiento de estos prodigiosos sistemas electrónicos, que los ha degradado a una simple función de “botoneros”.

Sidney Dekker, destacado escritor y scholar de la investigación de accidentes industriales, ha señalado magistralmente a través de sus formidables libros, uno de ellos“Drift into failure – From Hunting Broken Components to Understanding Complex Systems”, que la increíble complejidad de los sistemas socio-técnicos industriales contemporáneos —en donde el software reemplaza el razonamiento y sustituye el rango de control tan limitado y falible de los pilotos al ser estos humanamente incapaces de controlar tan elevado número de sistemas críticos —, no significa en modo alguno la eliminación del llamado error humano directo, es decir, del piloto, sino que ahora se le abre la puerta a una miríada de posibles fallas catastróficas de diseño de sistemas, por su entropía incremental con otros factores humanos, aunada a la grave falta de experiencia real, significativa, protagónica, de un botonero —perdón, quise decir, un piloto competente—.

Lea:Casi-accidentes y aprendizaje

Existen serios y crecientes cuestionamientos sobre la preparación y aseguramiento de la competencia técnica de estos pilotos, ya que los sistemas tan autónomos reducen gravemente los requerimientos formativos y los años de experiencias significativas, siendo hoy pocos aviadores de aparatos complejos quienes tienen la oportunidad de pilotar, sino que desempeñan funciones de atendedores de un sistema operativo de pilotaje inteligente, todopoderoso, cómodo —pero también falible— como lo han demostrado estas dos tragedias.

Dekker menciona en otra de sus formidables obras The Field Guide to Understanding Human Error, que “en verdad, la automatización no falla con frecuencia, pero limita la habilidad de las personas para practicar los escenarios de ruptura por los cuales se justifica la presencia humana marginal en el sistema. Aquí, el ser humano está representado como un monitor pasivo, en el cual, su más grande riesgo es el desaprender habilidades para hacerle frente a situaciones críticas, desarrollando autocomplacencia, bajando la guardia y deteriorando su rol protagónico para intervenir en circunstancias de emergencia”.
direccion@cambiocultural.net