La cultura y sus efectos

https://youtu.be/a4TXS7ck8bQ

¿Pueden las cuestiones culturales provocar accidentes de avión?

Malcolm Gladwell -el intelectual pop de pelo salvaje de “Tipping Point”- dice que sí, y dedica un capítulo entero al tema en “En las colas: La historia del éxito”, el libro que acaba de publicar. Aunque toca el tema de la aviación, el tomo se centra en gran medida en cuestiones relacionadas con lo que hace que la gente tenga éxito. (¿La conclusión?: concluye que es un cóctel de cultura, ética del trabajo y suerte).

Pero Gladwell trata el tema desde la perspectiva de las aerolíneas -el título del capítulo en cuestión se llama “La teoría étnica de los accidentes de avión”- en una reciente entrevista con la revista Fortune.

F: Usted comparte una historia fascinante sobre la cultura y la seguridad de las aerolíneas.

G: Korean Air tuvo más accidentes aéreos que casi cualquier otra aerolínea del mundo durante un periodo a finales de la década de 1990. Cuando pensamos en los accidentes aéreos, pensamos en que deben de tener aviones viejos, deben haber tenido pilotos mal entrenados. No. Lo que estaban luchando era un legado cultural, que la cultura coreana es jerárquica. Estás obligado a ser deferente con tus mayores y superiores de una manera que sería inimaginable en Estados Unidos.

Pero Boeing y Airbus diseñan aviones modernos y complejos para ser pilotados por dos “iguales”. Eso funciona de maravilla en culturas de baja distancia de poder [como la estadounidense, donde las jerarquías no son tan relevantes]. Pero en las culturas que tienen una gran distancia de poder, es muy difícil.

Utilizo el caso de un accidente de avión muy famoso en Guam de Korean Air. Están volando y se encuentran con un pequeño problema, el tiempo es malo. El piloto comete un error, y el copiloto no le corrige. Ahora, una vez que Korean Air se dio cuenta de que su problema era cultural, lo arreglaron.

No hemos leído el libro ni el capítulo en cuestión. The Associated Press dice que Gladwell “examina el papel de la cultura en los accidentes del vuelo 052 de Avianca y el 801 de Korean Air en 1997. Además de las condiciones meteorológicas y la fatiga de los pilotos, culpa de esos accidentes a los miembros de la tripulación cuyo legado cultural les hizo ser demasiado deferentes para comunicar claramente que el avión estaba a punto de estrellarse”.

En 1999, William M. Carley y Andy Pasztor, de The Wall Street Journal, informaron sobre algunos de los problemas relacionados con el pésimo historial de seguridad de la aerolínea coreana en la década de 1990.

Señalaron que los problemas “tienen que ver con la cultura autoritaria de Corea, reflejada en una política de contratación y promoción que favorece a los antiguos pilotos militares en detrimento de los civiles. Con demasiada frecuencia, el efecto ha sido una fricción que dificulta el trabajo en equipo de los pilotos, necesario para pilotar aviones construidos en Occidente”. Pero también comentaron otros problemas, señalando que “un programa de formación rígido y un inglés deficiente hacen que a algunos pilotos de Korean Air les resulte todavía más difícil tratar con los controladores aéreos y hacer frente a las emergencias.”

En su informe sobre el accidente de Avianca, la NTSB dice que “la causa probable de este accidente fue el fracaso de la tripulación de vuelo en la gestión adecuada de la carga de combustible del avión, y su fracaso en comunicar una situación de emergencia de combustible al control de tráfico aéreo antes de que se produjera el agotamiento del combustible.” Así es como la reseña del libro del New York Times explica el argumento de Gladwell de que las cuestiones culturales entraron en juego en el accidente de Avianca:

Gladwell plantea la idea de que las tradiciones culturales pueden desempeñar un papel en los accidentes aéreos, que el accidente de 1990 del vuelo 52 de Avianca sobre Long Island, Nueva York, podría haber tenido algo que ver con que los pilotos fueran colombianos. Cita a Suren Ratwatte, un veterano piloto que participa en la investigación de los “factores humanos”, diciendo que “ningún piloto estadounidense aguantaría” que el control del tráfico aéreo le retuviera varias veces en su camino a Nueva York durante más de una hora si le faltara combustible.

Sin embargo, hay casos de fallos similares en la comunicación de información importante entre los pilotos estadounidenses. De hecho, los accidentes de las aerolíneas estadounidenses provocados por cabinas jerárquicas y una comunicación deficiente y atrofiada entre los miembros de la tripulación dieron lugar a toda una ciencia de la “gestión de los recursos de la tripulación”. Gran parte de esa investigación se originó en el accidente de un DC-8 de United Airlines en 1978 en Portland, Oregón, después de que el avión diera vueltas durante mucho tiempo esperando para aterrizar, al igual que el accidente de Avianca. El informe federal sobre ese accidente señaló que un factor que contribuyó al accidente fue el hecho de que dos miembros de la tripulación no lograron comunicar al capitán que el avión se estaba quedando sin combustible. Sabían que el avión probablemente se quedaría sin combustible, pero el capitán no se enteró.

Desde nuestro punto de vista, parece difícil achacar los problemas de cualquier compañía aérea en particular únicamente a cuestiones de origen étnico.

Pilotos, pasajeros y sociólogos de butaca, ¿qué opinan de la opinión de Gladwell sobre estos incidentes? ¿Las diferentes culturas hacen las cosas de forma tan diferente en la cabina que pueden afectar a la seguridad? Háganoslo saber dejando un comentario a continuación.

Traducción del artículo: Malcolm Gladwell on Culture, Cockpit Communication and Plane Crashes, por Matt Philips del Wall Street Journal

El usuario

https://youtu.be/DE8OTmpnV-g

En el 2009, los pedales del acelerador de los Toyota empezaron a atascarse misteriosamente, atrapando en ellos a sus aterrorizados conductores, en autos fuera de control, y que se estrellaron trágicamente.

¿Pero era el auto el problema?

Este es el tema del último podcast “Revisionist History” del famoso escritor Malcolm Gladwell, una serie que explora los ángulos ignorados de algunas de las historias más importantes de la historia. La conclusión de Gladwell proporciona una lección conmovedora para los fabricantes de automóviles y los conductores de hoy en día, pero, por desgracia, es una lección que a menudo no se escucha.

Este es un relato rápido de la crisis del “pedal pegajoso”.

En el 2009, un hombre llamó al 911 para informar de que su pedal del acelerador estaba atascado y no podía conseguir que el coche se detuviera. Dijo que los frenos no funcionaban. Al final, su coche chocó con otro y se precipitó por un barranco. Todos los ocupantes del vehículo murieron.

La llamada al 911 se hizo viral y el escándalo se destapó. En los cinco años siguientes, se calcula que murieron 90 personas en Toyotas que aceleraban misteriosamente. Toyota retiró millones de vehículos, pero fue acusada de ocultar información sobre los pedales defectuosos. En el 2014, la compañía pagó 1.200 millones de dólares para evitar ser procesada por encubrir información sobre los problemas de “aceleración involuntaria” que, según el FBI, Toyota “sabía que era mortal”.

En ese momento, surgieron dos teorías para explicar por qué estos pedales de repente tenían mentes propias. Una tenía que ver con el mal funcionamiento del software, mientras que la otra culpaba a las alfombrillas que se deslizaban y fijaban los pedales.

Pero, según Gladwell, la explicación del software no se sostiene si se tiene en cuenta que múltiples pruebas han demostrado que, incluso cuando un conductor pisa el acelerador a fondo, pisar los frenos detiene el coche.

Y una investigación realizada por el Departamento de Transporte en 2011 descubrió que las alfombrillas sólo eran responsables de una pequeña parte de los accidentes.

Entonces, ¿cuál era el verdadero culpable? El error humano. La mayoría de las veces, los conductores que informaron que sus aceleradores se atascaron pisaron el suelo sin darse cuenta, pensando que estaban pisando los frenos. Los datos de muchas de las “cajas negras” de los coches implicados en incidentes de aceleración involuntaria mostraron que, en la mayoría de los casos, ni siquiera habían tocado los frenos.

Los conductores solían ir en vehículos nuevos o desconocidos para ellos, o por la razón que fuera, se confundían.

Uno de los aspectos más frustrantes de todo este fiasco fue la respuesta de los medios de comunicación. En lugar de alertar a los conductores sobre los peligros potenciales de confundir el acelerador con el freno -lo que podría ocurrirle a cualquiera de nosotros-, la atención se centró en el encubrimiento de Toyota, el temible e imprevisible software de los coches y, por supuesto, las alfombrillas.

Esta distinción es muy importante a medida que nos adentramos en la era de los vehículos de autoconducción.

Hace poco más de un mes, un hombre al volante de un Tesla de “autoconducción” murió cuando su coche se estrelló contra un remolque. Para muchos, la atención se centró en entender por qué la tecnología “falló”, y se especula que el resplandor del sol podría haberla desviado.

Pero es fundamental señalar cómo el error humano jugó un papel importante. Según Tesla, el coche está diseñado para que el conductor mantenga las manos en el volante en todo momento, aunque está equipado con sistemas para ayudar al conductor si algo va mal. En este caso, eso no ocurrió.

En cierto modo, puede parecer una situación con consecuencias inevitables: los fabricantes de automóviles pueden rogar a los conductores que presten atención en estos coches de “autoconducción” todo lo que quieran, pero al mismo tiempo, estas funciones de piloto automático probablemente adormecerán a la mayoría de los conductores en un peligroso estado de complacencia.

Es un acuerdo que, al menos, parece destinado a algunos desastres. (Sobre todo si se tiene en cuenta cómo ha afectado el mismo escenario a la aviación, como en el caso del vuelo 447, que se estrelló trágicamente en el océano Atlántico cuando iba de Río de Janeiro a París).

Por eso es tan vital una conversación abierta y honesta sobre el papel del error humano. Con demasiada frecuencia, los conductores esperan que los fabricantes de automóviles y los vehículos se lo pongan fácil. Pero a medida que los coches y los fabricantes de automóviles se hacen más inteligentes, los conductores también tienen que “despertar”.

El mes pasado, otro conductor que utilizaba la función de piloto automático de Tesla se estrelló.

Según un informe sobre el incidente, el coche alertó al conductor para que tomara el volante debido a las inciertas condiciones de la carretera, pero no lo hizo; por suerte, nadie resultó herido. Un policía en el lugar de los hechos decidió no citar al conductor, que culpó del accidente al coche. Y ahora los federales están iniciando una investigación sobre los límites de la tecnología.

Esperemos que tengan en cuenta la mayor limitación: los humanos.

Hasta que no entendamos la nueva tecnología de los coches y dejemos de darla por sentada, no se puede esperar que los humanos la manejen con seguridad. Y eso significa un debate sincero sobre por qué cometemos errores y, por la razón que sea, no tomamos el volante cuando deberíamos hacerlo.

Traducido del artículo The 2009 Toyota Accelerator Scandal That Wasn’t What It Seemed por Meagan Parrish.

Causas de desastres en la industria petrolera

Incendio Jiangsu
Incendio de refinería en Jiangsu, China

Para los incidentes más recientes (2018-2019), los datos de las pérdidas están menos disponibles y en algunos casos las investigaciones aún están en curso; sin embargo, todavía se pueden establecer comparaciones con los sucesos de hace 30 años.

CAUSAS RAÍCES

Inspección
1. En Filadelfia, se cree que la rotura de un codo de tubería adelgazado instalado en 1973 fue el evento iniciador, que causó la mayor pérdida de contención primaria, lo que provocó un gran incendio y las subsiguientes explosiones.

2. En Wisconsin se cree que la causa principal fue una válvula de deslizamiento del catalizador gastado de la FCCU, que debía estar “provista con una protección contra la erosión adecuada para la vida útil de diseño en las condiciones de diseño”, pero se había erosionado y no pudo mantener el nivel de catalizador necesario para evitar que el aire se mezclara con los hidrocarburos durante el funcionamiento transitorio.

Normas de ingeniería
Se informó de que la tubería de Filadelfia rota contenía niveles de cobre y níquel permitidos cuando se instaló originalmente, pero no según las recomendaciones hechas 20 años después por la Sociedad Americana de Pruebas y Materiales (ASTM International).

Aunque las normas han evolucionado, los equipos de la planta no lo han hecho.

FACTORES DE ESCALADA

Protección contra incendios
El incidente de Limbe comenzó como un incendio cerca de una unidad de destilación de la refinería, que se convirtió en una explosión mucho mayor. Una protección contra incendios más sólida en el lugar podría haber reducido o evitado esta escalada.

Planes de respuesta a emergencias
En los cuatro incidentes, las instalaciones no estaban bien preparadas para los incidentes que se produjeron.

Los planes de emergencia cuidadosamente estudiados y documentados, que se ponen a prueba mediante simulacros regulares, pueden ayudar a reducir en gran medida el impacto eventual de un evento desde el momento en que se inicia.

Sistemas más citados por la Junta de Philadelphia
Sistemas más citados por la Junta de Philadelphia (Investigation Board, Fire and Explosions
at Philadelphia Energy Solutions Refinery
Hydrofluoric Acid Alkylation Unit)

Los temas de recomendación de riesgos más citados por Marsh en los últimos años (véase el gráfico), refuerzan la opinión de que hoy en día se siguen observando los mismos problemas entre 1988-1989.

Los sistemas de trabajo fueron el tema más citado.

Obstáculos para aprender de los siniestros
Cuatro factores clave impiden aprender de las pérdidas y permiten que la historia se repita:

La distancia
La reglamentación que sigue a un siniestro importante suele aplicarse a nivel local y no globalmente, y por tanto sólo, o al menos en su mayor parte, afecta a la conciencia local. Al mismo tiempo, las partes pueden verse afectadas por el sesgo de la cercanía (sentirse inconscientemente menos afectado por los acontecimientos que se producen a gran distancia).

Cultura
Esto puede impedir que las lecciones se apliquen eficazmente. El miedo a los litigios y a la culpabilidad impide que se comuniquen abiertamente los incidentes y las enseñanzas en las organizaciones, mientras que la dificultad para desafiar el alza en ciertas cultura puede impedir que se apliquen las mejoras.

Visión de túnel
Algunas empresas no se dan cuenta de la importancia general de las lecciones. El pensamiento aislado puede hacer que las empresas imaginen que un incidente en un tipo de instalación diferente a la suya no proporciona enseñanzas aplicables.

Tiempo
Se han aprendido lecciones, pero desde entonces se han olvidado o las soluciones implementadas no son lo suficientemente sólidas. Teniendo en cuenta los 30 años entre los dos peores periodos en cuanto a las 20 mayores pérdidas, esto parece ser particularmente significativo. El lapso de tiempo puede dar lugar a lo siguiente
– Pérdida de personas con experiencia.
– Pérdida de la memoria corporativa: la eficacia de las salvaguardias establecidas después de grandes pérdidas se erosiona con el tiempo.
– Falta de comprensión de cómo el riesgo puede cambiar con la edad de la planta, incluyendo:
– Cambios sigilosos o sutiles que no se reconocen.
– Problemas heredados si el emplazamiento ha cambiado de propietario.
– Complacencia – “Ha funcionado bien durante 20 años” – puede ser difícil mantener la atención en la mano de obra durante varias décadas.

El sector debe asegurarse de que dentro de 30 años no se refleje que no se han aprendido las lecciones. Esto sólo se conseguirá si se sigue prestando atención a la seguridad de los procesos y el compromiso de aprender de las pérdidas en todos los niveles de la organización.

De la publicación de Marsh: “100 Largest Losses in the Hydrocarbon Industry”.