• Carregando...
 | Jason Redmond;
AFP
| Foto: Jason Redmond; AFP

Se você é passageiro de qualquer linha aérea, a automação é sua amiga – excetuando o medo do papel que ela desempenhou na queda de dois Boeing 737 Max nos últimos cinco meses. Na verdade, sua disseminação gradual na frota aérea civil é o principal motivo por que o índice de acidentes aéreos caiu de quatro acidentes por milhão de voos, em 1977, para menos de 0,4 hoje. Muitas aeronaves modernas já são capazes de decolar, voar e aterrissar sem nenhuma assistência humana. Como um piloto aposentado disse, o profissional, hoje, mais do que ligar e desligar botões, é apenas um supervisor de equipamentos.

Apesar disso, a automação tem lá seus riscos. Uma vez que se tornou presente em praticamente todas as cabines, os acidentes que a envolvem já são uma proporção significativa de todas as ocorrências. Em 2013, a Administração Federal de Aviação (FAA, na sigla em inglês) publicou um estudo dos acidentes das duas décadas anteriores e concluiu que relatos de comportamento “inesperado ou inexplicável” dos sistemas automatizados compunham 46% das descrições de desastres e 60% de situações graves coletadas pelos pesquisadores.

Basicamente, há duas maneiras pelas quais a automatização pode levar a uma catástrofe: às vezes, uma avaria faz com que o piloto automático fique fora de controle e coloque o avião em risco. Parece que foi o que aconteceu ao Lion Air 737 Max que caiu em outubro passado, logo depois de decolar de Jacarta, na Indonésia. E pode também ter ocorrido no caso da queda da aeronave da Ethiopian Airlines, em 10 de março; três dias depois, a FAA informou que os dados de satélites mais recentes “indicavam várias semelhanças” entre as duas ocorrências.

É justamente nos momentos de grande estresse que o cérebro humano está menos capacitado para se deparar com situações complexas

Como o 737 Max ganhou motores novos, maiores, que podem fazer com que o nariz do avião se lance perigosamente para cima, a Boeing lhe acrescentou também o Maneuvering Characteristics Augmentation System (MCAS) para fazer as correções necessárias. Só que um sensor defeituoso enviou informações incorretas ao sistema de voo da Lion Air, fazendo com que o avião desse um mergulho. Em pelo menos outras duas ocasiões, nos Estados Unidos, pilotos reportaram problemas semelhantes, mas em ambos os casos conseguiram desativar o sistema e recuperar o controle do avião.

Outra maneira de a automação se tornar um problema é quando o sistema funciona da maneira correta, mas o piloto se confunde e faz a coisa errada. Em 2009, o Air France 447 estava em pleno Oceano Atlântico, tendo decolado do Rio de Janeiro rumo a Paris, quando seus sensores de velocidade congelaram e pararam de enviar dados para o piloto automático – que, por sua vez, se desligou e entregou o controle do avião aos pilotos, como foi projetado a fazer nessas circunstâncias. Eles, porém, ficaram desorientados, e um acabou, sem querer, levantando o nariz da aeronave, que subiu e registrou uma perda perigosa de velocidade. O pior é que não perceberam que, com o piloto automático desligado, o computador de bordo não poderia mais impedir que a asa paralisasse aerodinamicamente. Levou menos de cinco minutos para um avião em perfeitas condições, a quase 10 mil metros de altitude e em velocidade de cruzeiro, cair no mar.

Nos dois tipos de eventos, os pilotos se veem obrigados a entender, de repente, por que um sistema complexo deixa de funcionar como deveria e a tomar uma atitude rápida, baseados nessa análise – e é justamente nos momentos de grande estresse que o cérebro humano está menos capacitado para se deparar com situações complexas.

Leia também: A segurança da aviação (artigo de Fábio Augusto Jacob, publicado em 9 de abril de 2015)

Leia também: A restrição no setor aéreo é fictícia (artigo de André Luiz Bonat Cordeiro, publicado em 26 de abril de 2018)

A melhor maneira de lidar com emergências é treinar e praticar de antemão, de modo que a reação se torne automática. Ironicamente, com a mudança dos aspectos mais mecânicos e triviais da pilotagem para a automação computacional, os pilotos perdem justamente a oportunidade de continuar praticando, o que os deixa sem a rapidez mental que os poderia salvar em um momento de crise.

Infelizmente, no caso do 737 Max, parece que a Boeing criou um avião com um problema aeronáutico intrínseco, que pensou poder resolver com a adição de um sistema automático – e conseguiu convencer as companhias aéreas e a FAA de que era essencialmente semelhante aos modelos anteriores da série. Ou seja, os pilotos já treinados para manejar os 737s mais antigos não precisariam de nenhum treinamento adicional para dominar o novo sistema. A administração concordou com a conclusão, já que, entre outras coisas, representaria uma economia nos custos de treinamento e manutenção – mas provou ser um erro de cálculo terrível.

Como resultado da tragédia dupla, a Boeing anunciou que lançará uma atualização de software para o 737 Max, o que, muito provavelmente, deve resolver o problema. Pode ser que o avião volte a operar com essa modificação e nunca mais tenha qualquer complicação.

A questão é que provar uma negativa é coisa complexa. Certamente, décadas se passarão até que o público passe a confiar na medida. E, uma vez que os erros dos humanos e sistemas automáticos têm a tendência já comprovada de amplificar uns aos outros no pior momento possível, apostar na solução da Boeing pode muito bem representar um risco que poucas aéreas, passageiros ou órgãos reguladores estarão dispostos a correr.

Jeff Wise é jornalista científico, piloto particular e autor de “The Taking of MH370”.
The New York Times Licensing Group – Todos os direitos reservados. É proibido todo tipo de reprodução sem autorização por escrito do The New York Times.
0 COMENTÁRIO(S)
Deixe sua opinião
Use este espaço apenas para a comunicação de erros

Máximo de 700 caracteres [0]