• Nenhum resultado encontrado

CAPÍTULO 2 DINÂMICAS EVOLUTIVAS NOS SERVIÇOS DE NAVEGAÇÃO AÉREA

3.3 P ROBLEMÁTICA DOS F ATORES H UMANOS

3.3.1 O elemento humano no sistema

3.3.1.2 Erro humano em ambientes de risco e sistemas complexos

Acidentes de aviação têm um enorme impacte organizacional e societal, sendo primordial a investigação das causas para adotar futuras estratégias de gestão de erro. No domínio da aviação, as estratégias de gestão do erro para melhorar o safety baseiam-se na compreensão da extensão do erro, alterações das condições que o induziram, encontrando comportamentos que o mitiguem ou previnam e treinando o pessoal para lidar com este fator (Helmreich, 2000). O erro humano está assinalado como fator causal em 80% dos acidentes e incidentes de aviação (Hudson, 2000; Johnson, 1997; Taneja, 2002), integrando este indicador todos os elementos

[107]

humanos em contacto direto com o integral sistema da aviação (e.g. tripulações, fabricantes, projetistas, despachantes, controladores de tráfego aéreo, pessoal da manutenção). Numa ótica extremada mas julgada realista, a ICAO considera existir sempre uma contribuição humana na cadeia de causalidade, uma vez que a inerente participação no projeto, construção, formação e treino, operação, gestão e proteção, implica considerar que, “quando o sistema falha, é necessariamente devido a erro humano” (ICAO SMM Doc. 9859, p. 139).

Sakuma (2000), associa o erro humano a “parte do normal comportamento humano, em que o nível de desempenho esperado não pode ser alcançado porque (1) o desempenho do cérebro humano é diminuído, ou (2) o nível de desempenho esperado é muito alto” (p. 329), o que explica que sejam os fatores que afetam o normal nível de desempenho que captam a atenção dos investigadores de fatores humanos.

Genericamente entendido como um “ato inseguro do operador de um sistema” (Sorensen, 2002, p. 192), torna-se impossível erradicar o erro humano, fruto da caraterística da natureza humana que necessita de se superar e lidar permanentemente com desafios (Sakuma, 2000). Já Amalberti (1996), atribuiu essa impossibilidade às limitações fisiológicas e psicológicas do ser humano, cujo efeito pode ser atenuado através de uma maior tolerância ao erro dos sistemas e equipamentos.

Nos sistemas sócio tecnológicos que integram a tecnologia com a componente humana, a tendência de atribuição de causalidade a erro humano é imediata quando não se identifica a origem da falha, conforme identificou Dekker (2005): “«Erro humano» é o nosso padrão quando não encontramos falhas mecânicas. É uma escolha forçada, inevitável, que se encaixa perfeitamente numa equação onde o erro humano é o inverso do valor atribuído a falha mecânica” (p. 6). No entanto, esta tendência mascara, na maioria dos casos, a verdadeira causa, apenas pelo facto de se encetar a investigação num ponto de partida errado. Por outro lado, segundo Woods et al. (2010), é necessário “começar a montante do rótulo de erro humano para começar a melhorar o processo de aprendizagem da investigação em safety” (p. 239). Deve-se ainda contrariar a propensão para uma análise centrada numa “visão em túnel”10, geralmente

10 Visão em túnel:carateriza-se por perder a noção de uma situação global devido ao foco numa circunstância particular. Operacionalmente, em controlo de tráfego aéreo, refere-se à tendência de perda de consciência situacional dos eventos e mudanças que ocorrem no setor sob controlo devido ao foco numa situação crítica e mudanças associadas que concentrem a atenção numa dada área desse setor.

[108]

focada nas violações de regras e que exclui outras causalidades, pelo que, estes autores identificaram a necessidade por parte de grupos de stakeholders da definição ou criação de uma taxonomia do erro humano.

Cada organização ou indústria sente que o progresso no safety depende da existência de uma definição firme do erro humano. Cada grupo parece acreditar que essa definição possibilitaria a criação de um “scorecard” que lhes permitisse avaliar o posicionamento de cada organização ou indústria em termos de ser segura. Mas cada organização que o tenta definir depressa se atola em operações complexas e termos de referência. (...) As definições oferecidas envolvem métodos arbitrários e subjetivos de atribuição de eventos a categorias (Woods et al., 2010, p. 235).

Se, por um lado, a ausência de acidentes ou incidentes não garante a inexistência de erros, por outro, o conhecimento dos erros não pode depender da informação proveniente dos acidentes. Nesse sentido se dirige a proposta de Wells e Rodrigues (1991), que contempla a identificação dos erros através de mecanismos de reporte, considerando que, “uma melhor recolha e análise de dados das capacidades humanas e falhas, é a pedra angular de futuros ganhos na segurança operacional da aviação” (p. 90).

Alguns investigadores (Dekker, 2005; Reason, 1997; Woods et al., 2010) trouxeram uma “nova visão” para a compreensão do erro humano. Segundo esta nova abordagem, o erro humano não traduz a origem dos problemas ou a conclusão de uma investigação mas, configura antes, o ponto de partida ou a consequência de problemas mais profundos na organização.

Se a análise retrospetiva do processo de investigação revela que o erro foi relevante para o evento em estudo, devem-se procurar identificar os fatores contextuais subjacentes que o fomentaram, sendo certo que, nos sistemas operacionais a análise do erro deve considerar o contexto organizacional (McDonald et al., 2000; Woods et al., 2010). Tal como referem Mauriño, Reason, Johnston e Lee (2002), os erros têm origem numa cadeia de causalidade complexa que engloba fatores organizacionais e desajustes na interação humana com o sistema.

Deste modo, na opinião de Woods et al. (2010), a tendência de atribuição imediata da causa dos incidentes a “erro humano” na investigação deve ser contrariada, dada a forte probabilidade da origem do problema ser geralmente organizacional ou tecnológica. Adiantam os mesmos autores, que o sucesso das organizações que investigam a montante do erro humano se atribui ao facto de perspetivarem o sistema como um todo, sem isolar os seus componentes.

Conforme nos lembra Mauriño (2000, p. 1): “O problema do erro na aviação reside nas consequências negativas em contextos operacionais”, pelo que, apesar de se assistir progressivamente ao incremento da automatização na gestão de tráfego aéreo, a gestão do erro

[109]

humano na navegação aérea assume cada vez maior importância. Note-se contudo, que face à complexidade sócio tecnológica do ATM, o elemento humano tanto pode ser o veículo do perigo através dos seus atos inseguros (e.g. erros e violações), como pode assumir o papel de “herói” ao executar no sistema as compensações, ajustes e recuperações necessárias para evitar a catástrofe (Reason, 2009, pp. 253-262).

Na cultura aplicada à aviação reconhecem-se limites aos operadores humanos (e.g. pilotos e controladores de tráfego aéreo), que uma vez transpostos, aumentam a probabilidade de ocorrência de erro (Durso & Drews, 2010). A correta estruturação da formação e treino, a elaboração de procedimentos operacionais e a própria cultura são elementos críticos ao nível dos quais se deve atuar na prevenção desta situação.

Erros de proficiência sugerem a necessidade de formação técnica, enquanto erros de comunicação e decisão reclamam formação de equipe. Erros procedimentais podem resultar de limitações humanas ou procedimentos inadequados que necessitam ser mudados. Violações podem resultar de uma cultura condescendente, perceções de invulnerabilidade, ou procedimentos fracos (Helmreich, 2000, p. 782).

Na análise de 36 relatórios de incidentes no controlo de tráfego aéreo, Weikart e Johansson (1999), identificaram como principais fatores contribuintes para o erro: falhas de concentração, metodologia, fraseologia, falta de formação e treino e falhas na transferência de informação aquando da transição de turno. Nesse sentido, a automatização é apontada como uma das soluções possíveis para atenuar o erro humano embora, na perspetiva de Reason (1997), conduza, paradoxalmente, ao aumento da importância e impacto do erro humano. Isaac, Shorrock e Kirwan (2002), explicam este efeito com a deslocalização do erro, do operador para o projetista do sistema, para o pessoal da manutenção e para o supervisor que tem de resolver os problemas derivados da automatização.