proposta de um mÉtodo neuroergonÔmico para melhoria de...
Post on 16-Jul-2020
1 Views
Preview:
TRANSCRIPT
i
PROPOSTA DE UM MÉTODO NEUROERGONÔMICO
PARA MELHORIA DE POSTOS DE TRABALHO
Bianca Monteiro Mota
Thiago Machado Leitão
Projeto de Graduação apresentado ao Curso
de Engenharia de Produção da Escola
Politécnica, Universidade Federal do Rio de
Janeiro, como parte dos requisitos
necessários à obtenção do título de
Engenheiro.
Orientador: Roberto Ivo da Rocha Lima Filho
Coorientador: Vinícius Carvalho Cardoso
Rio de Janeiro
Fevereiro de 2018
i
ii
Mota, Bianca Monteiro
Leitão, Thiago Machado
Proposta de um método Neuroergonômico para melhoria
de Postos de Trabalho/ Bianca Monteiro Mota e Thiago
Machado Leitão – Rio de Janeiro: UFRJ/ Escola Politécnica,
2018.
IX, 126 p.: il.; 29,7 cm.
Orientador: Roberto Ivo da Rocha Lima Filho
Coorientador: Vinícius Carvalho Cardoso
Projeto de Graduação – UFRJ/ POLI/ Curso de
Engenharia de Produção, 2018.
Referências Bibliográficas: p. 120-126.
1. Análise do trabalho. 2. Neuroergonomia. 3. Ergonomia
cognitiva. I. Filho, Roberto Ivo da Rocha Lima et al. II.
Universidade Federal do Rio de Janeiro, UFRJ, Curso de
Engenharia de Produção. III. Proposta de um método
Neuroergonômico para melhoria de Postos de Trabalho
iii
AGRADECIMENTOS DE BIANCA MOTA
Primeiramente, gostaria de agradecer a toda a minha família. Em especial, um
agradecimento a meu pai e minha mãe, que sempre priorizaram minha educação e
foram exemplos na minha vida pessoal, profissional e acadêmica. Vocês me apoiaram
em épocas difíceis, brigaram comigo quando necessário e souberam dar conselhos
nos momentos apropriados, mas também me deixaram errar e aprender sozinha, o
que foi fundamental para meu crescimento como indivíduo. À Larissa, irmã, minha
mais sincera gratidão, por termos criado um vínculo de amizade que nem sempre
acompanha os laços de sangue. Você ouviu os meus problemas e me consolou mais
do que qualquer outra pessoa, além de me trazer alegria todos os dias.
A todos os meus amigos de infância, do ensino fundamental e médio, e que fui
acumulando no decorrer desses 22 anos, obrigada por termos dividido tantas
experiências, vocês são maravilhosos e levo um pedaço de cada um comigo. Aos
amigos da faculdade, que sabem os altos e baixos que passamos no Fundão, vou
sentir falta da nossa convivência diária. Thiago, você me apoiou e ajudou de tantas
maneiras diferentes nesses anos que eu já perdi a conta, tenho certeza que
conquistará todos os seus objetivos e terá muito sucesso na vida (e eu vou presenciar
tudo). Julia, você é a melhor amiga que eu poderia pedir, e eu já estou cansada de
sentir sua falta (não volta pro Paraná!). Luiz, agradeço por termos compartilhado
nosso primeiro estágio juntos e pelo seu senso de humor que nos animava sempre.
Natália, às vezes você dá um perdido, mas nós te amamos, nunca duvide. Marina,
minha companheira de séries, foi muito bom me aproximar de você quando a distância
entre nós aumentou. E Tress, você chegou na reta final, mas conseguiu melhorar
muito meu último ano na faculdade.
Por último, mas não menos importante, agradeço à UFRJ pela oportunidade de
aprendizado nesse período, incluindo projetos incríveis como os Alunos Contadores de
Histórias e ENGATTI, dos quais tive a honra de participar. Ao professor Meirelles (in
memoriam), um reconhecimento especial por ter dividido seu amor pelo que faz com
cada um de nós, alunos, e ter nos iniciado nessa vida de engenheiros. Obrigada a
todos os mestres da EP pelos ensinamentos transmitidos dentro (e algumas vezes
fora) da sala de aula, principalmente aos professores Roberto, Vinicius, Cameira e
Jardim. Além disso, agradeço aos funcionários da secretaria e do DEI (especialmente
a Cris), que estavam dispostos a nos ajudar com problemas do dia a dia.
iv
AGRADECIMENTOS DE THIAGO LEITÃO
É uma tarefa árdua resumir em poucas palavras as minhas mais sinceras
gratidões a todos aqueles que me auxiliaram neste caminho, no entanto cabe aqui
necessária a tentativa.
Antes de tudo, o mais sincero agradecimento a meus pais, Rosana e Luiz
Henrique, que me conceberam, me criaram com a melhor educação possível e com
muito amor, que sempre estiveram ao meu lado em todos os momentos de alegrias e
tristezas, sem vocês nada disso seria possível. Em conjunto, a todos os meus
familiares, em especial à minha avó materna, dona Antônia (in memoriam), por ter me
ensinado caráter, valores e princípios.
Em seguida, às pessoas que estiveram presentes ao meu lado, pessoas
incríveis e inesquecíveis. Não conseguirei citar todas, mas trago aqui a benévola
intenção. Ao Daniel Ciriaco, meu companheiro de apoio, alegrias e que está comigo a
todo momento. À minha amiga e parceira de trabalho final, Bianca Mota, que juntos
em alegrias e tristezas conseguimos finalizar uma jornada juntos, mas que esta não
seja a única. Ao restante do grupo que sempre esteve junto comigo, Luiz Felipe, Julia
Scarlett e Natália Táboas, pelas horas de trabalhos e almoços e momentos juntos, me
aguentando e me ajudando sempre. Aos amigos que tive a honra de conhecer:
Eduardo Tress, Glenda Carvalho, Larissa Freitas, Israel Oliveira, Paulo Gilberto, e os
muitos outros que me aguentaram neste meio tempo.
A todas as oportunidades de aprendizado e crescimento, como profissional e
cidadão, que pude obter pela UFRJ, ou melhor, pela Universidade do Brasil. Às lições
e ensinamentos que obtive com o mestre Luiz Antonio Meirelles (in memoriam), que
me incentivou e me trouxe a paixão pela Engenharia de Produção. Aos outros
mestres, aos quais fui apenas um discípulo, que muito me acrescentaram nesta
jornada acadêmica, como os professores Roberto Ivo, Vinícius Cardoso, Renato
Cameira, Adriano Proença, Édison Silva e Graham Smith. Ao pessoal do apoio técnico
e secretaria, a todos que fazem esta escola secular funcionar e trazer o sonho de
muitos alunos à realidade. Às diversas atividades que pude participar, como as
monitorias e iniciação científica, mas um agradecimento especial ao Profundão, por
permitir que eu conhecesse lugares e pessoas incríveis, e aos Alunos Contadores de
Histórias, no qual ajudei (um pouquinho) a melhorar a vida de diversas crianças com
fantasia e um mundo lúdico.
Em resumo, apenas posso agradecer pelo carinho a todos. Muito obrigado.
v
Resumo do Projeto de Graduação apresentado à Escola Politécnica/ UFRJ como parte
dos requisitos necessários para a obtenção do grau de Engenheiro de Produção.
A Análise do Trabalho Humano com a Aplicação de Métodos Neuroergonômicos: o
Indicador de Engajamento da Tarefa
Bianca Monteiro Mota
Thiago Machado Leitão
Fevereiro/2018
Orientador: Roberto Ivo da Rocha Lima Filho
Coorientador: Vinicius Carvalho Cardoso
Curso: Engenharia de Produção
O propósito deste trabalho é sugerir o desenvolvimento de um método que utilize
técnicas neuroergonômicas para o auxílio à análise e projeto do trabalho humano.
Partindo da perspectiva da mudança da natureza do trabalho físico para uma
majoritariamente cognitiva nas organizações atuais, percebe-se que há a necessidade
de adaptar as atividades para as capacidades e limitações do corpo humano. Junto a
isto, a alta competitividade dos mercados ressalta a busca por melhores resultados em
diversos aspectos, baseado no valor gerado, em detrimento à tradicional busca
taylorista pelo único aumento da produtividade. Assim, ao analisar as visões clássicas
e atuais do projeto do trabalho, percebe-se a importância da neurociência e da
neuroergonomia como fontes de melhores prescrições aos postos de trabalho. Por fim,
busca-se aplicar elementos dos materiais e métodos neuroergonômicos, como o uso
de eletroencefalograma, como forma de complemento dos métodos de identificação,
análise e solução de problemas tradicionais da Engenharia de Produção.
Palavras-chave: Análise do trabalho, Neuroergonomia, Ergonomia Cognitiva
vi
Abstract of Undergraduate Project presented to POLI/UFRJ as a partial fulfillment of
the requirements for the degree of Industrial Engineer.
Proposal of a Neuroergonomic Method to improve Workplaces
Bianca Monteiro Mota
Thiago Machado Leitão
February/2018
Advisor: Roberto Ivo da Rocha Lima Filho
Coadvisor: Vinícius Carvalho Cardoso
Course: Industrial Engineering
The purpose of this work is to suggest the development of a method that uses
neuroergonomic techniques to aid in the analysis and design of human work. From the
perspective of the change from the nature of physical work to a predominantly cognitive
one in today's organizations, one realizes that there is a need to adapt activities to the
capacities and limitations of the human body. Alongside this, the high competitiveness
of markets highlights the search for better results in several aspects, based on the
value generated, in detriment of the traditional Taylorist search for the increase only in
productivity. Thus, when analyzing the classic and current views of the work project,
the importance of neuroscience and neuroergonomics as sources of better job
prescriptions is perceived. Finally, we seek to apply elements of neuroergonomic
materials and methods, such as the use of electroencephalogram, as a complement to
the methods of identification, analysis and solution of traditional problems of Industrial
Engineering.
Keywords: Work Analysis, Neuroergonomics, Cognitive Ergonomics
vii
ÍNDICE DE FIGURAS
Figura 1: Estruturação do presente trabalho. ..............................................................................6
Figura 2: Modelo de relação entre recursos e resultados financeiros. .........................................9
Figura 3: Modelo de eficácia e eficiência de um processo. ........................................................10
Figura 4: Taxa de inovação de produto e processo durante o ciclo de vida dos produtos. ........11
Figura 5: O impacto da inovação disruptiva na performance do produto. .................................13
Figura 6: As vertentes para maiores lucros de Taylor e Fayol. ...................................................15
Figura 7: Exemplo de fluxograma. ..............................................................................................19
Figura 8: Esquema geral da Análise Ergonômica do Trabalho. ...................................................23
Figura 9: Quadro-resumo das pesquisas bibliométricas sobre melhoria do trabalho. ...............27
Figura 10: Problemas ergonômicos identificados em centros de comando do setor de óleo e
gás. .............................................................................................................................................35
Figura 11: Modelo de Avaliação Combinada Física e Cognitiva. .................................................36
Figura 12: Modelo esquemático da anatomia do cérebro. ........................................................40
Figura 13: Modelo de relação entre as funções executivas e as respostas geradas ao ambiente.
...................................................................................................................................................42
Figura 14: Características dos sistemas do processamento dual. ...............................................46
Figura 15: Definições das avaliações da escala NASA-TLX. .........................................................56
Figura 16: Atribuição de pesos para a escala NASA-TLX. ............................................................56
Figura 17: Exemplo de escala do NASA-TLX................................................................................57
Figura 18: Correlação entre engajamento e desempenho. ........................................................59
Figura 19: Ciclos circadianos. .....................................................................................................62
Figura 20: Estudo sobre a relação entre ciclos circadianos e produtividade. .............................63
Figura 21: Decréscimo no desempenho cognitivo ao longo do tempo acordado. .....................65
Figura 22: Ciclo de feedback biocibernético para engajamento mental do operador. ...............71
Figura 23: Modelo do uso de robôs adaptativos na aprendizagem. ...........................................76
Figura 24: Caracterização de técnicas de mapeamento cerebral para aplicações ergonômicas.
...................................................................................................................................................80
Figura 25: Comparação gráfica entre as ondas cerebrais do EEG. ..............................................82
Figura 26: Modelo do método proposto. ...................................................................................86
Figura 27: Representação do experimento. ...............................................................................88
Figura 28: Exemplo de quadro de observações. .........................................................................97
Figura 29: Exemplo de curva-TEI média. ....................................................................................99
Figura 30: Exemplo de base de dados. .....................................................................................102
Figura 31: Intervenção de variáveis controláveis e incontroláveis. ..........................................103
Figura 32: Exemplo de tabela de experimentos. ......................................................................104
Figura 33: Exemplo fictício de resultado de experimentos com dois fatores. ..........................105
Figura 34: Exemplo de Diagrama de Ishikawa. .........................................................................106
Figura 35: Exemplo de 5W2H. ..................................................................................................109
Figura 36: Exemplo de classificação de organizações. ..............................................................113
viii
ÍNDICE DE TABELAS
Tabela 1: Comparação entre alguns autores clássicos sobre produtividade e trabalho humano.
...................................................................................................................................................16
Tabela 2: Critérios para avaliar os instrumentos de carga de trabalho. .....................................58
Tabela 3: Consequências da privação do sono. ..........................................................................66
Tabela 4: Correlação entre engajamento e desempenho. .........................................................75
Tabela 5: Características das principais ondas cerebrais. ...........................................................82
Tabela 6: Exemplos de indicadores. ...........................................................................................93
ix
SUMÁRIO 1. INTRODUÇÃO ..................................................................................................................1
1.1 Panorama Geral ..................................................................................................................1
1.1.1 Objetivo de estudo ..............................................................................................4
1.1.2 Metodologia de pesquisa .....................................................................................5
1.1.3 Limites e limitações..............................................................................................5
1.1.4 Estruturação dos capítulos ...................................................................................6
1.2 Histórico .............................................................................................................................7
1.2.1 A relação entre resultados financeiros e desempenho operacional ........................7
1.2.2 O estudo da melhoria do trabalho e das organizações ......................................... 14
1.2.3 A Ergonomia ...................................................................................................... 21
2. ESTUDOS ATUAIS SOBRE MELHORIAS NO TRABALHO HUMANO ...................................... 26
2.1 Engenharia de Métodos e Melhoria do Trabalho .............................................................27
2.2 Automação .......................................................................................................................30
2.3 Ergonomia cognitiva .........................................................................................................32
2.4 Engenharia de Resiliência .................................................................................................37
3. BREVE REVISÃO DE LITERATURA SOBRE NEUROCIÊNCIAS ................................................ 40
3.1 Funções Executivas ...........................................................................................................41
3.2 Aplicações das funções executivas ...................................................................................44
3.3 O sistema dual ..................................................................................................................45
4. NEUROERGONOMIA ...................................................................................................... 47
4.1 Panorama Geral da Neuroergonomia ...............................................................................47
4.2 Aplicações Atuais da Neuroergonomia .............................................................................51
4.2.1. Aviação............................................................................................................. 51
4.2.2. Carga de trabalho mental .................................................................................. 54
4.2.3. Vigilância e atenção .......................................................................................... 59
4.2.4. Sono e Controle Circadiano ............................................................................... 61
4.2.4.1. A privação do sono ............................................................................................64
4.2.4.2. Causas de perda de sono ...................................................................................67
4.3 O Indicador de Engajamento da Tarefa: NASA-TEI ...........................................................68
4.3.1. A origem pela automação adaptativa ................................................................ 68
4.3.2. O indicador de engajamento da tarefa ............................................................... 71
4.3.3. Aplicações do NASA-TEI .................................................................................... 73
4.3.4. Implicações sobre o NASA-TEI ........................................................................... 76
5. MATERIAIS E MÉTODOS ................................................................................................. 79
5.1 Os instrumentos neuroergonômicos ................................................................................79
5.1.1. O Eletroencefalograma (EEG) ............................................................................ 81
6. A APLICAÇÃO DO NASA-TEI PARA PROJETO DE POSTOS DE TRABALHO: O MÉTODO PROPOSTO ........................................................................................................................ 85
6.1 Aparato Experimental e Recomendações .........................................................................86
6.2 Representação do experimento .......................................................................................88
x
6.3 Descrição do Método .......................................................................................................90
6.3.1. Primeira etapa: definir o objeto de estudo......................................................... 90
6.3.1.1. A identificação do contexto ...............................................................................90
6.3.1.2. Definição da atividade .......................................................................................92
6.3.1.2.1. Uso dos indicadores de desempenho ..........................................................92
6.3.1.2.2. Uso do NASA-TLX ........................................................................................93
6.3.1.2.3. Escolha pelo uso do NASA-TEI .....................................................................94
6.3.2. Segunda etapa: identificar pontos críticos ......................................................... 95
6.3.2.1. O protocolo de coleta ........................................................................................95
6.3.2.1.1. A amostragem ............................................................................................96
6.3.2.1.2. O quadro de observações ...........................................................................96
6.3.2.2. A curva-TEI .........................................................................................................97
6.3.2.3. A identificação dos pontos críticos na curva-TEI................................................98
6.3.3. Terceira etapa: análise dos fatores .................................................................. 100
6.3.3.1. Entrevistas com funcionários...........................................................................100
6.3.3.2. Uso de dados secundários ...............................................................................101
6.3.3.3. Análises estatísticas e correlação entre variáveis ............................................101
6.3.3.4. Planejamento de experimentos.......................................................................102
6.3.3.5. Uso de ferramentas adicionais ........................................................................105
6.3.4. Quarta etapa: prescrever alternativas de solução ............................................ 106
6.3.5. Quinta etapa: gerir a mudança ........................................................................ 107
6.3.5.1. A priorização de alternativas de solução .........................................................108
6.3.5.2. O plano de ação ...............................................................................................108
6.3.5.3. O teste das alternativas de solução .................................................................109
6.3.5.4. A padronização ................................................................................................110
6.4 Discussão sobre o método .............................................................................................110
6.5 Sobre a Aplicação do Método ........................................................................................112
7. CONCLUSÃO ................................................................................................................ 116
REFERÊNCIAS BIBLIOGRÁFICAS ......................................................................................... 120
1
1. INTRODUÇÃO
Neste capítulo será apresentada a contextualização da pesquisa diante do
cenário atual das organizações e da transição de escopo físico das tarefas para o
cognitivo. Em seguida, será delimitado o objeto de pesquisa a ser analisado, bem
como os objetivos, método de pesquisa, limites e limitações e breve descrição dos
capítulos seguintes. Por fim, a seção 1.2 apresenta uma revisão histórica sobre os
temas permanentes a este estudo, no caso o desempenho operacional e o projeto do
trabalho.
1.1 Panorama Geral
Diversas mudanças no cenário tecnológico, entre elas o aumento da
globalização e da divisão internacional do trabalho, investimentos em sistemas de
informação e automatização e a importância da cadeia de suprimentos, conduzem à
percepção de que houve constantes alterações no funcionamento das organizações e
em suas estruturas internas ao longo dos anos. De acordo com Hayes, Upton e Pisano
(2008), o foco principal era composto a partir do paradigma industrial, caracterizado
pela produção em alta escala, extensas linhas de produção cujos componentes eram
principalmente trabalhadores humanos, maquinaria especializada e sistemas de
planejamento e de controle interno. No entanto, este foco está sendo substituído aos
poucos pelo setor de serviços, que oferece cada vez mais produtos intangíveis
compostos de atividades de maior valor agregado, e pelas empresas intensivas em
informação.
Estes autores definem este novo modelo operacional para as empresas de
maior foco no valor agregado dos bens e serviços e na informação como “A Nova
Economia Mundial”, emancipada no início da década de 90, depois da abertura
econômica global. É caracterizado pelos fenômenos da globalização, tecnologia de
informação avançada e parcerias de rede, estas últimas focadas em recursos
intelectuais ao invés de físicos. Entre exemplos das atividades realizadas por estas
empresas, cita-se o desenvolvimento de softwares, telecomunicações, entretenimento,
circuitos integrados, entre outras. Assim, nesta década ocorreu a potencialização das
indústrias intensivas em informação, o que acentuava a busca pela excelência
operacional e a importância da estratégia como elemento diferenciador em relação a
seus competidores.
2
Desse modo, as organizações começaram a desenvolver maior preocupação
com seus elementos táticos e estratégicos, pertencentes às suas camadas
hierárquicas mais altas sob a perspectiva dos organogramas. Estas atividades em
geral não eram padronizadas, com predominância do trabalho intelectual ao invés do
esforço físico. No entanto, o crescimento de processos operacionais relacionados à
Tecnologia da Informação (TI) durante a década de 80 e 90, à exemplo do
Planejamento das Necessidades de Materiais (MRP) e do Planejamento dos Recursos
da Empresa (ERP), permitiu que as empresas englobassem muitas das atividades em
termos de processos de negócios1, como a gestão de estoque, sequenciamento da
produção, controle financeiro, emissão de ordens de produção, entre outras.
(CORRÊA; CORRÊA, 2012). Assim, a conjunta expansão da TI nas empresas através
das últimas décadas nos diversos setores permitiu que os níveis operacionais das
organizações também pudessem ser caracterizados pela alta carga de trabalho mental
e cognitivo, pela convergência das necessidades em resolução de problemas e
tratamento de dados. O esforço físico não era mais tão necessário em razão do
desenvolvimento dos computadores de alta potência, que permitia a automatização de
tarefas e tornava-se cada vez mais viável economicamente como elemento básico de
qualquer organização.
Diante de uma ótica microscópica focada na atividade, De Masi (2005) explicita
que a inserção crescente da automatização das tarefas e dos sistemas de informação
alterou a essência do trabalho humano dentro das empresas. De uma natureza
predominantemente física, caracterizada por movimentos repetitivos do corpo a partir
de lógicas explicitáveis, que podem ser traduzidas para códigos e executadas com
pouco esforço por componentes computadorizados, o trabalho humano desloca-se
para um ambiente de maior âmbito cognitivo. Tarefas não padronizadas que exigem
raciocínio entram como prioridade, principalmente em sistemas complexos e em
problemas gerenciais de difícil solução, tanto nos níveis estratégico e tático quanto no
operacional.
Diversas organizações atuais possuem como principal produto o know-how
humano, modelado e explicitado a partir de suas ações cognitivas. Spiegel (2009)
mostra que atividades como a tomada de decisão, criatividade e aprendizagem são
1 Processos de negócios, de acordo com Costa e Caulliraux (1995), são meios utilizados por uma
empresa para conduzir seus negócios, de forma a gerar receita e lucro devido à sua atuação no mercado. Entre seus benefícios, cita-se possibilitar uma visão sistêmica das atividades da empresa, foco nos processos e gerenciar os inter-relacionamentos de sua cadeia de valor. São exemplos habituais os processos de venda, de fabricação, de gestão da qualidade, entre outros.
3
base de grande parte das novas estruturas organizacionais. A autora cita diversos
exemplos de capacitações organizacionais: os sistemas de controle de produção,
como no caso de sistemas MRP na ocorrência de ruptura de estoque de matérias-
primas ou em adiantar um pedido de produção, ambos focados na tomada de decisão;
conhecimento desenvolvido em laboratórios de pesquisa e instituições de ensino,
abrangendo tanto aprendizagem quanto criatividade; e tomada de decisão rápida e de
alta responsabilidade em corpos de bombeiros e postos policiais, organizações de alta
criticidade que possuem como principal produto o atendimento a situações
emergenciais e imprevisíveis.
Os três elementos levantados por Spiegel (2009) podem ser encontrados nas
diversas granularidades dentro das empresas, desde o nível operacional, passando
por supervisores e gerentes, e chegando até as tarefas dedicadas ao nível estratégico.
Sobre a tomada de decisão, esta se encontra presente na grande maioria dos níveis
gerenciais das organizações por fazer parte do cotidiano da gestão por exceção, ou
seja, uma situação fora do padrão cuja resolução é dada de forma heurística. Este tipo
de decisão é caracterizado por tomar a escolha mais prática e rápida para resolver um
problema não racional. Pode ocorrer no desenvolvimento de ferramentas, como uma
cadeia de valor 2 de Porter, na revisão do planejamento estratégico de uma
multinacional ou na escolha entre adiar uma produção por falta de matéria-prima
barata e adquirir material de um fornecedor mais caro. A autora cita a criatividade,
baseando-se em organizações que exigem o desenvolvimento de produtos ou serviços
novos constantemente, como nas áreas de pesquisa científica, projeto do produto,
desenvolvimento de uma nova coleção de uma empresa de moda, ou na criação de
uma nova campanha publicitária. Atua como uma constante forma do ser humano
manipular padrões, utilizando analogias, e reorganizá-los de forma a obter uma
solução viável e diferente das comuns para tal situação.
Já a aprendizagem está presente em diversos momentos ao longo dos
processos de negócios. Argyris e Schon (1997) relatam sobre a teoria do loop, na qual
o aprendizado organizacional é baseado em um sistema de feedback de aprendizado
diante de uma situação de trabalho, seja ela repetitiva ou analítica. O loops podem ser
divididos entre o simples, que envolve a melhoria na execução de uma tarefa através
de sua repetição contínua e no progresso pela curva de aprendizado, e o loop duplo,
voltado para implementar um novo método de executar tal tarefa mais eficientemente
2 Cadeia de valores é um modelo que desagrega uma organização em suas atividades de
relevância estratégica, dividindo-as em primárias e de apoio, para auxiliar no posicionamento estratégico de uma empresa (PORTER, 1992).
4
através de uma análise desta. Assim, é possível encontrar diversos exemplos de loops
na estrutura hierárquica das organizações, como o ensino de forma tácita de um
supervisor a um operário sobre como realizar determinada tarefa, a absorção de
informações por forma explícita pela leitura de documentos e relatórios. No entanto,
mesmo observando estes diversos níveis, um deles atrai cada vez mais foco, tanto por
novas necessidades de tarefas que envolvam tomada de decisão, criatividade e
constante aprendizagem: o posto de trabalho.
O trabalho humano, em especial o posto no qual este é realizado, é
considerado como um dos elementos básicos de uma organização (BARNES, 1977).
O posto de trabalho, desde as origens da revolução industrial, possuía uma
abordagem física, baseada em movimentos manuais, corporais, uso de ferramentas e
esforço por gasto de energia. No entanto, pelas mudanças citadas sobre as
organizações, a natureza das novas tarefas, principalmente as não-padronizadas,
passou a exigir esforços cognitivos aos quais os postos de trabalho não estão
devidamente adaptados, como apontado por Crandall, Klein e Hoffman (2006). Nisto
incluem-se operações de alto risco e concentração, como pilotagem de aviões,
atendimento em centros cirúrgicos ou monitoramento de sistemas de controle,
necessitando assim de altos níveis de atenção e engajamento. Esta necessidade de
mudança deve ser estudada e projetada pela Engenharia de Produção, de forma a
tornar o trabalho mais fluido e facilitado ao colaborador, culminando em geração de
valor para as empresas e para a própria sociedade, ou seja, na sua efetividade, a
razão de sua existência.
1.1.1 Objetivo de estudo
O presente estudo possui como objetivo geral prescrever um método para
análise e melhoria do trabalho humano e dos meios de realização deste em ambientes
de operações utilizando técnicas neuroergonômicas, em especial o
eletroencefalograma. O objetivo específico é prescrever, a partir dos resultados e
ferramentas neuroergonômicos existentes na literatura, um método que utilize o
indicador de engajamento da tarefa TEI (Task Engagement Index) para a análise de
tarefas de alto valor para organizações.
5
1.1.2 Metodologia de pesquisa
Baseado nas referências de Lakatos e Marconi (2010), o presente projeto
caracteriza-se como uma pesquisa bibliográfica, de caráter prescritivo, abordagem
qualitativa e de natureza aplicada, dirigida para a solução de problemas específicos.
Os resultados encontrados serão baseados por indução, ou seja, generalização de
verdades pontuais.
Para a pesquisa bibliográfica dos estudos atuais, o principal método utilizado
foi o Mapeamento Sistemático, apresentado por Proença Júnior e Silva (2016) como
um método que busca um estado da literatura não enviesado referente a uma questão.
Foram utilizadas palavras-chave para responder a perguntas como "Quais as
principais contribuições sobre neuroergonomia aplicada ao trabalho?" e "Quais as
principais pesquisas sobre ergonomia cognitiva?". Após o mapeamento das
referências na base de periódicos Web of Science, foram utilizados os filtros de
remoção de duplicatas, leitura do título e resumo, disponibilidade do artigo e leitura
completa deste para escolha de referências relevantes sobre o assunto determinado.
1.1.3 Limites e limitações
Sobre os limites do presente estudo, comenta-se sobre a escolha por não
aplicar o método neuroergonômico proposto em um estudo de caso real, pelo foco
bibliográfico e na consistência do protocolo de pesquisa apresentado neste trabalho; a
revisão bibliográfica não se aprofundará nos temas apresentados, pelo intuito de
apenas fornecer um panorama e algumas das principais contribuições presentes nos
campos abordados. Não serão apresentadas previsões dos resultados esperados pela
aplicação do método, devido ao seu viés de incerteza e influenciado pela natureza do
trabalho a ser analisado. Além disto, não serão abordados em detalhes o
funcionamento e características de outros instrumentos neuroergonômicos além do
eletroencefalograma (EEG); também não serão especificadas características técnicas
do EEG a ser utilizado para futuras aplicações do estudo.
Para as limitações, a principal é a necessidade de confiar nos estudos
apresentados pelos outros pesquisadores, sem validação pelos autores ou outros
relativos às áreas. Isto decorre em especial ao capítulo sobre estudos
neuroergonômicos, pelo fato do campo ser recente: diversas pesquisas encontram-se
ainda em desenvolvimento, com ausência de validações históricas ou material
consolidado, o que traz incerteza quanto aos resultados apresentados neste projeto.
6
Outra limitação é a flexibilidade do método prescrito, por sua necessidade de
se adequar às diversas naturezas de trabalho existentes em múltiplos setores. O
desenvolvimento de um método rígido dificultaria sua aplicação e poderia restringir o
alcance de um diagnóstico adequado, levando assim a propostas de solução efetivas.
1.1.4 Estruturação dos capítulos
Este trabalho está estruturado de forma lógica, indo de uma abordagem ampla
inicial, da visão clássica e histórica do desempenho operacional e projeto do trabalho,
até seu objetivo final, a estruturação de um método de análise do trabalho utilizando o
eletroencefalograma. Para ilustração de tal estrutura, foi elaborado o modelo
apresentado pela Figura 1.
Figura 1: Estruturação do presente trabalho.
Fonte: Elaboração própria.
O capítulo 1 destina-se a apresentar a visão clássica e histórica das temáticas
do projeto e desempenho do trabalho, com foco nas escolas tradicionais de Taylor e
Ford, e nos aspectos ergonômicos. O capítulo 2 trata sobre o estado da arte desta
7
temática, mostrando a evolução deste nos últimos anos e algumas das contribuições.
São relatados os temas de automação, ergonomia cognitiva e engenharia de
resiliência. Já o capítulo 3 aborda brevemente a questão da neurociência e as
principais funções executivas do cérebro humano, fundamentais para o exercício do
trabalho cognitivo.
O capítulo 4 traz uma discussão sobre a neuroergonomia, suas principais
aplicações e o indicador de Engajamento da Tarefa, o TEI, elemento fundamental para
o método proposto. O capítulo 5 traz um resumo sobre os métodos e materiais
neuroergonômicos, com foco no eletroencefalograma. O capítulo 6, cerne deste
trabalho, apresenta a contribuição do método proposto de análise neuroergonômica do
trabalho humano, com possíveis aplicações e discussões acerca deste. Por fim, a
conclusão, presente no capítulo 7, apresenta a discussão final sobre a pesquisa.
1.2 Histórico
Esta seção possui o objetivo de explorar de forma não exaustiva alguns dos
aspectos principais do histórico sobre a análise e estudo do desempenho operacional
e do trabalho humano, com foco nos principais movimentos e métodos desenvolvidos
por cada corrente e momento ao longo da história.
Para tal discussão, faz-se necessário conceituar organização, o contexto no
qual o objeto de estudo posto de trabalho se insere. Segundo Kanaane (1995),
organização é um sistema socialmente desenvolvido pelo conjunto de valores e
crenças apresentados pelos indivíduos constituintes deste, com sucessivas
assimilação e transmissão para as novas gerações. É a união entre dois ou mais
indivíduos que compartilham de um mesmo propósito, uma meta organizacional. Esta,
o objetivo de ser da empresa, é quem conduz a discussão e estudos sobre os
resultados financeiros e o desempenho operacional das organizações como um todo.
1.2.1 A relação entre resultados financeiros e desempenho operacional
Goldratt e Cox (1995), ao apresentar a Teoria das Restrições, levantam a
questão sobre o objetivo de existência das empresas, sua meta. Os autores alegam
que esta meta destina-se ao acúmulo econômico e financeiro de capital, pela geração
de dinheiro como saída através da entrada de recursos como insumos básicos e uma
estratégia clara. Já Kendall (2007) aborda o viés de que existem três objetivos gerais
8
para as organizações, sendo um principal e os outros pilares sustentadores desse
primeiro: aumentar a quantidade de lucro hoje e no futuro, aumentar o nível de
satisfação dos funcionários cada vez mais, e aumentar a satisfação dos clientes
constantemente.
Sendo assim, independente do objetivo principal para cada organização, uma
das principais preocupações existentes nestas é conseguir manter estável ou
aumentar o seu resultado econômico após suas atividades exercidas. Seja em uma
esfera microeconômica, como avaliado por Varian (2006) pela maximização do lucro
diante das decisões de preço e quantidade aplicadas, ou pela esfera macroeconômica,
como elemento constituinte da economia nacional e pelo aumento tanto da receita
gerada quanto da capacidade instalada (BLANCHARD, 2011), os resultados
econômicos possuem alta relevância para a sociedade e as redes existentes nesta.
Logo, encontrar formas do aumento da taxa entre saída e entrada de recursos
financeiros tornou-se um dos principais desafios dos gestores da administração da
produção.
No entanto, Corrêa e Corrêa (2012) discutem sobre o uso de indicadores
financeiros, como "retorno sobre o investimento", para avaliar o desempenho de uma
organização. A partir dos anos 80, pela exigência crescente dos clientes e dos
mercados mais competitivos, a estratégia aumentou sua influência nas decisões
operacionais, como em critérios de qualidade e flexibilidade diante do público-alvo.
Neste quesito, embora os indicadores de contabilidade financeira demonstrem qual o
desempenho resultante das atividades realizadas por uma organização, pouco
indicavam sobre como este desempenho foi atingido, ou quais as possíveis fontes de
melhoria. Traduz-se como uma preocupação eminente sobre os meios, e não apenas
sobre os fins.
O Balanced Scorecard, apresentado por Kaplan e Norton (1996), é um modelo
à base de indicadores que complementa os indicadores financeiros com medidas
direcionadoras e alavancadoras de desempenho, os indicadores chave de
desempenho (KPI - Key Performance Indicators). Eram baseados em quatro
dimensões: financeira, clientes, processos internos de negócio, e por fim aprendizado
e crescimento. Todas estas são interligadas entre si e com a visão e estratégia da
organização, sendo necessários, para cada KPI, determinar seus objetivos (o que
alcançar), medidas (como medir), metas (valor numérico) e iniciativas (o que fazer
para alcançar tal objetivo).
9
Assim, existe diferença entre o lucro e o desempenho operacional de uma
organização. Existe uma correlação linear positiva entre ambas, que indica que em
geral uma empresa com bom desempenho operacional tende a obter bons resultados
financeiros, no entanto esta relação não é obrigatória, já que há diversas outras
variáveis envolvidas neste conjunto, como a própria estratégia. Por exemplo, Corrêa e
Corrêa (2012) discutem brevemente a desagregação de retornos econômico-
financeiros em diversos indicadores parciais. Os autores comentam que a busca é por
utilizar indicadores que consigam capturar o todo de forma sistêmica, ao ponto de
permitir focalização e detalhamento em análises. O exemplo dado é a partir de um
indicador chamado de "Produtividade sistêmica - Psis", que retrata a razão entre lucro
e investimento total. Utilizando uma lógica de decomposição em diversos fatores
parciais, é possível chegar em um resultado matemático, conforme descrito pela
Equação 1.
(Eq. 1)
O modelo representado pela Eq. 1 omite diversas variáveis, como as
apresentadas pelo BSC, no entanto mostra a relevância do desempenho operacional.
A lógica do modelo segue a sequência apresentada por Muscat (2002), do resultado
obtido através do esforço de alocação de recursos, neste caso investimento de capital,
ilustrada pela Figura 2.
Figura 2: Modelo de relação entre recursos e resultados financeiros.
Fonte: Adaptado de Muscat (1995).
Percebe-se assim a importância do desempenho operacional para os
resultados financeiros de uma organização. Para mensurar este desempenho nas
atividades envolvidas nos processos de negócios e verificar o impacto de melhorias
propostas, Costa e Jardim (2010) apresentam as cinco dimensões do diagnóstico
operacional: eficácia, eficiência, qualidade, produtividade e efetividade, todas estas
necessárias para o atingimento da meta organizacional.
10
Os autores definem eficácia como a compatibilidade entre os resultados e as
metas impostas, ou seja, se os objetivos estão sendo devidamente alcançados. É
informalmente chamado de "fazer a coisa certa". Eficiência é a compatibilidade entre
os esforços de produção no uso de recursos e os padrões de referência de
racionalidade e economicidade. É o "fazer certo a coisa", realizar a atividade da
melhor forma possível, análogo ao rendimento de uma máquina térmica. Os
indicadores de qualidade3 são voltados para atender às expectativas de todos os
agentes envolvidos, tanto clientes quanto acionistas e sociedade, os chamados
stakeholders. Já a produtividade é a relação custo-benefício entre os resultados
(saídas) e os esforços feitos (entradas), uma versão da eficiência relacionada com a
questão econômica dos recursos utilizados. A Figura 3, neste quesito, apresenta um
modelo que apresenta o ciclo de medição através de um processo de transformação.
Figura 3: Modelo de eficácia e eficiência de um processo.
Fonte: Adaptado de Corrêa e Corrêa (2012).
Por fim, é apresentado o conceito de efetividade. É definido como a criação de
valor sustentável a todos os agentes envolvidos na operação, garantindo tanto a
3 Corrêa e Corrêa (2012) dissertam sobre diversas definições atribuídas ao longo da história
para a qualidade, envolvendo autores como Juran, Deming e Shewart. Entre algumas destas, destaca-se a qualidade como as características dos produtos que atendem às necessidades dos clientes, como a ausência de deficiências, e como um pacote de valor que engloba dimensões como desempenho e confiabilidade.
11
competitividade quanto a durabilidade da organização. Pode ser traduzido como "fazer
certo a coisa útil", ou seja, é a soma de eficiência e eficácia. Logo, diz-se que um
processo, ou organização, que é efetiva é ao mesmo tempo eficiente e eficaz. Os
autores conceituam como "a razão de ser da organização", seu propósito, ou
retomando Goldratt e Cox (1995), sua meta.
Uma abordagem possível sobre a importância da melhoria do desempenho
operacional é a que relaciona a taxa de inovação com o desempenho do pacote de
valor oferecido pelo competidor. Teece (1986), ao apresentar as origens sobre a
inovação tecnológica e o aumento dos lucros a partir desta, comenta sobre a evolução
dos sistemas produtivos de setores industriais em três fases principais: estado pré-
paradigmático, paradigma de melhoria de produto (ou projeto dominante) e paradigma
de melhoria de processos. Estes estágios estão representados pela Figura 4, que
relaciona taxa de inovação com ciclo de vida de um produto.
Figura 4: Taxa de inovação de produto e processo durante o ciclo de vida dos produtos.
Fonte: Adaptado de Teece (1986).
O primeiro estágio, representado pelo intervalo "A", é descrito como incipiente,
no qual os projetos de produtos daquele setor são fluidos, e processos vagos e
improvisados. Não há um nível de maturidade atingido, apenas concorrência entre as
empresas por conta de seus diferentes projetos. A taxa de inovação do produto é alta,
enquanto a de inovação do processo é baixa, esta iniciando apenas após um projeto
12
minimamente estabilizado. Quando um projeto é estabelecido como o mais promissor,
após série de tentativas e erros, adentra-se na fase de projeto dominante,
representada pela parte "B" da Figura 4. A preocupação gira em torno de satisfazer as
necessidades do usuário da melhor forma possível, com a declividade da taxa de
inovação de produto e aumento da taxa de processo.
No entanto, a fase que se preocupa com o desempenho operacional de forma
sólida é a do paradigma de melhoria de processos, representado pelo intervalo "C". Ao
atingir a maturidade do projeto dominante, a taxa de inovação de processo ultrapassa
a de produto, e concorrência passa a girar em torno dos diferenciais competitivos de
custo e diferenciação, utilizando variáveis como escala, custos de produção,
aprendizagem, flexibilidade, proteção contra imitação de concorrentes, etc. Neste
âmbito que entram os esforços para atingir os melhores resultados totais da
organização: maior velocidade, maior capacidade, giro de estoque, lucratividade, entre
outros possíveis.
Assim, ao alcançar o auge do desempenho de processos, pelo
desenvolvimento de uma tecnologia de transformação dominante, a tendência é que o
fenômeno da competitividade gere uma inovação disruptiva, conforme apresentado
por Christensen (1992) no modelo da curva-s4. Ao ser inserida uma nova tecnologia
em determinado setor, representada pela Figura 5 como uma segunda tecnologia,
ocorre uma queda de desempenho no curto prazo, que é suprida com o passar do
tempo e de esforço em engenharia ao se repetir o ciclo de inovação: pré-
paradigmático, paradigma do produto e paradigma do processo. Pelo
acompanhamento das novas tendências pelo mercado, representado pela curva
tracejada, a busca por melhorias de desempenho ocorre continuamente.
4 A curva-s é um modelo de inovação que relaciona o desempenho de um produto como
agregador de valor a seu cliente e o esforço despendido na elaboração deste, medindo assim a taxa de inovação. Possui este formato por ser caracterizada com um pequeno acréscimo de desempenho no início do ciclo de vida do produto, aumento potencial da taxa após a quebra do paradigma inicial de qual o melhor desenho, e por fim redução na taxa ao fim do ciclo de vida, pela saturação dos mercados e alta competitividade (CHRISTENSEN, 1992).
13
Figura 5: O impacto da inovação disruptiva na performance do produto.
Fonte: Adaptado de Christensen (1992).
No entanto, Teece (1986) ressalta que nem sempre este modelo pode ser
verdadeiro, em geral sendo mais para setores industriais. Hayes et al. (2008)
apresentam uma matriz na qual classificam diversos setores em relação à taxa de
inovação em produto (horizontal) e em processo (vertical). Enquanto setores como
vestuário, papel e agricultura possuem baixos índices para os dois tipos de inovação,
indústrias de aço e construção naval focam principalmente em melhorias de processo.
No entanto, os setores que se sobressaem pela alta taxa de inovação de ambos
produto e processo são os quais há o advento da era da informação e novas
tecnologias: setores farmacêuticos, de semicondutores, materiais avançados,
equipamentos eletrônicos e, finalmente, o setor de serviços. É relatado que o foco
converge para a resolução de problemas técnicos complexos, rápida resposta ao
mercado e rápida elevação da produção, ou seja, este foco converge para a criação
de alto valor pela organização.
Traz-se, ao final disto, a discussão sobre como realizar a melhoria de
processos e o alcance da efetividade das operações diante do contexto atual.
Organizações focadas na informação e globalizadas; com atividades que afastam
esforços físicos e exigem demandas cognitivas; com processos que pedem tanto
14
flexibilidade quanto resposta rápida aos clientes, ou à sociedade em geral; com
tomada de decisão não automatizável; com constante exigência de aprendizado e
criatividade que não podem ser atribuídos a algoritmos computacionais.
Percebe-se assim que o elemento central de uma organização nada mais é do
que o próprio ser humano, que tanto executa quanto gerencia e torna efetivas as
operações realizadas. É o indivíduo que controla as atividades, toma as decisões,
desenvolve sua destreza e habilidades, que é envolvido pelo clima organizacional, que
planeja e concebe o projeto. Mesmo em uma fábrica escura, na qual apenas há a
necessidade de maquinários para a produção, é necessário monitoramento, controle e
resolução de problemas e exceções ocorrentes. Assim, faz-se indispensável
compreender melhor como o ser humano processa informações e reage diante das
demandas de tarefas impostas a ele. Em outras palavras, compreender de que forma
este age cognitivamente, psicofisiologicamente e no seu comportamento, para por fim
entender como é possível tornar mais efetivas as operações de organizações
majoritariamente cognitivas.
1.2.2 O estudo da melhoria do trabalho e das organizações
Segundo Taylor (1914), o trabalho é um dos principais fatores existentes para o
progresso do ser humano e suas civilizações. O início do estudo deste se intensificou
ao final do século XIX, com o advento da revolução industrial e com o aumento da
capacidade instalada das organizações produtivas, em especial as fabris. De acordo
com Slack et al. (2009), diversos pesquisadores americanos iniciaram pesquisas
voltadas ao objeto “projeto de trabalho” com o objetivo de desenvolver novas técnicas
gerenciais para obter melhores resultados na fabricação de seus produtos. Entre
estes, pode-se citar aumentar o volume de produção, reduzir tempos de ciclos e
impulsionar os lucros empresariais, o que tornaria consequentemente suas
organizações mais competitivas estrategicamente.
O bom desempenho operacional, caracterizado por maiores lucros e maiores
salários, pode ser atingido através de duas vertentes apresentadas pela Figura 6, de
acordo com a discussão proposta por Vasconcelos e Motta (2002). De um lado, a
teoria científica representada por Taylor (1914) preconizava a abordagem operacional
de chão de fábrica que através de seu estudo do trabalho conseguiu aumentos de
produtividade. Por outro lado, Fayol (1965) trazia o aumento de eficiência através de
15
sua teoria clássica de estrutura organizacional, na qual seus princípios alavancaram a
administração que se prestava a cuidar das tarefas rotineiras.
Sobre estas linhas de pensamento, é importante ressaltar que o mesmo
postulado fundamental é adotado, o do Homo Economicus, no qual o ser humano é
um agente racional que deseja maximizar seus ganhos, concentrando-se nos fatores
que apresentem maior nível de utilidade, é perfeitamente informado e utiliza a lógica
diante de todas suas decisões (VARIAN, 2006). Assim, seja pela vertente da alta
gerência ou pelo chão de fábrica, os resultados devem ser maximizados, aumentando
receitas e minimizando custos para obter maiores lucros e salários.
Figura 6: As vertentes para maiores lucros de Taylor e Fayol.
Fonte: Vasconcelos e Motta (2002, p.34).
Como foco deste trabalho na vertente operacional do trabalho humano, faz-se
interessante avaliar a comparação da corrente administrativa de Fayol com outros
autores clássicos da literatura de projeto do trabalho ao longo da história da
Engenharia de Produção. A Tabela 1 resume as principais características, vantagens e
desvantagens entre diversos autores, com destaque da teoria de Fayol (1965)
comparada com Taylor (1914), o casal Gilbreth e Barnes (1977), autores que
discursaram sobre o trabalho humano.
16
Tabela 1: Comparação entre alguns autores clássicos sobre produtividade e trabalho humano.
Fonte: Elaboração própria.
17
Um destaque inicial a ser feito é sobre o papel de Smith (1776) sobre a
importância da produtividade de forma macroeconômica. No entanto, seu discurso
sobre as formas de melhoria desta através da redução dos tempos improdutivos, como
de configuração de máquinas, melhoria na destreza do operador e especialmente na
divisão do trabalho em tarefas singulares, mostra a preocupação histórica na melhoria
do desempenho operacional. Cabe destacar aqui também a recomendação de
investimento em inovação, o que vai de acordo com a discussão proposta por Teece
(1986) e Christensen (1992).
Em contrapartida à teoria da administração clássica proposta por Fayol (1965),
que preconiza o alcance de melhores resultados econômicos através da correta
aplicação de seus princípios administrativos, a teoria da administração científica
manifesta a necessidade constante de combater a baixa produtividade dos
trabalhadores ao realizar suas atividades, ou seja, obter uma taxa de execução de
tarefas muito abaixo do potencial possível. Assim, estas tarefas eram caracterizadas
por apresentarem tempos de atravessamento altos para movimentação de matéria-
prima, movimentos inadequados do corpo humano, tamanho de lotes de transferência
menor do que o possível, ociosidade de grande porcentagem do tempo de trabalho,
etc (TAYLOR, 1914).
Em conjunto a estes fatos, pela falta de padronização dos métodos de trabalho
e sua consequente baixa produtividade, a administração científica proposta por Taylor
também visava à substituição dos métodos de trabalho empíricos por científicos,
baseando-se em normas, leis e fórmulas estudadas a partir da compreensão da tarefa
a ser realizada.
Ao estudar exemplos de diversas organizações industriais durante sua vida
profissional, como o manejo de pás e inspeção de esferas metálicas, o autor
desenvolve em sua obra teorias sobre a gerência da produção na escala atomística,
ou seja, da própria tarefa em si. Pela compreensão do difícil cenário industrial, com
corpo de funcionários desmotivados e jornadas de trabalho intensas, Taylor estudou
aspectos como políticas de incentivo e motivação, fadiga e descanso de trabalho,
produtividade, seleção de pessoal capacitado, entre outros. Com o uso destes
princípios foi possível propor um esboço de uma teoria científica sobre o trabalho
humano. O autor mostra em sua obra os resultados econômicos advindos do uso da
administração científica, relata sobre a necessidade de padronização de métodos e
equipamentos, e até mesmo sobre a escolha do biotipo humano mais adequado a
18
certos tipos de trabalho, como o chamado “homem bovino” para maximizar a
produtividade de tarefas que exijam alto grau de esforço físico.
Dando continuidade aos trabalhos realizados por Taylor, Barnes (1977)
apresenta os resultados observados nas obras de Frank e Lilian Gilbreth. Após o
levantamento dos princípios da administração científica, houve um maior foco no
estudo do trabalho e seu relacionamento com os postos de trabalho, estes definidos
como a configuração física de um sistema homem-máquina-ambiente, o local onde é
efetuada uma determinada ação ou atividade de trabalho, em geral por trabalhadores
ou por maquinários (IIDA, 2005). O foco da discussão do autor é dar continuidade aos
estudos do projeto do trabalho, utilizando assim dois elementos principais: o estudo de
movimentos (ou projeto de métodos), definido como a análise para estabelecer o
melhor método de se executar uma tarefa, e o estudo de tempos (ou medida do
trabalho) que tem o intuito de encontrar o tempo-padrão para execução de uma tarefa
específica.
De acordo com tais definições, o autor propõe uma metodologia geral de
solução de problemas, dividida nas seguintes etapas: definição do problema, ao
formular a situação-problema, com o levantamento da meta a ser atingida; análise do
problema, pelo detalhamento do estado atual, com obtenção de dados e fatos, método
atual e as características nas quais o processo está inserido; pesquisa de soluções
possíveis, ao utilizar métodos como eliminar atividades desnecessárias, aplicando os
princípios de economia de movimentos; avaliação das alternativas, com a
determinação da solução preferível, seja de menor custo, start-in (entrada no
mercado) e ramp-up mais rápido (atingimento do ponto máximo de produção), ou de
melhor qualidade e menor nível de perda; e por fim a recomendação para a ação, ao
preparar a documentação necessária, focar na padronização da atividade escolhida,
com maior detalhamento possível e previsão de objeções e problemas que podem ser
decorrentes.
Baseado neste processo geral de resolução de problemas, o autor denota um
foco explícito no projeto de postos de trabalho e em seus métodos padronizados. Ao
longo de sua obra "Estudo de movimentos e de tempos", diversas ferramentas são
abordadas para a aplicação das etapas de “Análise do problema” e de “Pesquisa de
soluções possíveis”, atingindo desde o processo como um todo até o elemento
fundamental das atividades, os micromovimentos. Para a análise do processo de
negócio de uma forma ampla, uma categoria de ferramentas baseia-se na análise
geral das atividades. O fluxograma, ou gráfico de fluxo de processo, é uma ferramenta
19
que explica o conjunto de etapas para a execução total de um processo. É composto
em geral pelas etapas de operação, inspeção, espera, transporte e armazenagem. Em
conjunto ao fluxograma, há o mapofluxograma, definido como a inserção do
fluxograma na planta-baixa (ou mapa) da organização, com o intuito de compreender
geograficamente a dinâmica das atividades, o cruzamento de transportes, a distância
entre postos, entre outros fatores. Uma variante do fluxograma é o gráfico do fluxo do
processo do grupo, utilizado para análise do trabalho de diversos operadores
trabalhando conjuntamente, de forma a comparar a sequência de atividades entre
cada um destes. A Figura 7 apresenta um exemplo de fluxograma, utilizando a
notação da Sociedade Americana de Engenheiros Mecânicos (ASME - American
Society of Mechanical Engineers), que descreve a atividade de recobrir rebolos com
pó de esmeril.
Figura 7: Exemplo de fluxograma.
Fonte: Adaptado de Barnes (1977).
20
Após compreender o processo como um todo, faz-se necessário adentrar no
segundo grupo de ferramentas, cujo foco alinha-se na análise dos movimentos e na
interação com o ambiente. O gráfico de atividades, ou gráfico homem-máquina, possui
o propósito de analisar a distribuição das etapas de uma atividade (ou processo) entre
o trabalhador e a máquina/equipamento, e a utilização percentual de cada um destes.
Assim é possível perceber a participação do operador na tarefa e o grau de
automatização, que caso seja alto pode permitir que várias tarefas sejam comandadas
por um único indivíduo. Também há o gráfico de operações, ferramenta utilizada para
a análise dos movimentos fundamentais das mãos, como agarrar, transporte
carregado, encaixar e usar. Estuda-se simultaneamente tanto a mão esquerda quanto
a mão direita e suas comparações, procurando assim encontrar oportunidades de
melhoria nos âmbitos de materiais e seu manuseio, ferramentas e gabaritos, máquina,
operador e condições de trabalho.
Após a escolha da recomendação de ação e definição do novo método, é
necessário prescrevê-lo e padronizá-lo. O autor apresenta o uso de fichas impressas
que mostram os elementos do trabalho, a disposição de cada componente do posto de
trabalho e a sequência de movimentos necessária para executá-los. Também há foco
na realização de treinamentos orais e práticos, de forma que o trabalhador se
familiarize rapidamente com a atividade a ser exercida.
Para a correta implantação do método e gestão da mudança, ainda há o estudo
de tempos, focado na cronometragem das atividades. Barnes (1977) diz que suas
vantagens envolvem estabelecer programações e planejar o trabalho, determinar
custos-padrão, determinar eficiência de máquinas e quantidade de máquinas a serem
operadas por um trabalhador, estabelecer pagamento de incentivos e de mão-de-obra
indireta, entre outros. Para a execução do estudo de tempos, o autor declara como
necessário a execução de oito passos: obter e registrar informações sobre a operação;
dividir a operação em elementos e registrar detalhadamente o método empregado;
observar e registrar o tempo gasto pelo operador; determinar o número de ciclos a
serem cronometrados; avaliar o ritmo do trabalhador; verificar a suficiência da
quantidade de ciclos; determinar tolerâncias; determinar o tempo-padrão da operação.
Com a execução conjunta do estudo dos movimentos e dos tempos, é possível
realizar melhorias contínuas nos postos de trabalho, e no correto treinamento do
operador para obtenção do ritmo necessário para cumprir o método definido. As
contribuições apresentadas por Ford (BATALHA, 2013), voltadas para a
especialização e divisão do trabalho pela linha de montagem, vão de encontro e
21
avanço nos estudos de Barnes (1977). Já Ohno (1997) utiliza alguns novos critérios
em suas operações, cujo foco aproxima-se mais do processo como um todo e em
seus resultados e menos no posto de trabalho em si, para adaptar-se às necessidades
provenientes da alta competitividade entre os mercados.
1.2.3 A Ergonomia
Em paralelo aos estudos de análise da tarefa, outras vertentes também
buscavam se aprofundar na temática da Teoria das Organizações, especialmente no
âmbito do aumento de produtividade do trabalho. Surgiram também demandas por
maiores preocupações com a figura humana, por conta de aspectos como o aumento
de doenças ocupacionais e alienação do trabalhador, em especial após o Fordismo. A
ergonomia, definida como o estudo da adaptação do trabalho ao homem (IIDA, 2005),
surgiu para contemplar estes dois aspectos. Entre outras definições, o autor relata
sobre o relacionamento do trabalhador com o ambiente, e sobre a aplicação de
conhecimentos de anatomia, fisiologia e psicologia na solução de problemas advindos
deste relacionamento.
A ergonomia baseia-se na relação do operador com os seus meios de trabalho,
ou seja, com o maquinário utilizado, com as condições ambientais, com a formalidade
do método, com o clima organizacional, entre outros. A análise ergonômica volta-se
para a análise de demandas, que são problemas verbalizados ou não que causam
intempéries na atividade do trabalho e na qualidade de vida do indivíduo. Guérin et al.
(2001) definem que demandas são uma forma de expressão de objetivos não
necessariamente compartilhados por todos os envolvidos. A natureza das demandas
pode ser diversa. Podem ser problemas relacionados à saúde física do trabalhador,
como lesões por esforço repetitivo (LER) e doenças osteoarticulares relacionadas ao
trabalho (DORT); podem ser expressos por comportamentos como fadiga, monotonia,
sonolência ou estresse; podem ser acidentes de trabalho provocados por falhas de
segurança, como uso impróprio de equipamentos de proteção individual (EPI) ou por
falta de manutenções; podem ser medidas por variáveis como absenteísmo,
rotatividade ou alto índice de não-conformidade, entre outras diversas possibilidades.
Baseado na análise destas demandas, a ergonomia pode ser dividida em três
vertentes: física, cognitiva e organizacional. A primeira, proveniente da corrente norte
americana, lida principalmente com questões relativas ao contato do trabalhador com
o posto de trabalho e o arranjo físico deste: a altura ideal da cadeira, temperatura
22
ambiente ótima, distância da tela do computador, alcances das mãos e alternância de
posturas são alguns dos meios encontrados que aumentam tanto o bem-estar quanto
a produtividade do trabalhador (IIDA, 2005).
Sobre a mesma corrente, ainda há a modalidade da Análise Ergonômica do
Trabalho - AET (GUÉRIN et al., 2001), aplicada nas organizações como uma opção
análoga ao processo geral de solução de problemas. É uma metodologia baseada na
coleta de dados por observações diretas, interação com os operadores, entrevistas e
verbalizações. O processo, assim, possui as seguintes fases: identificação da
demanda, na qual existe algum problema ou mal-estar no tecido operário da empresa;
exploração do funcionamento da empresa, ao caracterizar a população fixa e variável,
a produção e indicadores relacionados a ambos; análise do processo técnico e das
tarefas; observações abertas e globais da atividade; levantamento de hipóteses e de
um pré-diagnóstico para aprofundamento da análise, definição de plano de ação,
execução deste plano de ação; diagnóstico local incidindo sobre as situações
analisadas em detalhe.
A Figura 8 apresenta o modelo representativo da ação ergonômica, em formato
de ampulheta. Guérin et al. (2001) esclarecem que a abordagem vem a partir da
identificação de uma demanda, e que o processo de análise e reformulação desta são
características indispensáveis à boa conduta da AET. Também esclarece a
possibilidade das demandas virem de diversos agentes envolvidos, não só dos
trabalhadores, mas também da direção, de sindicatos, de instituições públicas, de
parceiros sociais, entre outros.
23
Figura 8: Esquema geral da Análise Ergonômica do Trabalho.
Fonte: Guérin et al. (2011, p.86)
A segunda escola é a anglo-saxônica, também conhecida como Engenharia de
Sistemas Cognitivos. Segundo Crandall, Klein e Hoffman (2006), seu principal método
é a Análise Cognitiva do Trabalho (CTA). Possui propósito similar ao apresentado pela
AET, no entanto denota foco nas tarefas e atividades cognitivas realizadas pelos
postos de trabalho. Entre outras características relevantes para a ergonomia cognitiva,
Lee et al. (2014) discutem sobre os princípios que devem ser atendidos para o
desenho dos sistemas de trabalho. Estas características são a segurança, conforto,
facilidade de uso, desempenho e estética. São princípios que se relacionam com os
aspectos sensorial, de memória, resposta motora e de percepção dos seres humanos,
todos necessários a correta execução das tarefas.
24
Uma das principais etapas da CTA é a coleta de dados. Em geral, esta ocorre
por quatro meios diferentes. O primeiro, e mais comum, é a entrevista estruturada,
pela sua grande eficiência e pela captura de informações que possam facilmente
passar despercebidas. O segundo, os autorrelatos, são fontes de informação para que
os participantes possam externalizar suas impressões sem a necessidade de um
entrevistador, no entanto são relatadas dificuldades em reportar os processos
cognitivos realizados pelo próprio participante (CRANDALL; KLEIN; HOFFMAN, 2006).
Já as observações diretas, segundo os mesmos autores, constituem de um dos meios
mais eficazes para compreender a essência da tarefa realizada, além da captura de
elementos que não podem ser retratados por nenhum outro meio. Sua principal
desvantagem, porém, é que pode não ser factível, já que a atividade pode não ser
frequente, ou os observadores podem atrapalhar a conclusão de uma tarefa crítica,
como a de um policial, e até mesmo inibir os observados de realizarem suas tarefas da
forma como constantemente executam.
Por fim, o último método de coleta é o da captura automatizada. Utilizam
equipamentos próprios para coleta, como o eletroencefalograma e o eye tracking.
Suas principais vantagens são a precisão dos dados, informações quantitativas sobre
elementos do corpo humano de difícil coleta por meio comuns, além da facilidade e
rapidez de captura. Já as desvantagens mais comuns são a dificuldade em programar
softwares específicos para estes casos, a incerteza em determinar quando interromper
a performance da tarefa, e a falta de sensibilidade para capturar as nuances e
confusões da atividade realizada. Diante de tal classificação o presente estudo terá
foco na captura automatizada como instrumento principal, com complemento por
observações diretas e autorrelatos. As entrevistas poderão ser um complemento, no
entanto serão estruturadas em baixo grau, apenas para questionamentos e dúvidas,
para que os agentes envolvidos não sejam influenciados por questionários fechados.
A última categoria é a ergonomia organizacional, definida por Iida (2005) como
a vertente que se ocupa dos sistemas sociotécnicos, abrangendo fatores como
estruturas organizacionais, políticas e processos. Possui foco no projeto do trabalho,
comunicações, participação coletiva, cultura organizacional, prescrição do método,
entre outros tópicos. É a vertente mais próxima da Teoria Organizacional. Utiliza-se de
prescrições sobre seleção e treinamento, turnos de trabalho, flexibilidade, entre outros.
Em resumo, foca-se sobre o contexto determinado gerencialmente pelas regras e
políticas da empresa.
25
Em resumo, a ergonomia, ou fatores humanos, como um todo possui um foco
voltado para a análise das diversas demandas das organizações, e para isto utiliza
como uma das variáveis de observação ampla o comportamento humano. As reações
do corpo humano diante de uma situação de trabalho podem promover pistas
importantes de problemas que estejam acontecendo para que ocorra perda de
efetividade da tarefa. No entanto, o comportamento é apenas a parte externa do
fenômeno que ocorre dentro do corpo humano por sua cognição. Faz-se importante
também compreender não só as causas dos meios de trabalho que resultam em tal
comportamento, mas saber quais são os efeitos psicofisiológicos que ocorrem dentro
do organismo do ser humano envolvido, isto é, como a mente e corpo do operador
realmente agem diante destas demandas. Para tal, houve o surgimento do estudo da
neuroergonomia.
26
2. ESTUDOS ATUAIS SOBRE MELHORIAS NO TRABALHO HUMANO
O presente capítulo destina-se a apresentar algumas das discussões,
tendências e descobertas atuais que abordam os temas relacionados a desempenho
operacional, projeto do trabalho e de seus principais elementos.
Um ponto inicial de interesse é a mudança de contexto apresentada na
introdução, no qual o aumento da competitividade estimula as organizações a
encontrarem novas formas de desenvolver seus processos. Hayes, Upton e Pisano
(2008) discutem que, neste cenário atual, a preocupação principal das empresas não
deve ser apenas no desempenho em eficiência, como pregava o taylorismo, ou em
eficácia, conforme a era da qualidade, mas sim em identificar em quais bases sua
estratégia deveria ser implementada. Assim, aborda-se o conceito de estratégia de
operações, no qual há maior preocupação de alinhamento do processo de produção e
entrega de valor ao cliente com a intenção estratégica, resultados financeiros,
mercado-alvo e ambiente em constante transição. Corrêa e Corrêa (2012)
complementam relatando que não há mais o pressuposto de que há uma forma ótima
de se realizar o trabalho, mas que esta depende das características do ambiente no
qual a organização encontra-se inserida.
Os autores levantam, então, as diversas formas de competição no mercado,
que são aspectos de desempenho que os clientes adquirentes do pacote de valor
oferecido devem valorizar. São estes os objetivos principais: menor preço ou custo,
baseado no ideal da administração científica de melhor eficiência gera menores
custos, em geral para mercados de massa; maior velocidade, com melhorias de
acesso, atendimento, cotação e entrega, aumentando o nível de serviço oferecido5;
maior confiabilidade, dada pela estabilidade do serviço oferecido em critérios como
pontualidade, segurança e robustez; maior qualidade, voltada para oferecer um pacote
de valor diferenciado por questões como desempenho, durabilidade, estética e
conforto; e maior flexibilidade, voltada para a melhoria dos processos produtivos com
inclusão de habilidades para alterar mix de produtos, volumes de produção e
introdução ou retirada de produtos do mercado. Pela variedade de critérios, há
conflitos entre estes, também conhecidos como trade-offs: não é possível obter a
melhoria de ambos simultaneamente, ao melhorar um, o desempenho de outro é
5 Nível de serviço é a qualidade com que os bens e serviços são gerenciados e entregues ao
cliente final. Por exemplo, no caso logístico, é relativo ao fluxo dentro de todas as etapas da cadeia de suprimentos e com os indicadores finais de entrega, como tempo de atravessamento até o consumidor final (BALLOU, 2009).
27
afetado de forma negativa. Por isto, a correta escolha dos objetivos de competição e
dos melhores indicadores chave (KPI - Key Performance Indicators) para representá-
los é fundamental no cenário contemporâneo.
2.1 Engenharia de Métodos e Melhoria do Trabalho
Os estudos acerca da Engenharia de Métodos e a melhoria do trabalho
humano são ainda foco de pesquisas nos últimos anos, em especial para a aplicação
de projetos em empresas para melhorar seus processos produtivos. Kessler et al.
(2016) apresentam uma pesquisa de bibliometria quantitativa realizada entre 2011 e
2015 no portal de periódicos Capes, com a finalidade de obter um panorama geral do
número de publicações neste campo, a partir da escolha de alguns termos chave: mix
de produtos, manufatura eficiente, produtividade, eficiência global de equipamentos
(OEE), lógica fuzzy, eficiência, teoria das restrições, manufatura lean e mapa do fluxo
de valor. Destaca-se que os termos foram pesquisados em inglês. Os resultados
encontram-se na Figura 9.
Figura 9: Quadro-resumo das pesquisas bibliométricas sobre melhoria do trabalho.
Fonte: Adaptado de Kessler et al. (2016)
As cores na figura representam a intensidade de pesquisas. Para a diagonal
principal, foram apresentados os resultados da pesquisa única pelos termos chave. Já
nas outras células, foram pesquisados ambos os termos da linha e coluna. Destaca-se
aqui o alto número de pesquisas contendo o termo eficiência, um dos grandes pilares
28
do desempenho operacional, e também os termos produtividade e lógica fuzzy. No
entanto, a pesquisa falha ao não apresentar os resultados relativos ao termo eficácia,
voltado ao atingimento de metas operacionais. Termos mais específicos, como
manufatura eficiente e mapa do fluxo de valor, foram pouco encontrados.
Na temática sobre melhorias dos métodos utilizados no projeto do trabalho, os
estudos da engenharia de métodos são abordados na discussão de Bian et al. (2012),
que relatam sobre a dificuldade e tempo gasto com a coleta manual de dados para o
estudo do trabalho, como tempos e movimentos das mãos, o que atrasa a implantação
de melhorias e desloca a carga de trabalho de atividades de grande importância para
a coleta de dados. Sobre tal, um artifício utilizado por diversas empresas é a filmagem
do trabalho realizado pelos operadores com câmeras de vídeo, com posterior
discussão deste em grupos de trabalho com o intuito de encontrar deficiências e
melhorar os métodos empregados. Assim, os autores discutem sobre o
desenvolvimento de um software capaz de substituir a coleta e análise manual dos
dados por uma automática. O programa deveria incluir a identificação dos elementos
básicos (os chamados therbligs, movimentos fundamentais das mãos como agarrar,
selecionar e transportar carga), dos tempos de ciclo e tempo padrão, e necessidade
ou não de cada movimentação manual. Por fim, poderia ser elaborado, com o apoio e
avaliação de um engenheiro de produção, um procedimento operacional padrão (POP)
para aquela determinada tarefa, o chamado método prescrito. O uso da tecnologia da
informação e dos processos digitais neste caso mostra-se como um importante apoio
para a melhoria das atividades de padronização de tarefas.
Ma et al. (2011) apresentam alguns dos problemas existentes nas grandes
linhas de montagem e empresas manufatureiras relacionados com a falta de
preocupação com a figura do ser humano, como tratar trabalhadores como máquinas
ou o grande aumento de fadiga pelo crescimento da carga mental de trabalho. Bian et
al. (2012) também ressaltam que o pressuposto do Homo economicus, utilizado por
Taylor (1914), ignora as necessidades humanas dos trabalhadores, delegando tarefas
monótonas e repetitivas, restringindo o tempo para lazer ou descanso. Pela definição
do trabalho como o conjunto de atividades que, realizadas por recursos humanos,
agregam valor (CORRÊA; CORRÊA, 2012), faz-se fundamental compreender o
funcionamento do corpo humano diante dos meios de trabalho para poder projetar
processos de trabalho mais adequados e que obtenham maior efetividade, reduzindo
estes problemas.
29
Uma abordagem necessária para compreender melhor o ser humano é a
fisiológica e neurocientífica, que enxerga as variáveis relativas ao corpo humano de
forma sistêmica. MA et al. (2011) discutem a abordagem da neuroengenharia industrial
(Neuro-IE), combinação de neurociências e engenharia de produção focada nas
condições fisiológicas dos indivíduos. A Neuro-IE obtém dados reais pela medição das
ondas cerebrais e outros indicadores fisiológicos com ferramentas de neurociências e
tecnologia de biofeedback6, analisa estes dados, adiciona atividades neurais e status
fisiológico no gerenciamento dos processos produtivos, e por fim realiza a integração
entre homem e máquina ao ajustar os meios de trabalho de acordo com as respostas
dos indivíduos ao sistema de biofeedback, evitando acidentes e não-conformidades e
melhorando eficácia e eficiência. Dessa maneira, pelo uso de sistemas de biofeedback
por instrumentos eletrônicos, é possível o próprio operador monitorar e controlar seu
estado fisiológico.
Segundo Ferreira e Gontijo (2017), o estudo de tempos, que objetiva aumentar
a produtividade, e o estudo de movimentos, que visa a padronização dos processos de
trabalho, começaram a ser usados conjuntamente a partir de 1930 e chamados de
Engenharia de Métodos. O conhecimento do modo e do tempo adequado para realizar
um processo é fundamental para o balanceamento da cadeia de produção e ajuda a
mantê-los em controle, e deve ser utilizado vinculado aos objetivos estratégicos da
organização. Os mesmos autores destacam 4 elementos de estudo que devem ser
considerados na seleção do método no sistema de produção: a tecnologia de
informação, os equipamentos, os materiais e a força de trabalho. Juntos possibilitam o
atendimento à demanda prevista, a identificação da sequência adequada dos eventos
e as previsões apropriadas dos recursos.
A Engenharia de Métodos, de acordo com Da Costa et al. (2017), é uma das
abordagens mais utilizadas para o planejamento e padronização do trabalho. Em um
estudo de caso na indústria têxtil, os autores empregaram o estudo de tempos e
movimentos para utilizar os recursos disponíveis com eficiência. Analisaram o tempo
de ociosidade de um trabalhador enquanto a máquina estava operando (a máquina
era usada 71% do tempo, e o operador apenas 29%) e concluíram que poderiam
6 Segundo Mckee (2008), biofeedback é a técnica de monitoramento e uso de informações
fisiológicas do corpo humano para indicar aos indivíduos seu estado de funcionamento,
utilizando coleta de dados por instrumentos não-invasivos, como ressonância magnética e
eletroencefalogramas, e transformando as informações em sinais sonoros ou visuais. Entre os
indicadores coletados, cita-se pressão arterial, taxa de respiração, batimentos cardíacos, entre
outros.
30
adicionar um novo equipamento ao setor sem sobrecarregar a mão de obra, mas
dobrando a produtividade do processo. Os benefícios observados foram: redução da
ociosidade, aumento da produção sem grandes investimentos, diminuição da
monotonia, maximização da lucratividade do setor e produção enxuta.
Kessler et al. (2017) estabelecem que a produção lean é um dos mais
influentes paradigmas na indústria de fabricação. Algumas das técnicas enxutas de
chão de fábrica são produção de lotes pequenos, trabalho padronizado, Kanban, entre
outras. O estudo realizado pelos autores foi no setor de marcenaria, analisando como
melhor estruturar o processo produtivo de forma a aumentar a produtividade e a
agilidade nos prazos de entrega. A partir da observação in loco do processo de
fabricação de pistas de boliche e do Mapeamento de Fluxo de Valor da empresa, foi
determinado o gargalo do processo e definido o indicador de Eficiência Global de
Equipamentos (OEE). Esse indicador mede o desempenho, aponta oportunidades de
desenvolvimento e direciona o foco de melhoria em três diretrizes: disponibilidade
(utilização de equipamentos), eficiência (taxa operacional) e qualidade. Caso qualquer
uma destas diretrizes não esteja dentro dos padrões, ocorrem desperdícios. Os
desperdícios são divididos em superprodução, espera, transporte, processamento
inadequado, estoques desnecessários, movimentos e custos dos defeitos. Para
avançar na filosofia de produção enxuta, as organizações devem minimizar os
desperdícios.
Camiño (2017) estudou o caso de uma empresa brasileira do setor de bebidas
sob a perspectiva lean seis sigma, com o objetivo de incrementar o volume de vendas.
A produção enxuta busca eliminar do fluxo todas as etapas que não agregam valor,
enquanto o Seis Sigma reduz a variabilidade dos processos, melhorando a capacidade
das etapas que criam valor. O método que estrutura o lean seis sigma é o DMAIC
(Definir, Medir, Analisar, Melhorar e Controlar), que utiliza ferramentas como Carta de
Controle, Gráfico de Pareto, Diagrama de Ishikawa e 5W2H para solucionar
problemas.
2.2 Automação
Outra área estudada é a de automação industrial. Conforme Teixeira, Visoto e
Paulista (2016), a automação adentrou o parque industrial brasileiro de forma
expressiva nas últimas décadas, por facilitar o atingimento dos objetivos de
competitividade citados anteriormente, como qualidade e custo. Os autores a
31
descrevem como a manipulação dos processos de uma indústria por aparatos
mecânicos e automáticos, em geral englobando diversas tarefas, de forma a substituir
os trabalhadores por equipamentos.
Entre as vantagens da automação, são citadas o aumento da qualidade do
produto devido à padronização e à precisão refletida, redução de custos com
estocagem de produtos e materiais, possível redução nos tempos de tarefa, e menor
tempo gasto no projeto e fabricação de produtos novos. No entanto, os autores
também levantam as desvantagens existentes, em especial a deslocação (ou
demissão) dos trabalhadores e o aumento do custo em treinamento e qualificação dos
funcionários para operação destas máquinas.
Baseado nas tarefas que os trabalhadores realizam, Frey e Osborne (2017)
classificaram 702 ocupações por quão sucessíveis elas são à automação. Eles
concluíram que durante as próximas duas décadas, 47% dos trabalhadores dos
Estados Unidos correrão risco de perder seu emprego devido a automação, fenômeno
conhecido como desemprego tecnológico.
Segundo Acemoglu e Restrepo (2017), robôs industriais são máquinas
totalmente autônomas que não precisam de um operador humano e podem ser
programados para executar diversas tarefas manuais, como sondagem, pintura,
montagem, manuseio de materiais ou empacotamento. Máquinas como elevadores,
guindastes ou cafeteiras não são robôs industriais por terem propósito único, não
serem reprogramáveis para outras tarefas e necessitarem de um operador humano.
Os autores afirmam que a indústria automobilística emprega 39% dos robôs industriais
existentes, seguida pela indústria de eletrônicos com 19%, e indústria metalúrgica e
indústria de plástico e químicos, ambas com 9%.
Outra área ligada à automação é a Internet das Coisas (IoT), tendência há
muitos anos e considerada a próxima Revolução Industrial e a próxima Internet. A
visão é que milhões de dispositivos usados para aplicações críticas em tempo serão
conectados através da Internet. Essa rede de objetos inteligentes globais é chamada
de Internet das Coisas Industrial (IIoT).
Para Lennvall, Gidlund e Akerberg (2017), automação industrial é um domínio
no qual aplicações são muito complexas, críticas e perigosas. Se o processo encontra
problemas, geralmente tem consequências graves, como perda financeira e riscos ao
meio ambiente e à saúde das pessoas. A maioria das soluções de IoT são voltadas
para o consumidor, logo não dão suporte para requisitos de indústrias pesadas. Por
32
isso, hesitam em usar essa tecnologia para qualquer operação crítica em seu
processo, considerando utilizar em partes não críticas apenas.
Os sistemas de IoT precisam cumprir as exigências cobradas da área de
automação industrial, especialmente a necessidade de oferecer disponibilidade,
comunicação de dados confiável e determinista, interoperabilidade e um alto nível de
segurança. Antes que a IoT seja lançada na automação industrial, é necessário que
haja um modelo de negócios sustentável.
A automação industrial pode ser dividida em subáreas: automação predial,
automação de processos, automação fabril e automação de subestação. A pirâmide
de automação é dividida em diversas camadas com um conjunto diferente de redes,
cada um com demandas e importâncias distintas. Na base da pirâmide está a rede de
campo que tipicamente consiste de sensores e acionadores. O próximo nível é a rede
de controle que contém controladores e servidores de conectividade. Os níveis do topo
são rede de servidores e planta, composto basicamente por locais de trabalho do
operador, estações e servidores de engenharia e monitoramento, e na camada mais
alta os sistemas de decisão de negócio.
Partindo para outro campo de aplicação, Schreckenghost et al. (2018)
descreveram o software PRIDE, desenvolvido para criar e executar procedimentos
eletrônicos para operações da NASA, que usa os procedimentos como uma maneira
de planejar como os operadores vão se desempenhar em trabalhos nominais e não
nominais, para amenizar os riscos de trabalhar em uma área altamente crítica. A
NASA está interessada no uso de procedimentos como base da automação da tarefa.
A automação tem potencial de reduzir a carga de trabalho de astronautas, e pode ser
benéfica em tarefas que tendem ao erro humano, como o monitoramento de vigilância.
Dentre os desafios em procedimentos automatizados, ressaltaram a captura do
conhecimento do procedimento que pode ser usado para execução manual e
automatizado e a comunicação do comportamento automatizado e seus efeitos nos
sistemas.
2.3 Ergonomia cognitiva
Uma das principais abordagens ergonômicas é a vertente cognitiva, pelo
crescimento da necessidade de se compreender as relações do cérebro humano com
o ambiente. Dittmar e Forbig (2013) trazem um panorama das temáticas atuais às
quais a ergonomia cognitiva tem se empenhado. O foco original tem sido no
33
desempenho de usuários independentes, na compreensão de suas habilidades,
necessidades e preferências enquanto interagem com máquinas e computadores. No
entanto, o campo tem crescido gradualmente sua perspectiva para incluir a análise e o
desenho dos diversos elementos dos sistemas de trabalho, como as tarefas e as
tecnologias de suporte. As principais características desta análise são baseadas em
aspectos como o nível de estresse dos trabalhadores, a capacidade cognitiva, o nível
de motivação, nível de competência e a influência dos turnos de trabalho sobre o
trabalho realizado (VIDAL et al., 2000). Para tal progresso, os autores relatam que há
forte interação com disciplinas como interação homem-computador (HCI), psicologia
cognitiva, ciência da informação, sociologia e ciências organizacionais.
Dittmar e Forbig (2013) apontam que um dos desafios contemporâneos do
desenho de sistemas de trabalho é compreender como os diversos elementos do
computador podem ser desenvolvidos com o intuito de dar suporte às atividades não
apenas de escritórios, mas também em tarefas relacionadas a outros ambientes, como
residências, mobilidade, segurança, entre outros. Nesse âmbito, a prioridade para o
desenho dos sistemas passa dos resultados do desempenho operacional para a
interface com o usuário, baseada na diversidade de lares e nas preferências pessoais.
Há um movimento crescente em compreender as demandas cognitivas em atividades
cotidianas.
O foco do desenho dos sistemas está presente em diversas áreas de atuação
de serviços. Por exemplo, Barcelini, De Greef e Detienne (2016) citam áreas como a
mobilidade urbana, o automonitoramento da saúde humana e as escolas. Para a
primeira, novas ferramentas e serviços estão sendo desenvolvidos para dar suporte à
tomada de decisão quanto à rota de viagem escolhida, tanto para veículos particulares
quanto para transporte público. Já para a saúde humana, a criação de tecnologias de
automonitoramento possui o propósito de melhorar a capacidade das pessoas de se
cuidarem e promoverem atividades de automonitoramento em casa, aumentando a
autonomia e o incentivo à prevenção da saúde de adultos e idosos a partir de tarefas
incluídas na rotina diária. Por fim, no ambiente escolar, os autores citam que há o
crescimento de estudos sobre como desenhar e introduzir a tecnologia nas escolas,
alterando as tarefas dos professores para auxiliar no engajamento dos alunos e em
descobrir formas destes desenvolverem suas habilidades.
O aumento do número de atividades que utilizam computadores e o
crescimento da indústria de processos contínuos reflete as necessidades de melhoria
dos postos de trabalho, tanto física quanto cognitivamente. Por exemplo, Shikdar e Al-
34
Kindi (2007) dissertam sobre a existência de grande quantidade de computadores em
escritórios e chão de fábrica, o que resulta em aumentos de gastos com tecnologia e
proporcional incremento no número de problemas de segurança e saúde ocupacional.
As características das tarefas, problemas dos usuários, fatores ambientais e interação
do homem e o computador afetam de forma considerável o desempenho humano. No
caso dos computadores, as variáveis mais relevantes são o brilho da tela, fadiga e
postura inadequada, pois podem resultar em doenças ocupacionais LER-DORT.
Já Nery et al. (2015) dissertam sobre a busca da redução do esforço cognitivo
que a atividade laboral exige, minimizando a fadiga mental. De forma a melhorar o
trabalho neste âmbito, os autores sugerem que diversas organizações estão
realizando estudos baseados nos conhecimentos da ergonomia cognitiva, cujo foco é
dado pela interação homem-máquina. Assim, os autores apresentam estudo de caso
para proposta de melhorias ao posto de trabalho de liberação de ordens de
manutenção de uma indústria sucroalcooleira, com a observação de variáveis como a
comunicação no posto, a tomada de decisão, o uso dos dispositivos e equipamentos
utilizados pelo setor, as tensões e dificuldades encontradas, e o processo de feedback
do trabalho realizado.
Em estudo sobre o setor de óleo e gás, Johnsen, Kilskar e Fossum (2017)
dissertam sobre a segurança das atividades realizadas. De acordo com os autores, a
introdução de novas tecnologias, além de alterar os meios de produção, também
aumenta a complexidade dos sistemas e das organizações. Esta complexidade
aumenta os riscos para os seres humanos, como operadores e usuários de sistemas,
levando assim para novos desafios da gestão de riscos, que, juntamente com a
segurança, tem se tornado uma tarefa crítica para diversas indústrias.
Para tal, é ressaltado pelos autores a importância da ergonomia no desenho e
uso de sistemas críticos seguros, a necessidade de foco em habilidades não técnicas
(como comunicação, trabalho em equipe e tomada de decisão entre diferentes atores),
a avaliação da segurança de tarefas críticas e a identificação de controles que podem
maximizar a possibilidade de desempenho humano de sucesso. No entanto, no setor
de óleo e gás poucos estudos foram conduzidos com o propósito de explorar os
fatores humanos na fase de desenvolvimento.
Assim, Johnsen, Kilskar e Fossum (2017) apresentam um foco da ergonomia
em centros e cabines de controle, pois são um ponto crítico da operação e segurança
entre o processo e o operador humano. Seus estudos demonstram a revisão do
estado dos fatores humanos em quatro projetos de desenho de salas de controle
35
utilizando novas tecnologias como operações remotas e suporte remoto. Os principais
aspectos observados foram a implementação de operações em plataformas pouco
adequadas para o uso humano de forma contínua, e no uso de circuitos fechados de
televisão (CCTV) para monitoramento e vigilância. Além dos resultados presentes na
Figura 10, foi verificado que grande parte das organizações estudadas terceiriza as
atividades relacionadas à ergonomia e segurança do trabalho.
Figura 10: Problemas ergonômicos identificados em centros de comando do setor de óleo e gás.
Fonte: Adaptado de Johnsen, Kilskar e Fossum (2017)
Além da preocupação com o desenho dos postos de trabalho, outra
preocupação ergonômica é o tópico das falhas humanas, no qual Bligard e Osvalder
(2014) discutem sobre a consideração dos elementos humanos no projeto das
máquinas, a partir da interface homem-máquina. Se estas forem adaptadas às
características, habilidades e limitações humanas, a probabilidade da ocorrência do
erro humano e o nível de estresse tendem a ser decrescentes, enquanto a efetividade
dos sistemas cresce.
Segundo os autores, erro de uso não é uma falha do usuário, mas sim um erro
que ocorre do uso do sistema. É o resultado da incompatibilidade entre os diferentes
elementos deste sistema: usuário, equipamento, atividade e ambiente. Já um
36
problema de usabilidade é um fator ou propriedade existente no sistema homem-
máquina que reduz seu desempenho durante esta interação. Assim, um problema de
usabilidade é uma fraqueza em alguns dos elementos do sistema (seres humanos,
máquina, ambiente e tarefas) que desencadeia, em determinadas circunstâncias, um
erro de uso.
Diante deste contexto, os autores propõem um método analítico para avaliação
combinada de ergonomia física e cognitiva em uma máquina, chamado de Avaliação
Combinada Física e Cognitiva (CCPE). É uma abordagem de avaliação da interação
homem-máquina para identificar incompatibilidades nos sistemas existentes. A
abordagem sugere a análise integrada entre erros de uso e problemas de usabilidade,
erros de ergonomia física em conjunto com demandas das tarefas, nível de automação
e carga de trabalho física e mental. O modelo do CCPE encontra-se na Figura 11.
Figura 11: Modelo de Avaliação Combinada Física e Cognitiva.
Fonte: Adaptado de Bligard e Osvalder (2014)
Nos temas apresentados de desenho de postos de trabalho, interface do
homem com a máquina e erro humano, a ergonomia cognitiva esteve presente
buscando encontrar as melhores práticas para potencializar tanto as condições de vida
do trabalhador quanto seus resultados. Surge, neste contexto, a engenharia de
resiliência, fundamental para a gestão da segurança das organizações.
37
2.4 Engenharia de Resiliência
Um dos principais temas de análise correlatos à ergonomia cognitiva é a
segurança das organizações. Hollnagel, Woods e Leveson (2007) comentam que
esforços para melhorar a segurança de sistemas foram muitas vezes dominados por
uma análise retrospectiva dos eventos ocorridos na própria empresa em questão ou
na indústria em geral. Há uma motivação natural de prevenir que esses eventos se
repitam, pois podem causar graves perdas e exigir novas demandas de segurança.
Estas, no entanto, são vistas como maiores gastos para a organização e, por esse
motivo, indesejadas. Fazer as atividades de forma segura sempre foi e sempre será
parte das práticas operacionais, tanto no nível individual quanto no organizacional.
Os autores comentam que analisar as lacunas entre a prescrição formal do
trabalho e a prática revelou que pessoas em diversas funções sempre tiveram
dificuldade em antecipar caminhos para falhas, criar e sustentar estratégias sensíveis
às falhas e manter margens de segurança quando pressionadas para aumentar a
eficiência. Melhorias e mudanças podem acabar contribuindo para o erro,
principalmente se os efeitos colaterais da mudança não forem previstos de forma
correta. Para tal, entra aqui o conceito de engenharia de resiliência.
Madni e Jackson (2009) decorrem sobre a questão do erro humano, que não
representam um colapso ou funcionamento inadequado do sistema, mas sim uma
inabilidade deste de se adaptar adequadamente a perturbações e mudanças no
mundo real pela limitação de um número finito de recursos e tempo. Para tal, os
autores também discursam sobre as técnicas de engenharia de resiliência.
Ao contrário da análise probabilística de risco e avaliação probabilística de
segurança, os autores dissertam sobre duas técnicas disponíveis para introduzir
resiliência nos sistemas organizacionais: os métodos analíticos e os integrativos. Os
métodos analíticos são baseados em técnicas probabilísticas tradicionais, utilizados
em situações que podem ser previstas, e normalmente estão limitados a um único
produto ou sistema e uma organização. Já os métodos integrativos são aqueles
abrangentes que cobrem heurística, gestão de risco e fatores culturais.
Para os autores, a resiliência tem quatro objetivos principais: evitar, resistir, se
adaptar e se recuperar de disrupções. Sobre cada uma destas, evitá-las requer
antecipação; resistir a elas exige um sistema robusto; a adaptação demanda a
habilidade de reconfigurar a forma ou capacidade disponível; a recuperação implica na
38
habilidade de restaurar o sistema no estado mais próximo possível ao original. Logo,
um sistema resiliente deve ter a capacidade de antecipar, aprender e se adaptar.
Righi e Saurin (2011) dissertam que a engenharia da resiliência é um
paradigma para a gestão da segurança que foca em como ajudar as pessoas a lidar
com complexidade sob pressão para atingir o sucesso. Ela trabalha com a perspectiva
da variabilidade, focando no seu controle, visto que a variabilidade do desempenho
humano está sempre presente dentro do sistema, sendo fonte de sucesso e
insucesso. Já resiliência pode ser definida como a habilidade do sistema de realizar
adaptações às circunstâncias existentes, com o intuito final de manter o estado de
controle sobre a segurança ou o risco. Segundo Hollnagel, Woods e Leveson (2007)
os cinco princípios da engenharia de resiliência são o comprometimento da alta
gerência, cultura de relatar problemas, sistema de aprendizado com erros prévios,
consciência de todo o pessoal sobre o que está acontecendo na empresa, preparo
para lidar com problemas e flexibilidade do sistema.
Sobre as aplicações da engenharia de resiliência, Righi e Saurin (2011)
apresentam uma breve revisão da literatura sobre o assunto. Ao total, foram
encontradas aplicações nos mais diversos ramos, como aviação, biologia, construção
civil, emergência, ferroviário, marítimo, petróleo, químico, rodoviário, saúde e
tecnologia da informação.
Azadeh et al. (2017) apresentam, no âmbito industrial, a relação da manufatura
lean, cujo objetivo é produzir mais com menos recursos, com a engenharia de
resiliência. Os autores incorporaram quatro princípios adicionais aos conceitos
clássicos e chamaram de engenharia de resiliência integrada (IRE): auto-organização
do sistema, trabalho em equipe, redundância (existência de substituição de recursos
críticos) e tolerância a falhas.
O objetivo principal de sua pesquisa foi analisar o desempenho do ponto de
vista da produção lean e da engenharia de resiliência integrada, através de um
algoritmo composto por várias redes neurais artificiais e de métodos matemáticos e
estatísticos robustos. No modelo, fatores de IRE e lean foram considerados como
variáveis de entrada e saída respectivamente. Depois de determinar a melhor
estrutura para estimativa de cada output, o algoritmo foi usado para calcular a
pontuação de eficiência de unidades de tomada de decisão. Analisou estatisticamente
como cada fator afetava o desempenho e também eliminou todos os inputs e outputs e
mediu a eficiência, comparando a média obtida na presença e na ausência dos
fatores. Se a média da eficiência antes da eliminação dos fatores fosse igual a depois,
39
então eles não teriam impacto significativo na organização. Caso fosse maior, o
impacto seria positivo e uma média anterior menor representa um impacto negativo.
Os resultados mostraram que a orientação ao cliente, redução de desperdício e
padronização do produto, e flexibilidade, auto-organização e redundância não tiveram
impacto significativo na organização. A cultura de relatar problemas, sistema de
aprendizado, consciência da situação, comprometimento da alta gerência, preparo e
trabalho em equipe, além de gestão de tarefa, apresentaram impactos positivos. Por
fim, o sistema de produção puxado e tolerância a falhas manifestaram impactos
negativos. Esses resultados podem ser utilizados para realizar ações corretivas em
fatores negativos e reforços em fatores positivos.
Já Ren et al. (2017) abordam o desenho da resiliência utilizando a motivação
pelo conceito de otimização de múltiplos objetivos para sistemas de engenharia
complexa (CESs). Um modelo de resiliência foi originado a partir do conceito de um
ciclo de três fases do sistema (pré-desastre, durante desastre e pós-desastre),
estabelecendo uma base teórica para o trabalho de design de resiliência. De acordo
com os autores, o modelo resume três capacidades de resiliência, que consistem em
capacidade defensiva, adaptativa e de recuperação, e mostra três dimensões
preferíveis no desenho, sendo estas a funcionalidade, rapidez e desenvoltura. Assim,
o modelo construído possui o objetivo de maximizar a probabilidade de sobrevivência
e a oportunidade de reação, e minimizar o custo total.
40
3. BREVE REVISÃO DE LITERATURA SOBRE NEUROCIÊNCIAS
Antes de adentrar no escopo da neuroergonomia, faz-se necessário introduzir
brevemente as neurociências. Assim, este capítulo destina-se a apresentar de forma
superficial sua definição e origem, principais características e funções executivas.
As neurociências são a ciência interdisciplinar cujo foco é o sistema nervoso,
formado pelo encéfalo, medula espinhal e nervos, e ligada a disciplinas de medicina,
biologia, matemática, física e química, entre outras (BEAR; CONNORS; PARADISO,
2008). É uma disciplina iniciada desde as primeiras civilizações da antiguidade,
através de estudos sobre danos cerebrais no antigo Egito e sobre a correlação entre
estruturas e funções pelos gregos. Estes autores discursam sobre as novas subáreas
de estudo do campo neurocientífico, os níveis de análise. Os principais são, em ordem
crescente de complexidade: o nível molecular, o celular, de sistemas, comportamental
e, por fim, o cognitivo. Este último é relacionado à compreensão dos mecanismos
neurais do ser humano relacionados às atividades mentais superiores, como a
consciência, linguagem e imaginação, e tomada de decisão. A base desta pesquisa é
descobrir como a atividade do encéfalo cria a mente.
O principal elemento para as neurociências cognitivas é o cérebro, localizado
na região craniana do ser humano. Este é dividido em diversas regiões que, de acordo
com Filho (2013), contribuem para a cognição dos indivíduos, em especial o córtex
frontal, parietal e hipocampal. Outras regiões também são de grande importância,
como a temporal e a occipital, no entanto, para efeitos deste estudo, a região cuja
atenção será voltada é a frontal.
Figura 12: Modelo esquemático da anatomia do cérebro.
Fonte: Filho (2013, p.55)
41
O córtex cerebral é a camada mais externa do cérebro humano e é
responsável por processar desde funções simples, como o recebimento de estímulos
sensoriais, até funções mais complexas, como a memória, atenção e emoção. De
acordo com a discussão de Filho (2013), a região do córtex frontal contribui para a
realização dos movimentos voluntários e do controle do comportamento do ser
humano. Pelo fato de estar envolvido com o controle do comportamento, o lobo frontal
relaciona-se com as funções espaciais em relação ao ambiente. Este lobo é dividido
em três regiões: o córtex motor primário, o córtex pré-motor e o córtex pré-frontal. Este
último, o córtex pré-frontal (HPFC – Human Prefrontal Cortex), é a região que contém
os processos cognitivos mais importantes para o estudo ergonômico, essenciais para
o entendimento do comportamento humano (PARASURAMAN, 2003).
Segundo Grafman (2008), o HPFC é uma região do córtex proporcionalmente
maior que as outras, que apresenta uma evolução da estrutura neural interna de
maneira que permite a execução de funções cognitivas mais complexas. Possui
conexões com diversas partes do cérebro e células capazes de lidar com uma
quantidade maior de estímulos do que qualquer outra área cortical. Neurônios do
córtex pré-frontal respondem a um estímulo continuamente até que o objetivo inicial
seja alcançado ou o comportamento seja interrompido, fato que indica a relação dessa
área com a manutenção de um estímulo no decorrer do tempo, ou seja, a memória
operacional.
3.1 Funções Executivas
Segundo Grafman (2008), o HPFC realiza funções executivas que mediam
muitas das habilidades necessárias para o bom desempenho operacional em tarefas
demandantes. As funções executivas são habilidades cognitivas que apoiam
atividades diárias, como o planejamento, atenção, inibição e raciocínio lógico, todas
voltadas para o atingimento de um objetivo. Em uma divisão possível, as principais
categorias são a memória de trabalho, o gerenciamento de emoções, a resolução de
problemas e análise de novos objetivos comportamentais.
Um modelo de função executiva importante é baseada nos processos
automáticos e controlados, que se baseia na obtenção de novos objetivos
comportamentais. O processamento automático torna ativa uma sequência aprendida
de diversas informações de forma direta, sem esforços e de forma inevitável. Já o
processamento controlado é caracterizado por ser lento e trabalhoso, utilizado para
42
tarefas difíceis. Promove uma ativação de forma temporária de uma sequência de
informações que pode ser estabelecida a curto prazo (GRAFMAN, 2008). Assim, sem
a necessidade de atenção ativa ou controle ativo, o indivíduo é, portanto, engajado em
um processo automático. No entanto, com a repetibilidade da prática do pensamento
controlado, as habilidades controladas podem se tornar automáticas. Assim, traz-se o
conceito de controle cognitivo, definido por Filho (2013) como a habilidade que faz
com que o controle dos processos realizados no cérebro se distancie das reações
reflexivas diante do ambiente (automáticas), com o propósito de realizar uma ação
futura.
A Figura 13 apresenta um modelo que relaciona as funções executivas e as
respostas geradas ao ambiente, apresentado por Squire et al. (2012, apud FILHO,
2013). A partir da coleta de informações de determinado ambiente, os sistemas
sensoriais capturam as sensações do ser humano e transferem para o sistema
nervoso. Este pode gerar respostas por processos reflexivos (ou automáticos), que
ocorrem por conta do instinto passado pela evolução biológica do ser humano, ou por
processos controlados, que são aprendidos através de prática e repetição diante de
determinada situação. Assim, os sistemas motores emitem uma resposta física para o
ambiente, percebido pelos agentes envolvidos como um comportamento do ser
humano. Ressalta-se a importância da informação para o comportamento, pois essa é
armazenada em padrões de conexões de neurônios. O aprendizado e a memória,
neste caso, são o resultado de alterações nestes padrões originais, por conta de um
novo contexto no qual o indivíduo foi conduzido a agir diferente.
Figura 13: Modelo de relação entre as funções executivas e as respostas geradas ao ambiente.
Fonte: Adaptado de Filho (2013).
43
A resolução de problemas baseia-se na tomada de decisão, que é a
capacidade de analisar informações relevantes diante de determinado contexto. Para
isto, a função de raciocínio lógico recorre a modelos de seleção de informações
relevantes. O modelo de Broadbent (2013), também chamado de "teoria gargalo",
refere-se a um filtro que funciona como um "tampão", selecionando informações
relevantes da consciência. Ao discutir estímulos que sejam concorrentes, o filtro
determina que as informações devem ser classificadas como relevantes ou
irrelevantes, selecionando assim a informação que vai passar pelo filtro por ela ser
importante em relação a determinado contexto, enquanto o restante é ignorado.
Uma das principais funções executivas é a memória de trabalho, definida por
Ruchkin et al. (1997) como o processo cognitivo que permite a ativação temporária de
informações na memória para rápido uso ou manipulação. Ou seja, guardar
temporariamente informações em uma memória de curto prazo para ser utilizada em
alguma ocasião necessária. Filho (2013) ressalta o uso deste processo também para a
criação de um "bloco de rascunho mental", possibilitando a representação de
informações não presentes no ambiente.
O autor também relata a importância da função para a abordagem
comportamental. A memória de trabalho funciona como um fator fundamental para a
atenção e inibição no caso dos processos de controle, já que ela direciona
informações que auxiliam na escolha da resposta motora a ser tomada, contexto este
também explorado por Grafman (2008) como uma função executiva. Nisto, por trazer
as informações do passado e confrontar com as possibilidades futuras, a partir de um
determinado contexto presente, são criados ciclos de percepção que auxiliam à
análise de qual a melhor ação a ser tomada, diante de um determinado objetivo.
Grafman (2008) e Filho (2013) discutem sobre um elemento importante para a
cognição social, a hipótese do marcador somático. Após verificação de problemas
como reconhecimento de pessoas e obediência a regras sociais em pacientes com
lesões na região do córtex pré-frontal ventromedial, surgiu a indicação da existência
dos marcadores somáticos, que são moduladores do sistema nervoso que ativam os
aspectos sociais e de tomada de decisão.
Outro ponto desta teoria é que, na ocorrência de escolhas complexas ou
conflitantes, não é possível utilizar apenas os processos cognitivos, pois estes podem
ser sobrecarregados, culminando em resultados insatisfatórios. Quando tal fato ocorre,
os marcadores somáticos auxiliam na tomada de decisão, pois são associações entre
44
diversos estímulos de recompensa, levando a um estado desejado tanto social quanto
fisiológico.
3.2 Aplicações das funções executivas
Grafman (2008) aborda a discussão sobre a aplicação das funções executivas
em atividades do dia-a-dia, a partir do ponto de que o HPFC é utilizado a quase todo
momento em uma jornada diária de um ser humano. O primeiro exemplo citado pelo
autor é a direção, que necessita de aspectos de percepção, táticos e estratégicos.
Como exemplo, cita o uso da tomada de decisão entre atingir objetivos a longo prazo,
como prevenir acidentes ou infrações de trânsito, e a curto prazo, como desrespeitar
os limites de velocidade para chegar a tempo de uma reunião. Outro ponto é o
indivíduo como ser multitarefa: ao uso do celular, a atenção que estava voltada para a
condução passa a ser dividida com outro elemento, reduzindo o desempenho em pelo
menos uma das tarefas realizadas.
Um segundo exemplo é o do julgamento do comportamento social. Para inferir
características sobre outros indivíduos, é necessário acessar padrões
comportamentais guardados na memória, utilizando o modelo da "teoria gargalo". O
HPFC utiliza processos como de sabedoria, controle interno, insights e sensibilidade
para realizar este julgamento. Em uma ocasião, por exemplo, de uma avaliação em
tribunal de um réu por juízes, o papel desempenhado por estes ainda adiciona a
tomada de decisão a partir do conhecimento global intrínseco a este junto com as
provas e testemunhos disponíveis.
Um último exemplo, apresentado também por Filho (2013), é o do mercado
financeiro, no qual ocorre a necessidade constante de se realizar julgamentos e
previsões para obter um desempenho satisfatório. A tomada de decisão diante de
cenários como alto crescimento do valor das ações com grandes flutuações em
comparação com um estado mais estável, porém de poucos rendimentos, necessita
de altos índices de atenção e resgate de informações relevantes, além do
gerenciamento contínuo das emoções pelo aumento do nervosismo. Entre outros
fatores que comprovam mudanças de desempenho estão a formação profissional
(para operadores de mercado financeiro, os processos controlados desta natureza já
passaram a ser automáticos em parte dos casos) e a faixa etária dos operadores
envolvidos.
45
3.3 O sistema dual
Para melhor compreensão de como funcionam as funções executivas do
cérebro, faz-se necessário compreender a teoria do processo dual. Esta foi proposta
por EVANS (1984), cujo objetivo era dividir os processos de pensamento em duas
vertentes, em heurísticos e analíticos. O autor sugere, em seu trabalho, que os
processos heurísticos de um ser humano são baseados em informações relevantes
para o contexto presente. Essas informações então são processadas e migram para
serem utilizadas, na sequência, pelos processos analíticos.
Esta teoria foi melhor desenvolvida por Kahneman (2011), expoente na área
neuroeconômica, o qual dissertou sobre a divisão dos processos de pensamento em
intuição e raciocínio, também chamados de sistema 1 e sistema 2. O primeiro sistema
é caracterizado pelo raciocínio associativo, rápido e automático, podendo ter
influências emocionais incluídas em tal processo. O sistema 1, de acordo com o autor,
é influenciado também pelas experiências passadas adquiridas pelo indivíduo, e
dificilmente pode ser alterado ou manipulado.
Já o sistema 2, relacionado ao raciocínio, possui velocidade inferior ao primeiro
e caracteriza-se por ser volátil, baseado em regras e de caráter racional e analítico.
Em geral, é sujeito a julgamentos e outras atitudes que sejam executadas de forma
consciente. Pela sua natureza, este tipo de pensamento ocorre na memória de
trabalho, ou na de curto prazo, o que denota ter uma capacidade de armazenamento
limitada e mais lenta se comparada ao sistema 1. O autor também inclui que este
sistema caracteriza-se pelo pensamento hipotético e pela correlação com a
inteligência geral dos indivíduos. Como exemplo, cita-se a quantidade de esforço
realizada entre duas tarefas, uma de natureza simples como apontar para um objeto e
relatar qual a cor dele, e uma de natureza complexa, como tentar realizar uma
operação aritmética de multiplicação de dois ou mais dígitos sem uso de qualquer
artifício.
Filho (2013) consolida que o processamento dual cria o postulado da existência
de dois sistemas no cérebro humano, dois sistemas cognitivos distintos separados e
subjacentes, relacionados ao raciocínio e pensamento dos indivíduos. Ressalta a
importância no foco funcional de cada uma de suas partes, em correspondência às
funções executivas gerais do cérebro, para o processo de tomada de decisão e afins.
O autor apresenta, por fim, um resumo das características de cada um dos sistemas,
presente na Figura 14.
46
Figura 14: Características dos sistemas do processamento dual.
Fonte: Filho (2013, p.70)
Assim, as diferenças entre os sistemas 1 e 2, em conjunto com as funções
executivas do cérebro, mostram a importância da pesquisa e estudo sobre o
comportamento cognitivo humano. Dentro deste panorama, porém, ressalta-se a
importância de entender como que estas características afetam o cotidiano dos seres
humanos e suas interações com os elementos presentes nos diversos ambientes, seja
em seus lares, mobilidade ou ambiente de trabalho. Por exemplo, compreender como
o ser humano reage a determinada atividade mental baseado no modelo do
comportamento dos sistemas 1 e 2. Para tal motivação, faz-se necessário apresentar
o campo da neuroergonomia.
47
4. NEUROERGONOMIA
Este capítulo possui o propósito de apresentar a neuroergonomia e os
principais aspectos envolvidos nesta: descrições, métodos, ferramentas, conceitos,
aplicações e perspectivas futuras. Será utilizada uma abordagem mais geral, com foco
apenas nos equipamentos eletroencefalograma e eye tracking, fundamentais para as
análises realizadas ao longo deste estudo.
4.1 Panorama Geral da Neuroergonomia
A neuroergonomia é o estudo do cérebro e do comportamento no trabalho
(PARASURAMAN, 2003). De acordo com Parasuraman e Rizzo (2008), é uma área
interdisciplinar, cuja base vem da união entre ergonomia, também conhecida como
fatores humanos, e as neurociências. O principal objetivo da neuroergonomia não é
apenas estudar a estrutura do cérebro e suas funções, propósito este atribuído
principalmente às neurociências, mas também fazer isto no contexto da cognição e
comportamento humano em diversos ambientes: no trabalho, em casa, transporte,
organizações e outros do cotidiano.
Já Johnson e Proctor (2013) apresentam uma visão voltada diretamente para
os meios de trabalho. Os autores dissertam que o objetivo principal da
neuroergonomia é utilizar os conhecimentos existentes e emergentes da área
neurocientífica para compreender o comportamento e desempenho humano em
tarefas de trabalho de alta relevância, com o intuito de desenhar sistemas e ambientes
de trabalho que sejam seguros, eficientes e agradáveis para seus usuários. Funke et
al. (2017), por outro lado, comentam que a neuroergonomia é uma dimensão da
ciência ergonômica e de fatores humanos, cujo foco é dado no estudo das funções
cerebrais para compreender o desempenho no trabalho.
A neuroergonomia teve seu surgimento através das disciplinas de ergonomia e
neurociências, desenvolvidas no período pós Segunda Guerra Mundial, a partir dos
anos 50. Houve crescimento espetacular de ambas disciplinas por conta do
crescimento tecnológico nas ciências da computação e na engenharia. No entanto,
como aponta Uehara e Moraes (2001), não houve contato entre a ergonomia e as
neurociências ao longo do desenvolvimento de seus campos. Apenas na década de
90 que ocorreu uma convergência de objetivos entre a psicologia cognitiva e os
trabalhos em neurociências, resultando na ascensão da neurociência cognitiva. O
encontro das disciplinas de psicologia cognitiva, ergonomia e neurociências resulta no
48
surgimento assim da neuroergonomia, nos anos 2000. Além disto, neurociência e
neurociência cognitiva só se preocuparam recentemente com a relação de suas
descobertas com o funcionamento real do ser humano, fora do ambiente de
laboratório. Pelo curto ciclo de vida até o momento, não há um corpo coerente de
conceitos e evidências empíricas que constituem a teoria neuroergonômica, há apenas
teorias de pequena escala que podem ser integradas à macroteoria, mas que seriam
apenas pertencentes a um campo específico do funcionamento humano.
Parasuraman (2003) relata que existem diversas lacunas entre funcionamento
do cérebro, comportamento humano, trabalho, tecnologias e outros agentes
envolvidos. Diante disto, elenca dois principais objetivos para a neuroergonomia:
utilizar o conhecimento existente e emergente da performance humana e funções
cerebrais para desenhar tecnologias e ambientes de trabalho com operações mais
seguras e eficientes; avançar na compreensão do funcionamento do cérebro em
relação à performance do ser humano em tarefas do mundo real.
De forma correlata à ergonomia original, a neuroergonomia estuda diversas
naturezas do trabalho humano e suas interações. A sequência das atividades
ergonômicas ao longo do tempo em relação ao desenho de ambientes e postos de
trabalho teve início com estudos do trabalho físico motor, ampliando suas bases para
o cognitivo, seguindo para as dimensões estéticas e mais atualmente os fatores
afetivos e emocionais. A neuroergonomia não possui o foco unicamente no aspecto
cognitivo, mas também estuda os outros fatores, sendo um de grande importância
atual a base neural da performance física: agarrar, mover e levantar objetos e
membros do próprio corpo humano.
Parasuraman (2003) disserta que o princípio guia da neuroergonomia é o
exame de como o cérebro lida com as tarefas complexas do cotidiano. Estas
atividades envolvem funções cognitivas e perceptivas como ver, ouvir, responder,
memorizar, decidir e planejar, realizadas tanto de forma voluntária quanto involuntária.
Diante disto, a premissa básica de tal contexto é que a abordagem neuroergonômica
permite ao pesquisador questionar diferentes possibilidades e desenvolver novos
modelos que expliquem os seres humanos e o trabalho, ao invés da abordagem
baseada somente nas medidas de desempenho geral das tarefas e nas percepções
subjetivas do operador humano, como através do uso de questionários fechados.
Outras vantagens são percebidas para a neuroergonomia. Além da coleta de
dados e possibilidade de melhoria em ambientes reais de trabalho, Zheng (2018)
relata que é possível realizar medições de forma contínua; os métodos utilizados
49
possuem alta sensibilidade, o que pode auxiliar no diagnóstico das fontes de baixo
desempenho; a possibilidade de realizar medidas quando não são encontradas
medidas comportamentais que expliquem os problemas, entre outros.
No entanto, existem diversas desvantagens para a abordagem
neuroergonômica no estado da arte. Pela falta de estudos e pesquisas na área, ainda
há poucas aplicações e métodos que funcionem para laboratório, e ainda mais para o
trabalho real. Os aparelhos utilizados na coleta de dados são dispendiosos, tanto por
seu custo inicial quanto para sua utilização; muitos possuem um volume elevado e não
são portáteis, o que implica dificuldades em realizar medições em qualquer ambiente;
a resolução temporal e espacial varia de acordo com o aparelho utilizado
Diversos exemplos ilustram o campo de estudo da neuroergonomia. Teve início
pela concentração ergonômica no desenho de mostradores e telas de controles na
cabine de comando de aeronaves. Relacionado a este campo, Parasuraman e Rizzo
(2008) citam o exemplo da implantação de um novo sistema de monitoramento de
tráfego aéreo instalado na cabine. A aplicação de princípios neuroergonômicos pode
dizer quais as características de símbolos (forma, intensidade, mobilidade, cor, etc.)
que representam informações importantes ao piloto que atraem maior nível de atenção
para um potencial intruso nas redondezas, evitando que ocorram colisões ou outros
tipos de acidentes aéreos. Os autores também relatam a preocupação de que a
apresentação de grande quantidade de informações de trânsito, enquanto auxilia o
piloto a monitorar o espaço aéreo imediato, pode aumentar a carga mental de trabalho
total deste, degradando o desempenho de tarefas primárias de voo.
Outro exemplo de aplicação é o da direção de carros, no qual é necessário
compreender a interação entre o olho, o cérebro e o automóvel (RIZZO; KELLISON,
2004). Utilizando técnicas de ressonância magnética funcional (fMRI), é possível
perceber quais regiões do cérebro são ativadas de acordo com cada atividade
realizada, ou a relação entre sonos de curta duração ao volante com a atividade
cerebral.
Uma vertente relacionada com a neuroergonomia é o neuromarketing, que
estuda o comportamento do consumidor (SOARES NETO, 2007). Utilizando as
técnicas semelhantes à neuroergonomia tradicional, como neuroimagem, o
neuromarketing explora respostas inconscientes e percepções dos consumidores
diante de um produto ou de uma propaganda, compreendendo melhor a experiência
destes. Existe uma relação com o desempenho operacional, pois, a partir do momento
que a percepção de valor é dada pelo cliente, compreender como o satisfazer da
50
melhor forma auxilia na melhor concepção e desenho dos processos de produção e
projeto do produto otimizado.
Sobre outras aplicações, em conjunto à ergonomia tradicional, diversos ramos
utilizam dos conceitos neurocientíficos para melhoria da interação do homem com os
meios de trabalho. Um deles é a Realidade Virtual (VR), que pode ser utilizada para
estudar a performance do trabalho de operadores humanos engajados em tarefas
insalubres ou perigosas sem exposição ao risco e condições prejudiciais, a partir do
uso de simuladores. Entre as possibilidades envolvidas, pode-se estudar a influência
de doenças, drogas, fadiga ou até de tecnologias nas operações de trabalho, como
celulares na pilotagem de aviões ou condução de automóveis. Estes estudos possuem
o intuito de explicar e prescrever melhorias para diversos ambientes do cotidiano:
como reduzir o risco de quedas por idosos, ou o treinamento de estudantes para evitar
pré-julgamentos iniciais inadequados ou erros cruciais ao realizar procedimentos
médicos, precauções na operação de maquinaria pesada, entre outros.
Outro tópico no qual a neuroergonomia tem se aprofundado é o dos sistemas
semiautomatizados, nos quais pode ser variável a proporção entre operações
realizadas manualmente e automaticamente. Uma aplicação possível neste âmbito é a
neuroengenharia, ou a interface cérebro-computador (Brain Computer Interface – BCI),
que se utiliza dos sinais cerebrais como um canal de comunicação adicional para
interação humana com ambos ambientes, natural e artificial. Baseado na ideia de
biocibernética, diferentes tipos de ondas cerebrais são utilizadas para controlar
dispositivos externos sem a necessidade de comandos manuais, o que pode ser
vantajoso para indivíduos que tenham controle motor limitado ou sem nenhum controle
motor.
O usuário de uma BCI pode interagir com o ambiente sem a necessidade de
utilizar movimentos das mãos, pés, olhos ou boca. Neste caso, treina-se o usuário
para que este seja engajado em uma atividade mental específica que é associada a
uma onda elétrica cerebral singular, idiossincrática. Assim, os potenciais do cérebro
resultantes são capturados, gravados, processados e classificados de forma a permitir
que se tenha um sinal de controle em tempo real para um dispositivo externo.
O grande avanço da neuroergonomia é sua possibilidade de ultrapassar as
barreiras de compreensão da real interação entre ambiente, máquina e trabalhador. A
preocupação sai do campo comportamental, no qual são vistas as respostas do
operador diante de uma situação ou estímulo, para a compreensão biológica do que
ocorre dentro do organismo. Em outros termos, em vez de analisar um contexto a
51
partir de emoções, falas, semblantes e outros tipos de comunicação corporal, passa-
se a descrever e explicar o feedback, ou seja, como o operador percebe tal fato, diante
da resposta do organismo. Nesta, podem ser incluídas ondas cerebrais, aumento da
sudorese, velocidade do fluxo sanguíneo, ativação de regiões do cérebro, entre outros.
Em resumo, o conceito da neuroergonomia é focado na análise de ambientes
reais e na relação das atividades com as funções executivas do cérebro. A visão
adotada é a da influência do contexto e da tecnologia empregada, ou seja, dos meios
de trabalho existentes, no cérebro e na mente dos seres humanos. Adotar
experimentos em condições controladas pode trazer avanços, no entanto é a situação
do cotidiano, junto de suas diversas variáveis de impacto, que deve ser realmente
analisada. Esse avanço pode, em suma, prover grandes benefícios para a pesquisa e
prática ergonômica, complementando métodos como a Análise Ergonômica do
Trabalho. Permite ao pesquisador fazer perguntas mais aprofundadas sobre diversos
tópicos, como alocação de atenção, do que antes.
4.2 Aplicações Atuais da Neuroergonomia
Por ser um campo de estudo relativamente recente, os estudos atuais sobre
neuroergonomia ainda estudam diversas aplicações originais, como a aviação civil e
serviços de monitoramento. Serão apresentados alguns destes campos e objetos de
pesquisas atuais.
4.2.1. Aviação
Um dos setores de maior foco dos estudos neuroergonômicos é o de aviação.
Di Stasi et al. (2015) discorrem sobre os problemas cognitivos apresentados pelos
pilotos de avião. Além de comentar que a aviação militar e civil contemporânea é
muitas vezes estressante e cognitivamente exigente, os autores relatam que grande
parte dos acidentes de avião, de 80 a 85%, são causados por erro humano, que está
diretamente relacionado a falhas no desempenho cognitivo, principalmente em
momentos de decolagem ou aterrissagem. Em conjunto a isto, também é ressaltado o
fato de que há diversas tarefas em que habilidades cognitivas são mais importantes do
que as físicas, como a exigência de memorizar e lembrar de procedimentos
padronizados durante o percurso. Dessa maneira, a carga de memória demandada do
piloto é geralmente alta. Logo, entender o impacto dos procedimentos do voo no
52
processo cognitivo do piloto em diversos estágios e detectar seu declínio pode ajudar
a melhorar a segurança no ar.
Com este foco, os autores apresentam um estudo sobre o comportamento das
ondas cerebrais em pilotos militares em relação à complexidade dos procedimentos
realizados em voos reais de helicóptero. Foi utilizado inicialmente um questionário
para determinar a base do ciclo circadiano dos indivíduos, verificando assim que estes
são mais alertas durante a manhã e o início da noite. Os experimentos duraram cerca
de uma hora cada, com cada estágio consistindo em cerca de quinze minutos:
decolagem, dois procedimentos aéreos e aterrissagem. Os dados coletados pelo EEG
foram tratados utilizando um procedimento manual de retirada de artefatos.
Sobre os resultados, foi demonstrado que procedimentos cognitivamente
demandantes (como decolagem e aterrisagem) induziram uma potência maior no EEG
nas ondas alfa e beta, enquanto procedimentos menos demandantes (como exercícios
de voo) induziram uma potência menor nestas ondas. Não houve mudanças
significativas em ondas como delta e teta. O aumento das ondas de maior frequência
foi atribuído à necessidade de lembrar procedimentos de voo durante as diversas
etapas, em especial a decolagem e aterrissagem, o que aumenta a carga de memória
necessária à atividade. Assim, concluiu-se que o espectro de potência do EEG é
sensível a variações na complexidade dos procedimentos durante os voos.
Já Causse et al. (2013) direcionaram seus estudos para o problema da
mudança de trajeto aéreo. Os autores relatam que, de acordo com a legislação,
condições de risco, como veículos na pista, instabilidade na chegada e ventos fortes,
requerem que o piloto retorne para realizar uma nova tentativa mais segura ou
encaminhe até outro aeroporto. Entretanto, há grande quantidade de pilotos que
preferem seguir com o pouso apesar das condições adversas, fenômeno chamado
Erro de Continuação do Plano (PCE – Plan Continuation Error).
Segundo os autores, alguns experimentos tentaram abordar a dificuldade que
estes pilotos possuem em mudar o plano de voo, e diversas hipóteses de natureza
cognitiva e psicossocial foram levantadas como explicação, como habilidades de
atualização da memória reduzidas, problemas de comprometimento com a tarefa,
estresse psicológico e fraca análise de risco. Foi verificado que uma mudança no
plano de pouso pode causar estresse e sensação de incerteza tanto na equipe quanto
nos passageiros, o que pode afetar a reinserção nos padrões de aterrissagem. Entre
algumas das mudanças ocorrentes, foi descoberto que a carga mental de trabalho
subjetiva e a frequência cardíaca eram mais altas durante essa mudança do trajeto do
53
que em qualquer outro estágio do voo. A hipótese dos autores, confirmada pelos
resultados de um experimento realizado, é que, além dos fatores cognitivos e
psicossociais, as emoções negativas consequentes da mudança de voo provocam
prejuízo temporário no processo de tomada de decisão e favorece o PCE.
Além das etapas de controle das aeronaves, uma outra tarefa cognitiva
demandante é o Controle de Tráfego Aéreo (ATC), que tem como principal tarefa guiar
as aviações por um ambiente aéreo controlado, respeitando as exigências de
segurança de manter uma distância e altitude mínima de separação entre elas, além
de otimizar suas trajetórias. Giraudet et al. (2015) dissertam sobre o fato de cada
controlador ser responsável por um volume de espaço aéreo que é representado em
um sistema de visualização do radar onde são exibidas a posição de diversos aviões.
Os controladores também devem estar atentos para qualquer ocorrência de
notificações visuais na tela, engatilhada pelas redes de segurança. Assim, a alta carga
de trabalho cognitivo do ATC pode consumir uma grande proporção da atenção dos
operadores, cujos recursos devem estar divididos entre visão e audição. O foco nos
dispositivos visuais pode levar a uma negligência dos alertas auditórios,
principalmente se os mostradores visuais não forem bem desenhados. Por isso,
introduzir desenhos eficientes e proeminentes que reduzam a carga cognitiva é de
grande importância para melhorar o desempenho das tarefas do ATC, preservando
assim os recursos de atenção que podem ser exigidos por outros canais de
informação. Este fato deve ser considerado principalmente em cenários de
multitarefas, para a certificação de que o desenho de uma atividade não favorece
apenas esta e prejudica as outras existentes.
Dentro deste contexto, os autores realizaram um estudo que compara dois
tipos de notificações visuais, chamados de Box-Animation (BA) e Color-Blink (CB),
sendo o primeiro em formato e cores visualmente mais impactantes, com colchetes
que piscavam em volta da aeronave, e o segundo mais discreto, necessitando de
monitoramento ativo para ser percebido. Conclui-se que as notificações BA são mais
perceptíveis e não exigem uma busca visual constante para serem detectadas,
enquanto as CB podem passar despercebidas se o controlador não estiver ativamente
monitorando o radar. A detecção de notificações periféricas foi mais precisa no BA, e o
grupo de participantes que usou esse modelo teve o desempenho menos prejudicado
durante o aumento da velocidade. Ressalta-se o ponto da aplicação de um
questionário NASA-TLX para verificar diferenças na carga mental dos dois modelos,
no entanto os participantes não perceberam a diminuição de demanda mental do
54
modelo BA comparado ao CB, demonstrando assim a importância de se considerar
medidas subjetivas e objetivas comportamentais.
Além dos elementos inerentes à atividade em si, variáveis externas podem
afetar o desempenho operacional dos pilotos de aeronaves. Por exemplo, Chua e
Causse (2017) dissertam sobre o efeito do envelhecimento em duas funções
executivas: a memória operacional espacial, e o raciocínio e planejamento espacial.
Segundo os autores, os pilotos trabalham com funções executivas em diversas
atividades, como acionamento de memória, planejamento de rotas e raciocínio
espacial, que são impactadas pelo decorrer da idade. Ao realizar experimentos sobre
a temática, verificou-se que, no geral, jovens adultos (com menos de 25 anos) foram
mais eficazes na memória do que os mais velhos (mais de 57 anos). Entretanto, a
idade não apresentou um impacto significativo na ativação do cérebro ou no
desempenho dos indivíduos em relação às atividades de raciocínio, planejamento. Da
mesma forma, a variável experiência de voo recente também não demonstrou efeito
relevante no desempenho operacional.
4.2.2. Carga de trabalho mental
Uma segunda temática de interesse atual é a carga mental de trabalho,
também estudada pelo campo da ergonomia cognitiva. A carga de trabalho é
caracterizada em relação à demanda imposta por tarefas nos recursos limitados de
processamento de informação do operador (HART; STEVELAND, 1988). Matthews et
al. (2015), sobre este assunto, dissertam que a avaliação da carga de trabalho
necessita de métricas válidas e confiáveis, e o seu monitoramento é importante para
detectar sobrecargas e regular alocação de função em sistemas automatizados.
A carga de trabalho não é diretamente observável, mas inferida por diversos
métodos, incluindo relatórios subjetivos, medidas psicofisiológicas e o desempenho
em si. Os instrumentos mais usados e validados são escalas subjetivas como a NASA-
TLX.
O método TLX (indicador de carga da tarefa - Task Load Index) é uma técnica
proposta pela NASA a partir dos estudos de Hart e Staveland (1988) para medir o alto
uso das capacidades cognitivas do trabalhador. A partir da definição de carga mental
como o custo de completar os requerimentos de uma missão por um operador humano
(HART, 2006), o NASA-TLX foi desenvolvido pela ideia de seis dimensões que
compõem este custo: exigência mental, exigência física, exigência temporal, nível de
55
esforço, nível de realização e nível de frustração. Cada uma destas avaliações estão
descritas na Figura 15.
Como apresentado por Matthews et al. (2015), o NASA-TLX é um indicador
subjetivo da carga mental de trabalho, isto é, depende das opiniões dos funcionários
envolvidos. Corrêa (2003) explica que, após escolher o grupo de indivíduos que
participará do experimento, a primeira fase consiste em distribuir os pesos entre as
seis dimensões através de um questionário. São apresentadas quinze combinações
de duas dimensões possíveis, e o indivíduo tem que escolher qual a mais
representativa entre as duas para determinada tarefa. Ao final, cada escolha
representa um ponto para a dimensão escolhida, e os pesos distribuídos são
equivalentes ao somatório de pontos. Este processo está descrito na Figura 16. A
segunda etapa consiste na atribuição de notas para cada dimensão, em uma escala
de 0 a 10, dividida em seções de 0,5 pontos cada uma, conforme exemplo
apresentado na Figura 17. Ao final, a avaliação do indivíduo será a média ponderada
das notas obtidas. A nota final da atividade será, assim, a média das notas dos
indivíduos.
56
Figura 15: Definições das avaliações da escala NASA-TLX.
Fonte: Corrêa (2003, p.148).
Figura 16: Atribuição de pesos para a escala NASA-TLX.
Fonte: Adaptado de Hart e Staveland (1988).
57
Figura 17: Exemplo de escala do NASA-TLX.
Fonte: Corrêa (2003, p.149).
Uma aplicação do NASA-TLX é utilizada por Lee et al. (2014), durante a
comparação ergonômica entre os esforços físicos e cognitivos de cirurgias realizadas
por seres humanos e por robôs. Pelo fato de cirurgiões estarem expostos à fadiga
física em excesso e altos níveis de carga mental de trabalho quando realizam cirurgias
pesadas, a alternativa do uso de cirurgias robóticas, que são menos demandantes em
termos de carga de trabalho física e mental, são uma solução viável. Estudos
realizados pelos autores utilizando o NASA-TLX comprovaram que as condições
ergonômicas físicas e cognitivas de cirurgias robóticas são menos demandantes do
que as associadas com cirurgias comuns, incentivando assim o uso de robôs para
tarefas de menor complexidade.
No entanto, este tipo de escala possui algumas limitações: as respostas podem
ser tendenciosas em ambientes de alto risco, autorrelatos não são a forma de medição
mais adequada, e algumas facetas da carga de trabalho podem ser inacessíveis à
58
consciência. A Tabela 2 apresenta alguns critérios para a avaliação dos métodos de
aferição da carga mental de trabalho.
Tabela 2: Critérios para avaliar os instrumentos de carga de trabalho.
Critério Descrição
1. Sensibilidade Capacidade do instrumento de detectar mudanças na dificuldade da
tarefa ou demanda cognitiva
2. Diagnosticabilidade Capacidade do instrumento de diferenciar fontes distintas de carga
de trabalho, como capacidades específicas ou recursos múltiplos
3. Seletividade/Validade Sensibilidade do instrumento apenas para mudanças na demanda
cognitiva, não em outras variáveis (como estresse)
4. Confiabilidade Avaliação contínua da carga de trabalho mental
5. Intrusão Inexistência de interferência com a tarefa
6. Requisitos para
implementação
Restrições práticas associadas à instrumentação, software e
treinamento
7. Aceitação do
operador
Percepção do operador em relação à validade e utilidade do
procedimento
Fonte: Adaptado de Matthews et al. (2015).
Borghetti, Giametta e Rusnock (2017) dissertam que sistemas
neuroergonômicos devem ser capazes de diferenciar os níveis de carga de trabalho e
identificar quando o operador está em um estado de sobrecarga, possibilitando
também antecipar quando ele entrará nesse estado. Para tal, cita o conceito de
sistemas adaptativos, os quais proporcionam um incentivo para a existência de
avaliação em tempo real da carga mental de trabalho, já que estes precisam ser
capazes de realizar alocações dinâmicas de tarefas conforme problemas aparecem. O
uso de métodos neuroergonômicos, além das métricas comportamentais, é importante
porque os sistemas automatizados modernos reduzem a quantidade de atividades
físicas exigidas do operador.
Ainda contribuindo à discussão, Matthews, Mcdonald e Trejo (2005) relatam
que há uma relação entre desempenho e carga de trabalho, apresentada pela Figura
18. Baseado nisto, há o pressuposto da existência de um nível ótimo de carga mental
de trabalho. Os autores relatam que, em cargas baixas, as pessoas tendem a diminuir
vigilância e se tornarem desatentas, enquanto em altas cargas suas capacidades de
59
processamento de informação são ultrapassadas. Nos sistemas complexos atuais, é
principalmente em altas cargas de trabalho que ocorrem erros humanos.
Figura 18: Correlação entre engajamento e desempenho.
Fonte: Adaptado de Matthews, Mcdonald e Trejo (2005).
4.2.3. Vigilância e atenção
Um dos principais sistemas de trabalho existentes na atualidade é o de
monitoramento e controle. A eficiência e segurança destes sistemas complexos
homem-máquina pode ser criticamente dependente da carga mental de trabalho e da
vigilância dos operadores envolvidos nestes.
A vigilância é a habilidade dos observadores de detectarem sinais transientes e
não frequentes durante prolongados períodos de tempo, como nas atividades de
monitoramento. Possui um papel fundamental em diversos destes contextos: áreas
militares, controle de tráfego aéreo, controle de qualidade de processos industriais,
inspeção de bagagens em aeroportos, monitoramento de sinais vitais durante
cirurgias, etc. (WARM; PARASURAMAN, 2007).
O desenho de um sistema homem-máquina de alta qualidade não importa
apenas para a questão do desempenho na realização das tarefas, mas também por
quão bem os operadores podem atender às demandas impostas a eles por estes
sistemas, ou seja, pelos meios de trabalho. Neste quesito, Warm e Parasuraman
(2007) mostram que há dificuldade em saber se estes operadores poderão satisfazer a
demandas adicionais e inesperadas quando estiverem com alta carga mental e
cognitiva, e se conseguirão manter os níveis de vigilância e atenção adequados no
caso de ocorrerem eventos críticos. Como exemplo desses ambientes, pode-se citar
60
plantas químicas industriais, no qual o vazamento de um produto inflamável pode
destruir cidades e causar alto impacto social, econômico e ambiental.
Como exemplo de tarefa relacionada a eventos críticos, Parasuraman e Galster
(2013) abordam a atividade de detecção de ameaças. Segundo estes, a detecção de
ameaças baseadas em movimento é sensível à atenção em diversos contextos:
quando as imagens de vigilância são escondidas por outros movimentos ou estão
visualmente degradadas, quando existem outros estímulos ou tarefas que competem
pela atenção dos operadores, e quando ameaças de baixa probabilidade devem ser
observadas por um longo período de tempo.
Para tal, os autores dissertam acerca de uma abordagem relevante para
melhoria da detecção de ameaças em ambientes militares ou civis, baseada em três
etapas: identificar a existência de condições não ideais para o monitoramento humano,
avaliar estas condições em relação a um referencial de detecção esperado e, caso
necessário, utilizar ferramentas para aumentar o seu desempenho operacional. Os
problemas de desempenho em vigilância, segundo os autores, ocorrem pelo fato das
capacidades naturais humanas estarem se tornando cada vez mais incompatíveis com
a enorme capacidade de armazenamento e processamento de dados, e com a
velocidade de tomada de decisão que os computadores oferecem e demandam.
Atualmente os operadores humanos já estão sobrecarregados pela quantidade de
dados que as novas tecnologias oferecem. Neste âmbito, alega-se que o aumento do
desempenho humano se dará pelo aumento do uso de sistemas autônomos ou pela
melhoria dos humanos em si, através de treinamentos mais intensificados, por
exemplo.
Com o propósito de medição e melhoria do desempenho nas atividades de
vigilância, como a de detecção de ameaças, Warm e Parasuraman (2007) afirmam
que o uso de indicadores cerebrais é mais indicado do que o uso de medidas
comportamentais, que podem ser superficiais para eventos como os descritos. A
análise das situações deve seguir o esquema em que o meio de trabalho impacta o
cérebro dos operadores, resultando em um comportamento específico que, por fim,
traduz-se em uma performance da tarefa. Por isso, o uso de indicadores cerebrais
seria mais adequado, e, neste caso, é necessário compreender como medir os níveis
de atenção, carga mental de trabalho e de vigilância a partir destes indicadores
fisiológicos.
A revisão apresentada pelos autores aponta que um dos principais indicadores
fisiológicos encontrados é a velocidade do fluxo sanguíneo no cérebro, utilizando a
61
sonografia transcraniana Doppler (TCDS) ou a ressonância magnética funcional
(fMRI). Há uma ligação forte entre o fluxo sanguíneo no cérebro e atividade neuronal
na performance de atividades mentais, logo pode-se dizer que o fluxo sanguíneo
estaria positivamente correlacionado com os níveis de vigilância realizados sobre
determinada tarefa.
Sobre este indicador, Funke et al. (2013) apresentam um estudo para
compreensão dos efeitos da incerteza sobre a localização espacial de sinais críticos
em tarefas de vigilância constante. Tarefas dessa natureza estão relacionadas à
habilidade do observador de detectar estímulos infrequentes e imprevisíveis no
decorrer de um longo período de tempo, encontradas em áreas como aviação,
vigilância militar, segurança de aeroportos ou fronteiras, navegação litoral, controle de
processo industrial e monitoramento médico. Além da velocidade do fluxo sanguíneo
cerebral, também foi utilizada a fadiga oculomotora como um segundo indicador. Foi
verificado em um experimento realizado que o nível de fechamento dos olhos
aumentou e a velocidade do fluxo sanguíneo cerebral no hemisfério direito diminuiu
com o tempo de tarefa em situações de incerteza espacial. Comparando com as
condições de certeza, nas quais estes indicadores foram pouco afetados, percebe-se
a importância de saber onde em um mostrador ou em um painel os sinais críticos
serão apresentados.
4.2.4. Sono e Controle Circadiano
Muitos organismos apresentam mudanças diárias em seus comportamentos e
fisiologia. Nos mamíferos, como os seres humanos, estes ciclos de 24 horas são
conhecidos como ciclos, ou ritmos, circadianos. Iida (2005) apresenta a importância do
ritmo circadiano utilizando a divisão de seres humanos entre matutinos e vespertinos.
A Figura 19, que apresenta as variações na temperatura corporal do ser humano ao
longo de um dia, mostra as diferenças entre ambas classificações: enquanto o auge
de temperatura do ciclo matutino encontra-se por volta de 12h, o do vespertino
aproxima-se de 16h. Também é possível visualizar o padrão cíclico, o que infere que
há momentos de atuação e de repouso ao longo do dia para cada um dos órgãos
funcionais.
62
Figura 19: Ciclos circadianos.
Fonte: Iida (2005).
Os ciclos circadianos são controlados por um relógio interno chamado
suprachiasmatic nucleus (SCN), localizado no hipotálamo. Estes ciclos são
sincronizados com sinais externos sobre o tempo, os zeitgebers (zeit = tempo, geben
= dar), sendo o principal a luz solar. Entre as diversas funções corporais que são
afetadas por esse ciclo, pode-se citar a temperatura, nível de alerta, padrões de sono,
cortisol, melatonina, entre outras.
Iida (2005) também apresenta um estudo que relaciona a produtividade do
trabalho com o ritmo circadiano. Ao separar os indivíduos em grupos de pessoas
matutinas e vespertinas, foi verificado que pessoas matutinas possuem um melhor
desempenho até as 12h, seu horário de pico de temperatura corporal, enquanto os
vespertinos possuem um crescente desempenho até aproximadamente 20h. Os
resultados do estudo estão presentes na Figura 20.
63
Figura 20: Estudo sobre a relação entre ciclos circadianos e produtividade.
Fonte: Iida (2005).
Como explica Mallis, Banks e Dinges (2008), para a maioria dos animais os
horários de acordar e dormir são sincronizados com o controle circadiano do sono e
dos outros diversos ritmos, sob condições naturais. No entanto, os seres humanos
podem suprimir este ciclo biológico e alterar estes ritmos cognitivamente, ou seja,
deslocar-se fasorialmente do relógio biológico. Quando o ciclo do sono encontra-se
fora de fase em relação ao ciclo circadiano, efeitos negativos podem ocorrer, como
prejuízos nas funções cognitivas, sonolência, alteração no funcionamento hormonal,
problemas gastrointestinais, entre outros.
Em adição ao ciclo circadiano, outro ponto de grande relevância é o ciclo do
sono, responsável por programar as horas de repouso e de alerta. Quanto menor a
quantidade de sono diária obtida por um indivíduo, maior será a necessidade
homeostática para dormir. Faz-se necessário então obter o sono profundo, e
especialmente a atividade cerebral durante este sono profundo, que são marcas do
processo homeostático do sono. Assim, percebe-se que ambos os processos
circadiano e homeostático influenciam no horário e no nível de alerta e de
desempenho cognitivo do ser humano durante o ciclo de 24 horas.
64
4.2.4.1. A privação do sono
Segundo Mallis, Banks e Dinges (2008), a privação do sono pode ser
classificada de diversas formas: parcial ou total, aguda ou crônica, e voluntária ou
involuntária. A privação parcial ocorre quando o indivíduo deixa de cumprir a parcela
recomendada de sono para repor suas energias, podendo ser restrita de forma
contínua ou de forma separada.
Os autores relatam que existe correlação positiva entre a quantidade de horas
de sono de um ser humano e seus níveis de alerta e desempenho nas tarefas.
Quando a privação parcial do sono ocorre, estes níveis são afetados, no entanto caso
a privação ocorra durante dias seguidos, o decréscimo em tais níveis ocorre
drasticamente.
Já a privação total ocorre quando um adulto sadio permanece acordado por
mais de 16 horas seguidas. A Figura 21 apresenta o resultado de cinco testes
cognitivos de 30 minutos de duração, realizados a cada 2 horas com 24 pessoas que
ficaram acordadas por 88 horas contínuas, iniciadas às 8h da manhã. Os testes foram
tarefas sobre vigilância psicomotora (PVT), memória de trabalho, memória de curto
prazo e acurácia subjetiva. Analisando a figura, percebe-se que a série temporal
possui tendência negativa, no entanto há comportamento cíclico e sazonal. O
desempenho no período de 24 a 30 horas é melhor do que no período entre 16 e 24
horas, por exemplo, percebendo-se assim a influência do ciclo circadiano nos
resultados obtidos. Todas as cinco curvas mostram que os melhores resultados são
em geral próximo a 10 horas acordados, pelo período da tarde e início da noite,
quando a temperatura corporal encontra-se maior.
65
Figura 21: Decréscimo no desempenho cognitivo ao longo do tempo acordado.
Fonte: Adaptado de Mallis, Banks e Dinges (2008).
Por fim, a última condição apresentada é de inércia do sono. Ela acontece
quando a pessoa sente sonolência e desorientação logo ao acordar, podendo durar
minutos até horas. É caracterizado como um estado transiente do cérebro entre o
sono e o acordado que pode causar problemas cognitivos neste meio tempo, como
lapsos de memória e atenção. Em geral, caso o indivíduo durma mais do que sete
horas, a inércia do sono possui sua duração bem curta. No entanto, se este tiver
privação do sono ou acordar perto do momento de vale do ciclo circadiano (menor
temperatura corporal), a intensidade e duração da inércia do sono será maior.
Mallis, Banks e Dinges (2008) relatam que há uma correlação negativa entre
perda de sono e performance cognitiva, ou seja, quanto maior a privação do sono,
piores serão os resultados obtidos em tarefas cognitivas. Uma consequência direta
disto é o aumento da variabilidade na acurácia e na velocidade de realização de
66
tarefas, isto é, há problemas tanto na eficiência e produtividade quanto na eficácia
destas atividades. Diversas outras consequências estão resumidas na Tabela 3, que
também as correlaciona com problemas comportamentais e com problemas para a
organização, de cunho econômico, social e ambiental.
Tabela 3: Consequências da privação do sono.
Fonte: Adaptado de Mallis, Banks e Dinges (2008).
Além disso, estes efeitos causam problemas nas outras esferas envolvidas, de
cunho social, econômico e ambiental. Primeiramente, ocorre redução de eficiência:
aumento nos tempos de tarefas e de reação e necessidade de mais pessoas e mais
matéria-prima para suprir os problemas ocorrentes. Também ocorre redução na
eficácia: aumento no número de erros, perda de níveis de alerta e vigilância,
negligência de atividades não-finalísticas, entre outros. Assim, ocorre perda de
efetividade da organização, ou seja, na sua geração de valor para a sociedade como
um todo.
Outra questão envolvida neste assunto é a quantidade de horas de sono que o
funcionário deve ter diariamente para evitar a privação do sono, principalmente para
os problemas de regulamentos de carga horária de trabalho e repouso. Há o
pressuposto de que 8 horas de descanso entre períodos de trabalho seria ideal para
recuperar-se do cansaço e evitar insônia. No entanto, os autores mostram que o sono
fisiológico apenas ocorre em 50 a 75% do tempo de descanso. Assim, pessoas que
possuem 8 horas de descanso apenas dormem efetivamente de 4 a 6 horas.
Um experimento realizado por Van Dongen et al. (2003) e outro por Belenky et
al. (2003) relacionam a performance nas tarefas cognitivas com o tempo de sono
durante duas e uma semana, respectivamente. Foram utilizadas tarefas de vigilância
psicomotoras, e mensurado o número de lapsos ocorridos por cada uma destas, e foi
percebido que a quantidade de falhas é quase linearmente proporcional à quantidade
de horas não dormidas, ou inversamente, quanto mais próxima da faixa de 7 - 9 horas
67
a quantidade de horas dormidas diariamente for, melhor será a performance dos
operadores. Assim, a recomendação é de períodos de descanso de 10 a 14 horas
para assegurar que a quantidade de sono necessária seja obtida. Também se
recomenda tal para motoristas, já que em geral o número de acidentes de trânsito
aumenta consideravelmente quando os indivíduos envolvidos dormem menos de 6
horas por dia.
É ressaltado que se torna fundamental seguir tais recomendações. Enquanto
as percepções de fadiga e sonolência não são percebidas pelos seres humanos ao
longo dos dias de privação do sono, seu desempenho cognitivo cada vez atinge
patamares piores. Os indivíduos concluem que conseguiram ajustar seus organismos
à quantidade de horas dormidas, e não percebem os malefícios que isto causa.
4.2.4.2. Causas de perda de sono
As principais causas da privação do sono para operadores humanos são o
trabalho noturno, turnos rotativos e a jornada de trabalho extensiva (MALLIS; BANKS;
DINGES, 2008).
O trabalho noturno é uma condição de atividade que atinge grande parte dos
trabalhadores, seja este permanente ou rotativo. Os indivíduos inseridos nesta
condição experienciam disrupção do sono matutino, levando à perda de sono durante
o dia e sonolência durante o trabalho noturno, causado pelo desalinhamento do corpo
com o ciclo circadiano. Akersted (2003) relata que mais de 50% dos trabalhadores
neste turno possuem perda de sono de 2 a 4 horas por dia. Este tipo de atividade
ocorre em diversos ambientes que exigem operação em 24 horas diárias, como
indústrias, hospitais, centros de controle, casinos, aeroportos, empresas de
telecomunicações, segurança, entre outros.
Há outras causas também citadas pela literatura. Uma delas é a jornada
irregular, na qual o corpo não se estabiliza em determinado ciclo. Por exemplo,
caminhoneiros podem dirigir por horas seguidas e em horários como madrugada, o
que aumenta os níveis de fadiga e falta de atenção, podendo levar a acidentes fatais.
Na aviação, por exemplo, há também a causa relacionada a fusos horários. Pilotos de
avião e comissários de bordo, ao estarem em viagens internacionais, ultrapassam as
fronteiras transmeridionais e podem desajustar seus períodos de sono em relação ao
ciclo circadiano. Assim, enquanto seria hora de descansar pelo excesso de horas
trabalhadas, há o estímulo externo da luz que faz com o que cérebro acredite ser dia,
68
impedindo o sujeito de obter seu período regular de sono (MALLIS; BANKS; DINGES,
2008).
4.3 O Indicador de Engajamento da Tarefa: NASA-TEI
Este subcapítulo possui o intuito de apresentar a origem, o funcionamento e
algumas das principais pesquisas e aplicações sobre o indicador de engajamento da
tarefa, o TEI (Task Engagement Index) ou NASA-TEI. A escolha deste indicador é
baseada na facilidade de obtenção de suas medidas utilizando um
eletroencefalograma, por ser portátil, leve e de precisão adequada para realizar
análises. O conceito do TEI surgiu através dos estudos sobre automação adaptativa, e
foi sendo adaptado para diversas outras áreas, como de jogos eletrônicos,
neuromarketing e de melhorias em relação ao aprendizado.
4.3.1. A origem pela automação adaptativa
Uma das principais formas de melhoria de operações é a automação, definida
por Parasuraman e Riley (1997) como um agente maquinário capaz de realizar
funções normalmente executadas por um ser humano. A automação, tanto física
quanto de tomada de decisão, ocorre a partir da compreensão de como tais tarefas
são realizadas. No caso da física, utiliza-se de mecanismos como locomoção,
carregamento de peso, processos mecânicos, entre outros. Já para a de tomada de
decisão, entender quais os algoritmos envolvidos atrás do processo de decisão para
que o computador possa também realizar tal atividade com baixo índice de erro.
Sistemas automatizados possuem diversas vantagens. São concebidos e
desenhados para reduzir as demandas de tarefas e carga de trabalho para os
operadores. Além disto, permitem que a amplitude de controle e operação (amplitude
horizontal e vertical) seja aumentada, que sejam realizadas tarefas fora da capacidade
humana, manter o nível de desempenho por períodos maiores de tempo, reduzir a
quantidade de erros humanos e aumentar a segurança dos locais (SCERBO, 2007).
No entanto, o autor adverte que um sistema automatizado também aumenta a
carga de trabalho mental e cria condições de trabalho inseguras. É apresentado o
caso de Degani (2004), no qual o treinamento de pilotos de avião resulta em uma
queda deste por problemas na interpretação de um sistema automatizado. Existe
grande quantidade de problemas que podem ocorrer pela automatização de sistemas.
69
Segundo Scerbo (2007), ela não torna as tarefas mais simples, mas sim altera a
natureza do trabalho. Mais especificamente, altera a forma como as atividades são
distribuídas ou realizadas e introduz novos e diferentes tipos de problemas. Além
disto, pode convergir para diferentes tipos de erros pelo fato dos objetivos do operador
podem estar divergentes dos objetivos do sistema. Por fim, quando um sistema é
altamente automatizado, há pouca quantidade de tarefas a serem realizadas pelos
operadores, tornando-os monitoradores passivos em vez de participantes ativos.
Parasuraman, Mouloua e Molloy (1996) mostram que esta mudança de realizar para
monitorar inibe a habilidade dos indivíduos de detectar sinais críticos ou condições
perigosas, além das habilidades manuais piorarem consideravelmente na presença de
longos períodos de automação.
Como contribuição aos problemas da automatização, Berberian et al. (2017)
dissertam sobre o out-of-the-loop (OOTL). Segundo os autores, neste fenômeno o
operador perde a consciência da situação e não é capaz de monitorar o sistema com
eficiência, levando mais tempo ou sendo impossibilitado de detectar falhas na
automação, decidir se é necessário intervir ou procurar a ação mais adequada. Existe
um loop de controle, no qual cada sistema possui um estado desejado e meios para se
ajustar a esse estado, recebendo feedback comparando a situação atual com a
esperada, e realizando correções em cima daquela. A tecnologia de automação cria
uma distância entre o operador humano e esse loop de controle, o que impacta a
obtenção e análise de informação, tomada de decisão e ação. Além disto, os autores
dissertam também sobre a “opacidade do sistema”, a dificuldade que operadores
humanos têm em compreender claramente as intenções do sistema e prever a
sequência de eventos que vão ocorrer.
Em virtude da presença de tais problemas, há a pesquisa por métodos
alternativos de se implementar sistemas automatizados. Um destes métodos é a
automação adaptativa, voltada para a neuroergonomia, no qual o número de sistemas
operando sob condições de automatização pode ser modificado em tempo real.
Também há o fato de que as mudanças possam ser feitas tanto pelo próprio sistema
como pelo operador. Assim, a automação adaptativa permite que os níveis de
operação sejam mais próximos possível da necessidade real do operador.
Scerbo (2007) também disserta acerca de duas características importantes
para a automação: autoridade e autonomia. Quanto maior o nível de sistemas
automatizados, maior é o nível de autoridade e autonomia do computador. Já quando
as tarefas são controladas majoritariamente por humanos, o sistema apenas oferece
70
sugestões de mudanças para o usuário. Em algumas situações nas quais o operador é
vulnerável, seria de grande importância que o sistema tivesse autoridade para realizar
as automatizações.
O autor também relata que há diversas estratégias pelas quais a automação
adaptativa pode ser implementada, divididas em categorias de funcionalidade e de
ativação. Sobre a primeira tarefas inteiras podem ser alocadas tanto para o sistema
quanto para o operador, ou uma tarefa específica pode ser dividida de forma que o
operador e o sistema dividam a responsabilidade por porções únicas desta tarefa. De
forma alternativa, uma tarefa pode ser transformada para um formato diferente para
que possa ser mais fácil ou mais desafiadora para o operador realizá-la.
Sobre a segunda categoria, esta é responsável pelos mecanismos de troca
entre operador e sistema de acordo com os níveis de automação (SCERBO, 2007).
Podem ser realizadas diversas abordagens neste contexto. A primeira é baseada em
estratégias de objetivos: mudanças nos níveis de automação são ativadas por uma
série de critérios ou eventos externos, assim o sistema apenas realizaria a troca em
momentos específicos da tarefa ou se detectasse alguma situação de emergência.
Outra abordagem seria no uso de medidas em tempo real do desempenho do
operador para ativar a mudança na automação. Utilizar modelos de carga de trabalho
ou performance do operador para guiar uma lógica adaptativa seria uma outra
possibilidade. Por fim, medidas psicofisiológicas que refletem a carga de trabalho do
operador poderiam ser utilizadas para trocar entre modos.
O tipo de automação adaptativa que segue os conceitos neuroergonômicos é a
da última abordagem citada, pelo uso de indicadores psicofisiológicos para ativar a
mudança entre modos. Scerbo (2007) mostra que há diversos índices com estes
propósitos, podendo medir atividade cognitiva, níveis de excitação, demandas de
tarefas externas, etc. Podem ser medidas cardiovasculares, respiração, resposta
galvânica da pele (GSR), atividade oculomotora, discurso, como também as medidas
apresentadas no Capítulo 5 sobre o eletroencefalograma, as ondas cerebrais (BYRNE;
PARASURAMAN, 1996).
71
4.3.2. O indicador de engajamento da tarefa
O TEI foi desenvolvido por Pope, Bogart e Bartolome (1995), pesquisadores da
agência espacial NASA, com o intuito de prosseguirem em estudos relacionados à
automação adaptativa diante do problema de engajamento mental apresentado na
seção anterior. Inicialmente, foi desenvolvido um método de loop fechado para avaliar
o design da interface entre homem e máquina baseado na capacidade de promover
engajamento do operador. Assim, o objetivo do método seria determinar o mix ótimo
entre a alocação de tarefas para o indivíduo e o sistema, ou seja, a razão entre tarefas
manuais e automatizadas, baseado em um critério de engajamento proveniente da
atividade elétrica do cérebro, extraída utilizando o EEG.
Para a aplicação deste método, um loop biocibernético é formado ao ajustar o
nível de automatização, ou seja, a razão entre tarefas manuais e automatizadas,
baseado em um índice de engajamento que reflete o real engajamento mental do
operador, conforme apresentado pela Figura 22. De acordo com os autores, o arranjo
ótimo entre as tarefas é observado quando o comportamento do sistema de feedback,
ou seja, o valor da variável, atinge uma oscilação estável, equilibrada, o que reflete
consequentemente em um nível de engajamento estável e um mix ótimo entre tarefas
manuais e automatizadas.
Figura 22: Ciclo de feedback biocibernético para engajamento mental do operador.
Fonte: Adaptado de Pope, Bogart e Bartolome (1995).
72
O mix de tarefas é adaptado para as necessidades de engajamento do
operador ao automatizar ou tornar manual uma tarefa, ocorrendo quando o indicador
avisa que o nível de engajamento está alto ou baixo demais. Assim, quando o nível de
engajamento está diminuindo, uma tarefa é tornada manual, para poder aumentar o
valor do índice; já quando o nível está aumentando, automatiza-se uma tarefa pelo
fato do operador poder monitorá-la de forma atenciosa, reduzindo o nível de demanda
sobre o indivíduo. Após determinado período de tempo, quando o nível de
engajamento estabiliza-se, é possível dizer que foi alcançado o mix ótimo entre as
tarefas.
Pope, Bogart e Bartolome (1995) precisavam descobrir qual o melhor indicador
que reflete o nível de engajamento, baseado nas ondas cerebrais capturadas pelo
EEG. Foi realizado um estudo aplicando a bateria de testes multiatributo 7
(COMSTOCK; ARNEGARD, 1992) em seis voluntários, capturando as ondas alfa, beta
e teta durante o desempenho das atividades. Neste caso, as tarefas de
monitoramento, comunicação a gestão de recursos foram mantidas em modo
automático, deixando apenas a tarefa de rastreamento para a troca entre o estado
manual e o automático. Esta última se configurava em mover um símbolo para dentro
de um retângulo central utilizando um controle. Ao todo, foram utilizados quatro
candidatos para representarem o índice de engajamento: beta/alfa, beta/(alfa + teta),
(alfa em T5 e P3)/(alfa em Cz e Pz) e (alfa em O1)/(alfa em O2), sendo T5, P3, Cz, Pz,
O1 e O2 localizações de eletrodos ao longo do couro cabeludo do voluntário.
Ao final do experimento, foi concluído que o melhor indicador seria beta/(alfa +
teta), pela maior diferença estatisticamente significante entre as condições de
feedback positiva e negativa. Assim, o indicador de engajamento da tarefa (TEI),
matematicamente, é definido na Equação 2. Vide Tabela 5 para definição das ondas.
𝑇𝐸𝐼 = 𝛽/(𝛼 + 𝜃) (Eq. 2)
7 A bateria de testes multiatributo (MATB) é um teste desenvolvido por Comstock e Arnegard
(1992), aplicado em computadores, que consiste de quatro janelas separadas, cada uma com uma tarefa de diferente natureza: monitoramento, rastreamento, comunicação e alocação de recursos. Cada uma destas foi desenvolvida de forma análoga às atividades realizadas por profissionais de área de controle de tráfego aéreo. Estas tarefas podem variar em dois níveis, o automático e o manual.
73
Chaouachi et al. (2010) relatam que, para o TEI, existem dois principais
métodos que ajudam a interpretar esse índice: o método da inclinação e o método
absoluto. No primeiro, a inclinação da derivada de índices de engajamento
consecutivos (a cada 2 segundos) é computado, considerando o sinal negativo ou
positivo. No segundo, é estabelecido um limite de engajamento ao fazer a média de
valores do índice obtidos ao longo de um período de tempo prévio ao teste,
estabelecendo uma base; quaisquer valores excedendo esse limite são considerados
positivos, e valores abaixo são considerados negativos (FREEMAN et al., 1999).
No entanto, Zhang et al. (2013) apresentam algumas limitações e
desvantagens do TEI, dissertando sobre a dificuldade de sua aplicação em sistemas
críticos. Relatam que o TEI tem potencial para uso em automação adaptativa (AA),
porém, ao utilizar a lógica de estabilizar moderadamente o engajamento mental
durante todo o experimento, pode fazer com que o operador assuma o controle das
operações quando desengajado e abandone o controle quando estressado. Os
autores relatam que tal princípio não é adequado para tarefas da vida real, em
particular para sistemas críticos de segurança, porque a relação entre operador e
tarefa é mais complicada e varia dinamicamente. Nesses casos, a automação
adaptativa deveria permitir ao operador um período de descanso da contínua tomada
de decisão, mas não interrompê-lo desnecessariamente. Os autores também alegam
que o TEI parece medir a vigilância generalizada, e não o engajamento por si só.
4.3.3. Aplicações do NASA-TEI
Em relação às aplicações do TEI, foi verificado que este foi utilizado em
diversas pesquisas laboratoriais com atividades controladas relacionadas ao trabalho
humano, em especial ao cenário de automação adaptativa. Por exemplo, Atchley,
Chan e Gregersen (2014) relatam que o engajamento diminui conforme os níveis de
energia e motivação dos indivíduos decaem. Já PRINZEL et al. (2000) comparam,
utilizando o TEI, o desempenho e a carga de trabalho subjetiva entre indivíduos que
realizam uma tarefa única e uma atividade multitarefa. Utilizando o erro quadrático
médio (RMSE) como medida para avaliar a eficácia dos resultados, foi verificado que o
desempenho de uma atividade de única tarefa foi melhor do que o de multitarefa. O
NASA-TLX relatou que os participantes classificaram a atividade multitarefa como de
maior carga de trabalho mental. Sun et al. (2015) buscam desenvolver um sistema
efetivo de monitoramento da sonolência de um piloto através do EEG, analisando as
mudanças na atividade cerebral durante uma simulação de direção. Pesquisas
74
sugerem o uso do TEI para verificar a melhor aplicação, assim, de alternância entre
atividades manuais e automáticas durante momentos de trabalho.
Chaouachi et al. (2010), no entanto, comentam que o índice de engajamento foi
pouco utilizado em outros campos além do da cognição automatizada. Uma
possibilidade de uso é no campo da educação, com o intuito de encontrar formas de
aumentar o engajamento e a efetividade dos estudos. Neste quesito, os autores
dissertam sobre a questão do aprendizado, fundamentalmente relacionado às
emoções, propondo que sistemas de ensino devem adaptar sua comunicação e
habilidade de interação com alunos levando em conta as mudanças que ocorrem
nessa dimensão. No entanto, ao relatar a possibilidade do uso do TEI para a medição
dos aspectos cognitivos, comenta que poucas pesquisas foram realizadas utilizando o
indicador para avaliar o impacto que o componente emocional tem no engajamento
humano.
O experimento utilizado selecionou uma série de alunos instruídos a não
estarem engajados ou muito relaxados e devem responder 3 séries de 10 perguntas
de verdadeiro ou falso consecutivas. Os resultados sugerem que um nível de
engajamento maior é atingido quando o indivíduo está relaxado e não entediado. Os
participantes foram divididos em dois grupos: alunos cujos níveis médios de
engajamento eram menores que uma base neutra (medição anterior ao experimento,
ao observar uma tela branca durante algum tempo) durante o experimento, ou seja,
menos engajados com a tarefa, e alunos cujos níveis eram maiores. Os autores
comentam que, como parte dos resultados obtidos, o desempenho do segundo grupo
foi significativamente maior que do primeiro. Isto, em geral, foi baseado em algumas
tendências: uma série sucessiva de respostas erradas reduz o engajamento mental, e
após algumas respostas certas os participantes tendem a relaxar e diminuir o nível
também.
Por fim, os últimos resultados foram, além da correlação entre o engajamento e
o estado emocional dos participantes, a correlação entre o TEI e o nível de
desempenho dos aprendizes, conforme verificado pela Tabela 4. Quanto maior o
engajamento, menor a variabilidade e maior a eficácia do desempenho.
75
Tabela 4: Correlação entre engajamento e desempenho.
Fonte: Adaptado de Chaouachi et al. (2010).
Com o mesmo propósito de estudo do nível de engajamento de alunos, Ghali e
Frasson (2014) utilizaram diversas categorias de jogos cerebrais para verificar a
variação de alguns estados específicos do cérebro (engajamento, carga de trabalho e
distração), dependendo do tipo e dificuldade do jogo. Os resultados preliminares
mostraram uma relação próxima entre a categoria do jogo, a carga de trabalho mental
e o desempenho do participante. As três categorias de jogos desenvolvidas foram de
memória, concentração e raciocínio. Além disso, os autores também verificaram que,
quanto mais interessante é a natureza ou categoria da tarefa, mais engajados os
participantes estavam. Os estados de engajamento e carga de trabalho dependem
significativamente da categoria do jogo, diferente da distração.
Já Andujar e Gilbert (2013) abordam a questão do aprendizado em relação à
leitura. Ao partir da pergunta do aumento da retenção de informações ao incrementar
o engajamento na leitura, estes realizam experimentos baseados em uma interface
cérebro-máquina (BCI) passiva, na qual se estuda o estado do usuário enquanto este
desempenha uma determinada tarefa. Além da medição do TEI, foi proposta a coleta
de dados pela percepção do usuário e pelo algoritmo Emotiv, que também utiliza um
EEG e calcula frustração, meditação e excitação. A pesquisa, no entanto, não
apresentou resultados relevantes que contribuíssem para a área.
Por fim, Szafir e Mutlu (2012) propõem a criação de robôs adaptativos que
auxiliam na atividade de ensino. Conforme o modelo apresentado pela Figura 23, o
experimento realizado mede o TEI dos alunos a partir do EEG, e o robô utiliza de
técnicas para o aumento do engajamento quando percebe uma queda nos níveis
deste, como mudança de volume, gestuais e interjeições. Ao realizar no final
perguntas sobre a aula ministrada, foi percebido um melhor desempenho no grupo de
alunos cujo robô realizava procedimentos para aumentar a atenção do que o grupo
cujo robô apenas discursava.
76
Figura 23: Modelo do uso de robôs adaptativos na aprendizagem.
Fonte: Adaptado de Szafir e Mutlu. (2012).
Outra área de uso é a de publicidade e propaganda, chamada de
neuromarketing. Por exemplo, Young (2002) decorre sobre o uso do TEI para a
avaliação do impacto de comerciais de televisão diante dos consumidores. Ao utilizar o
EEG, foi possível avaliar quais os principais momentos, ou cenas, nos quais o nível de
engajamento do usuário era mais acentuado, e as cenas que deveriam ser alteradas
para que o produto divulgado chamasse a atenção do consumidor.
4.3.4. Implicações sobre o NASA-TEI
Diante da insuficiência de princípios de postos de trabalho aplicados ao
trabalho cognitivo, faz-se necessário utilizar outros elementos para ajudar a completar
as lacunas existentes. O TEI mostra-se como uma possibilidade viável, diante de sua
fácil utilização e portabilidade do instrumento.
De acordo com a definição proposta por Schaufeli et al. (2002), o engajamento
é a combinação de diversos fatores, como vigor, dedicação, atenção e vigilância. Os
últimos dois elementos estão presentes na natureza de diversos tipos de trabalho, é
necessário atenção para a execução correta de todos os passos da atividade, seja
física ou mental, e vigilância para impedir que ocorram não conformidades durante
77
esta mesma execução. A falta de atenção pode gerar retrabalho ou redução do tempo
de execução das tarefas, enquanto a falta de vigilância pode gerar aumento no
número de erros e equívocos cometidos. Por exemplo, durante o processo de
inspeção de controle de qualidade industrial, o nível de vigilância deve ser mantido
suficiente para que a identificação de condições anormais, como furos, ranhuras,
mudança na tonalidade, quebras, dimensões fora da especificação, entre outros,
possa ocorrer de forma a reduzir o número de produtos vendidos abaixo da qualidade
e permitir que a empresa cumpra programas que aumentem sua reputação, como o
seis sigma. Assim, a vigilância pode ser caracterizada como um aspecto da eficácia.
No mesmo ambiente fabril, a atenção pode ser um aspecto necessário em uma linha
de fabricação, na qual a montagem de diversas partes do produto envolve a
memorização de sua ordem e de qual matéria-prima é utilizada em qual momento.
Mesmo com a repetição e ganho de expertise pela curva de aprendizagem, a
mudança de foco da atividade para aspectos que distraiam o operador reduz o nível
de produtividade, afastando-se do tempo padrão indicado e da quantidade de material
necessário, aumentando, por exemplo, o custo do produto. Pode-se associar assim
com a eficiência.
Pode-se utilizar outro exemplo para ilustrar a importância do engajamento. Em
uma natureza de trabalho diferente, a de centros de comando e controle, a vigilância
está sempre presente, pela análise de displays em tempo real que ilustram as
condições de determinada situação e seu nível de criticidade. Neste caso, um exemplo
possível seria o de uma sala de comando do setor energético: monitorar
constantemente diversas telas que mostram, cada uma, um aspecto diferente da
distribuição, transmissão e geração de energia elétrica necessita de habilidades de
enxergar pequenas não conformidades através do uso de padrões de alta exigência.
Já para o atendimento a chamados telefônicos que ilustrem emergências, como no
caso de corpos de bombeiros, é exigido alto grau de atenção tanto para a captura das
informações necessárias quanto para a correta inserção destas no sistema. Junto a
isto, é também fundamental que o tempo de atendimento seja o mais rápido possível,
quanto a incidência de erros seja a menor possível.
O TEI mostra-se útil para o reprojeto de postos de trabalho em diversos
setores. É necessário analisar alguns aspectos referentes à sua natureza, para que
seja possível descrever como este pode ser aplicado futuramente. Neste âmbito,
primeiro faz-se necessário compreender a natureza do indicador, dada pelas as ondas
cerebrais. Como apresentado, o TEI é calculado a partir da razão entre as ondas beta
e a soma das ondas alfa e teta.
78
Para analisar a natureza do indicador diante de operações, é necessário
inicialmente compará-lo com um valor de referência. Este deve ser obtido antes da
coleta dos dados em um momento sem execução de nenhuma atividade, como olhar
para uma tela branca na posição sentada. Assim, comparando os valores com a
referência, é possível perceber se a atividade em geral estressa ou relaxa o operador.
Durante a análise de uma atividade, também se faz válido comparar os
diversos momentos com medidas estatísticas descritivas, como a média aritmética.
Dado que a média dos ciclos de uma atividade seja determinado valor, momentos
muito maiores (picos) ou muito menores (vales) devem ser inspecionados. Além disso,
comparar as médias entre diversas atividades de um processo de negócio pode inferir
quais as etapas mais demandantes cognitivamente e quais são mais relaxantes, o que
auxilia no balanceamento cognitivo das tarefas.
Por fim, faz-se aqui necessário desenvolver formalmente um método para a
análise cognitiva do trabalho utilizando o TEI. A relação das demandas de
desempenho operacional, como baixa eficiência ou aumento do índice de não
conformidade, é essencial para orientar quais atividades devem ser medidas, quais as
variáveis devem ser consideradas, e quais as possibilidades de balancear a carga de
trabalho mental dos trabalhadores das organizações. Deve-se assim elaborar um
protocolo que explicite o passo-a-passo das ações a serem realizadas, métodos de
medição, aparato tecnológico necessário, entre outras informações, para a aplicação
de uma análise neuroergonômica da tarefa.
79
5. MATERIAIS E MÉTODOS
Este capítulo possui o propósito de discutir acerca dos métodos e dos materiais
neuroergonômicos usados para o desenvolvimento do método proposto, utilizando o
TEI. Serão abordadas as possibilidades e a justificativa das escolhas realizadas.
5.1 Os instrumentos neuroergonômicos
De acordo com Parasuraman e Rizzo (2008), os métodos neuroergonômicos
são divididos em estudos de comportamento e desempenho, neuroimagem, medidas
oculomotoras e técnicas computacionais, cada qual com suas vantagens e
desvantagens.
Os principais métodos existentes até tal momento são os de neuroimagem,
influentes no desenvolvimento do campo da neurociência cognitiva. Há duas
categorias principais nas quais as ferramentas podem ser divididas. A primeira é o
grupo de medição da hemodinâmica cerebral, ou fluxo sanguíneo, que possui
integrantes como a Tomografia por Emissão de Pósitrons (PET – Positron Emission
Tomography), a imagem por Ressonância Magnética Funcional (fMRI – functional
Magnetic Resonance Imaging), e Ultrassonografia Transcraniana Doppler (TCDS –
Transcranial Doppler Sonography). Já o segundo grupo é caracterizado pela medição
da atividade eletromagnética cerebral, composto por ferramentas como o
Eletroencefalograma (EEG), que mede a atividade elétrica das células neuronais
localizadas na região da testa e couro cabeludo; Potenciais Relacionados a Eventos
(ERP – Event-Related Potentials), responsáveis por verificar as respostas do cérebro
diante eventos motores, cognitivos e sensoriais; e a Magnetoencefalografia (MEG),
que mede o fluxo magnético na superfície da cabeça humana.
Estas ferramentas possuem características relevantes para a análise
neuroergonômica. A Figura 24 apresenta três principais características: resolução
temporal (intervalo de tempo entre geração de um dado e outro) no eixo x, resolução
espacial (qualidade da imagem produzida) no eixo y, e a invasibilidade destes através
da escala de cores, de acordo com a legenda presente na própria figura.
80
Figura 24: Caracterização de técnicas de mapeamento cerebral para aplicações ergonômicas.
Fonte: Parasuraman (2011, p.182)
Analisando o gráfico, é possível perceber que PET, MEG e fMRI são
consideradas atualmente as melhores técnicas não-invasivas para avaliação e
localização de atividade neural, por sua boa resolução espacial. No entanto, são
técnicas que envolvem grande quantidade de recursos financeiros e operacionais. Já
técnicas mais práticas, como o EEG, ERP e TCDS são mais práticas por sua
portabilidade e tamanho, no entanto produzem resultados de qualidade inferior.
Não há uma técnica atualmente que seja a melhor possível, representada pelo
ponto ideal da Erro! Fonte de referência não encontrada.. É necessário saber, além
de quais resultados desejam ser alcançados, qual o capital possível a ser gasto nos
experimentos, a resolução dos dados necessária para a análise, entre outros fatos.
Uma terceira dimensão, não apresentada pelo gráfico, seria a portabilidade dos
aparelhos, que varia devido a seu tamanho pode permitir ou não que sejam realizados
experimentos fora do laboratório, em condições não controladas. Esta é uma das
deficiências que dificulta a realização de testes em ambientes reais, para a análise do
trabalho real.
81
Outra classificação que se utiliza de equipamentos são as técnicas
oculomotoras, responsáveis pela movimentação dos olhos e de suas fixações. Em
geral atuam como ferramentas adicionais, como eye tracking 8 . São comumente
sistemas caracterizados por sua alta velocidade, podendo até serem portáteis ou não.
Os avanços existentes nestas pesquisas serão detalhados em capítulos posteriores.
Por ora, faz-se necessário compreender melhor o funcionamento dos métodos
utilizados pela neuroergonomia. Para os propósitos deste estudo, optou-se por
descrever detalhadamente o uso e os estudos recentes do EEG e do eye tracking, por
critérios necessários à aplicação em pesquisa de campo: portabilidade, alta
disponibilidade, baixo custo e facilidade de uso. Outros equipamentos, como o TCDS,
serão apresentados em tópicos relacionados às pesquisas recentes realizadas.
5.1.1. O Eletroencefalograma (EEG)
O eletroencefalograma (EEG) é uma das principais ferramentas
neuroergonômicas de pesquisa e prática existentes. Em geral, é utilizado no couro
cabeludo dos seres humanos, para captação das ondas cerebrais. De acordo com
Gevins e Smith (2006), o EEG é extensivamente documentado como um índice
sensível de mudanças na atividade neuronal devido às variações na quantidade ou
tipo de atividade mental que um indivíduo se engaja, ou em mudanças no estado geral
de alerta ou excitação. O EEG grava uma diferença variante no tempo da voltagem
entre um eletrodo localizado no couro cabeludo e um eletrodo de referência inserido
em algum outro lugar no corpo humano. No cérebro sadio e acordado, por exemplo, a
amplitude pico-a-pico do sinal registrado é usualmente abaixo de 100 microvolts, e a
maior parte do poder do sinal provêm de oscilações rítmicas abaixo de uma frequência
de 30 Hz.
O EEG separa o sinal elétrico em diversas ondas cerebrais, sendo as principais
gama, beta, alfa, teta e delta, cujas curvas estão presentes na Figura 25. A Tabela 5
resume as principais características destas ondas diante de seus níveis alto, baixo e
ótimo. Demos (2005) relata que enquanto a onda beta está diretamente relacionada
com o nível de excitação do indivíduo, as ondas alfa e teta estão inversamente
8 O eye tracking é um aparato tecnológico com o objetivo de estudar os movimentos oculares,
possibilitando sua gravação e rastreamento, em relação a determinado ambiente (RODAS; VIDOTTI, 2016). Possui o propósito de apresentar padrões de escaneamento visual dos indivíduos, podendo auxiliar assim a elaborar novos designs em diversos meios, como painéis de controle, propagandas publicitárias, filmes, entre outros.
82
relacionadas: quanto mais altas, mais relaxado este se encontra. Percebe-se aqui que
não se deve tentar almejar níveis nem tão elevados nem tão baixos de tais ondas, mas
sim o nível ótimo, que alavanca as habilidades do ser humano diante das tarefas das
quais este se encontra.
Figura 25: Comparação gráfica entre as ondas cerebrais do EEG.
Fonte: Adaptado de Nacy et al. (2016).
Tabela 5: Características das principais ondas cerebrais.
Fonte: Adaptado de Demos (2005).
83
Neste âmbito, o EEG possui vantagens relativas às outras técnicas de
neuroimagem funcional, pelo fato de ser um método de monitoramento contínuo do
funcionamento do cérebro. O aparelho pode atuar tanto por longos períodos de tempo
quanto em ambientes não laboratoriais, como leitos de hospital. É o método mais
escolhido para tarefas de monitoramento clínico.
Entre as principais vantagens do EEG, pode-se citar que é robusto para
conseguir medir em tarefas cujas condições sejam relativamente desestruturadas,
sensível o suficiente para variar entre dimensões de interesse, inobstrusivo para não
afetar o desempenho do trabalhador, e não tão caro, em relação aos outros
instrumentos neuroergonômicos, para que se possam realizar experimentos fora de
laboratórios. Também possui resolução temporal adequada para permitir capturar as
mudanças no status mental com o decorrer das mudanças do comportamento, e
preferencialmente é compacto o suficiente para permitir sua portabilidade.
A principal desvantagem no uso do EEG é a presença dos artefatos: além das
ondas cerebrais, há a contaminação nos coletados dados pelo aparelho por causa de
fatores externos ao cérebro, que podem ser instrumentais ou fisiológicos. Entre estes,
a movimentação dos olhos, piscadas, atividade muscular, movimentos de cabeça e
outras fontes instrumentais e fisiológicas. Uma técnica utilizada para a eliminação
destes ruídos possível baseia-se na revisão dos dados primários, identificação das
fontes dos artefatos e eliminação de qualquer contaminação nos segmentos do EEG,
com o intuito de que os dados usados na análise representam a atividade cerebral
real. Para grandes quantidades de dados, esta é uma atividade custosa e intensiva em
trabalho, que é ao mesmo tempo subjetiva e variável. Para ser prático em contextos
aplicados à rotina, estas decisões devem ser feitas utilizando algoritmos. Gevins e
Smith (2006) comprova que algoritmos automatizados de decisão podem obter
resultados tão bons quanto o consenso de humanos experientes.
Um último fator que deve ser levado em conta é a singularidade dos indivíduos
relacionados ao experimento. Os padrões de mudanças obtidos pelo EEG ao se
realizar um experimento, relativos às tarefas realizadas, variam em conjunto com
diferenças individuais, tanto por suas habilidades quanto por sua cognição.
Em geral, grande parte dos estudos realizados nesta temática comparam os
resultados obtidos pelo EEG com as mudanças na carga mental de trabalho e
alocação de esforços mentais. Uma abordagem existente foi de como o
comportamento dos sinais capturados pelo EEG muda em resposta às variações da
demanda da memória de trabalho (WM - Working Memory). A WM pode ser
84
conceituada como uma resposta à habilidade de controlar a atenção e sustentar o foco
em uma representação mental ativa particular em resposta a influências que distraiam
o usuário, de forma a armazenar temporariamente informações. É também chamada
de memória de curto prazo. (GEVINS; SMITH, 2006). A WM possui um papel
importante nas atividades de compreensão, explicação, planejamento e aprendizado,
ou seja, em boa parte das atividades relacionadas ao trabalho cognitivo.
Assim, pode-se dizer que os componentes espectrais do EEG variam em um
padrão previsível em resposta às variações da demanda cognitiva da tarefa. Esta
condição, na qual há uma correlação entre ambos os fatores, é essencial para o
desenvolvimento de métodos baseados em EEG para monitorar carga de trabalho
cognitiva. Por exemplo, podem-se utilizar comparações entre o comportamento das
ondas, como alfa ou beta, e algum indicador de desempenho, como número de erros
em algum teste.
O objetivo de se utilizar um EEG em experimentos é buscar a melhor
compreensão do impacto neurobiológico das condições da tarefa que impõem carga
de trabalho excessiva ou que resultam em fadiga mental (GEVINS; SMITH, 2006).
Tarefas que apresentem estas condições em geral levam os indivíduos a erros de
performance que podem ser de baixa gravidade e até fatais, mesmo em indivíduos
alertas trabalhando em condições normais de rotina.
85
6. A APLICAÇÃO DO NASA-TEI PARA PROJETO DE POSTOS DE TRABALHO: O
MÉTODO PROPOSTO
Após o levantamento do estado da arte de análises do trabalho e de
neuroergonomia, e a pouca aplicação de métodos neuroergonômicos para estudo da
atividade real, faz-se aqui necessário o desenvolvimento de um protocolo experimental
para prescrever melhorias para as tarefas humanas de natureza cognitiva. Com a
escolha do EEG como principal instrumento e do TEI como forma principal indicador, e
com a ampla variedade de ferramentas de Engenharia de Produção, é possível utilizá-
los baseado na abordagem MIASP - Métodos de Identificação, Análise e Solução de
Problemas, também chamado por Barnes (1977) como processo geral de solução de
problemas.
MIASP são abordagens provenientes do campo gerencial, com o intuito de
obter melhorias em um sistema para gerar resultados cada vez melhores. Foram
popularizados durante a era da Qualidade durante a década de 1980, através de
filosofias gerenciais como o Controle Total da Qualidade (TQC) e a Gestão Total da
Qualidade (TQM). Os autores desta época utilizavam a denominação MASP para
classificar os primeiros métodos genéricos de resolução dos problemas ocorrentes,
como o ciclo PDCA – Plan, Do, Check, Act (Planejar, Fazer, Checar e Agir). Em
seguida, ocorreu o surgimento dos MIASP, pelo entendimento da necessidade
fundamental de se identificar os problemas corretamente e suas causas-raiz, ou seja,
o motivo pelos quais estes problemas ocorrem (CORRÊA; CORRÊA, 2012).
Estes métodos são utilizados em larga escala por suas diversas características
e seu fácil uso e aprendizado. Eles promovem resultados de forma mais rápida,
facilitam a dimensão coletiva e a interação entre diversas disciplinas diferentes,
auxiliam a aprendizagem organizacional, melhora o uso dos diversos recursos
envolvidos, entre outras vantagens. Em geral, os problemas podem ser identificados
de diversas formas: como resultados indesejados, situações desfavoráveis cujo
controle é dificultado, resultados diferentes do desejado, entre outros (DUARTE, 2007;
PAULISTA; GALDINO, 2014).
Assim, o método, que visa a analisar de forma neuroergonômica o trabalho, é
estruturado em cinco etapas, conforme Figura 26.
86
Figura 26: Modelo do método proposto.
Fonte: Elaboração própria.
O método proposto é baseado em etapas do MIASP: identificar o objeto de
estudo, identificar os pontos críticos, analisar os pontos críticos, prescrever
alternativas de solução e gerir a mudança necessária. Ressalta-se que, após
completar a etapa 5, caso existam mais pontos críticos a serem analisados que não
foram priorizados anteriormente, deve-se retornar à etapa 3; caso contrário, o
processo deve ser repetido, configurando-se assim como uma atividade de melhoria
contínua. No entanto, antes do detalhamento de cada uma das etapas do método, é
necessário explicar o aparato experimental a ser utilizado, bem como algumas
recomendações necessárias tanto aos pesquisadores quanto aos voluntários dos
experimentos.
6.1 Aparato Experimental e Recomendações
Para a execução do método, o aparato experimental utilizado deverá ser
composto pelos seguintes itens: um eletroencefalograma portátil, com um ou mais
eletrodos acoplados (pode ser modelo de touca ou de headset, no caso estudado será
retratado o modelo headset); um tablet com aplicativo para capturar os dados
87
advindos do EEG e realizar filtros (um exemplo possível é da marca Neurosky,
utilizada neste estudo); um aplicativo de nuvem para gravação dos dados, conectado
ao aplicativo (ex: Dropbox); uma câmera de vídeo para filmagem das repetições do
operador; um computador para plotagem dos gráficos e comparação com as
gravações de vídeo; caso necessário, também pode ser utilizado um eye tracking para
captura dos movimentos oculomotores. Recomenda-se possuir ferramentas
estatísticas para realizar análises necessárias, como regressões lineares e cálculo de
correlações.
Sobre as recomendações para o experimento, é necessário instruir os
voluntários a evitarem realizar quaisquer movimentos desnecessários, já que passam
a virar artefatos que corrompem os dados do EEG. Caso a operação envolva
movimentos físicos, estes deverão ser retirados posteriormente utilizando algoritmos.
Também é necessário recomendar que permaneçam relaxados, já que o aparelho não
emite choques elétricos nem causa outros tipos de incômodo. Um fator importante é
uma conversa inicial antes do experimento, tanto para esclarecer dúvidas relacionadas
ao processo quanto para tranquilizá-los e estes se sentirem familiarizados com a
presença dos pesquisadores, já que pressão e observação de pessoas externas
podem alterar o ritmo e desempenho do trabalho. Além disso, a coleta de dados não
deve ser realizada em situações de risco ou anormalidades, evitando transtornos para
a organização.
Também é recomendado, para a execução do método, que a captura e uso dos
dados seja dado apenas em condições estáveis. Entre estas, evitar voluntários em
estado de humor ou saúde inapropriado, com características físicas e sociais distantes
do comum da população do trabalho, ou que constantemente realizem atividades fora
do procedimento padrão (exemplo: conversar com colegas). Sobre a captura de
dados, recomenda-se não utilizar repetições com características anormais (tempo de
execução fora dos limites superior ou inferior estatístico, produtos com defeitos de
qualidade, etc.). Por fim, ao início do experimento, faz-se necessário capturar um valor
base para o indicador, ao pedir que o operador fixe sua atenção em uma tela branca e
relaxe por aproximadamente um a dois minutos, e calcular a média do TEI neste
intervalo de tempo.
88
6.2 Representação do experimento
Após a aquisição do aparato instrumental e as devidas recomendações feitas
aos voluntários, a coleta de dados pode ser realizada. A Figura 27 apresenta um
resumo esquemático do processo de coleta.
Figura 27: Representação do experimento.
Fonte: Elaboração própria.
A etapa inicial de preparação exige a colocação de uma câmera de vídeo em
local fixo para a filmagem completa do operador realizando seu trabalho e todos os
aspectos relevantes a este. O EEG deve ser colocado antes da execução do trabalho
na cabeça do voluntário. No modelo headset, base para execução deste estudo, é
necessário que seja colocada uma presilha de fio-terra na parte inferior da orelha
direita do indivíduo, que seja passado um gel condutor no meio da fronte deste (cerca
de dois a três centímetros acima da altura dos olhos) e encaixado o eletrodo. O EEG
89
deve ser ajustado de forma a não incomodar nem atrapalhar a execução da tarefa.
Após o uso, o gel deverá ser enxaguado.
Durante a realização da tarefa, as ondas cerebrais serão capturadas pelo EEG,
que as envia para o tablet, via Bluetooth ou Wi-Fi. Lá, estas são decompostas nos
espectros por filtros para tornarem-se ondas alfa, beta e teta, entre outras possíveis.
Estas, presentes no domínio da frequência, são convertidas para o domínio do tempo
utilizando uma Transformada Rápida de Fourier 9, para facilitar a leitura e análise
posterior. Os dados são enviados para a nuvem pelo aplicativo (no exemplo estudado,
o Dropbox) para poderem ser acessados de qualquer sistema.
Antes da análise dos dados, é necessário retirar os artefatos presentes neles,
isto é, dados desnecessários capturados pelo EEG que distorcem as ondas cerebrais.
Para isto, recomenda-se o uso de algoritmos ou softwares que passam diversos filtros
nos dados a fim de limpá-los. Por exemplo, Amabile (2008) sugere o uso do método
da análise espectral singular local (Local SSA10), no qual os dados são decompostos
analogamente às séries temporais em tendência, oscilação e ruído, e assume-se que
os artefatos são as componentes tendência e ruído. Após a aplicação do Local SSA, o
autor recomenda a aplicação do método do desvio padrão, que seleciona um sinal de
referência para selecionar o limiar que determina quais segmentos do sinal coletado
será considerado artefato ou não, baseado no cálculo do desvio padrão de um trecho
considerado sem artefatos.
Os dados filtrados aparecem como valores adimensionais separados por
ondas. O cálculo do TEI deve ser feito manualmente como de acordo com a Equação
2, a razão entre o poder da onda beta e a soma dos poderes das ondas alfa e teta. Em
seguida, para suavização dos dados, pode-se calcular a entropia de Shannon, uma
técnica aplicada na teoria da informação que mede o nível de dispersão dos dados, no
entanto não retira o fator do comportamento temporal dos dados. Para o EEG, esta
medida descreve estatisticamente a variabilidade contida no sinal deste. A Equação 3
apresenta a fórmula geral, e a Equação 4, a forma utilizada neste contexto
(KANNATHAL, 2005).
9 A Transformada de Fourier (FT) é uma ferramenta matemática que faz a transição dos sinais
entre o domínio do tempo e da frequência. Pode ser discreta ou contínua. A Transformada Rápida de Fourier (FFT) é uma versão mais eficiente desta técnica que transforma uma FT discreta longa em várias FTs discretas menores. Como o número de operações para o cálculo de uma FT discreta de N pontos é N
2, a quebra torna o cálculo mais otimizado (GONÇALVES,
2004).
10 Para uma explicação mais detalhada de ambos os métodos, conferir Amabile (2008).
90
𝐻 = − ∑ 𝑝𝑘𝑙𝑜𝑔𝑝𝑘
𝑛𝐾=1 (Eq. 3)
𝐻(𝑥) = 𝑙𝑜𝑔2𝑥 (Eq. 4)
Os valores tratados do TEI, por fim, devem ser plotados em gráficos utilizando
algum software estatístico, para a conjunta análise com as gravações realizadas.
6.3 Descrição do Método
Para melhor compreensão do método e de suas etapas, este subcapítulo
destina-se a explicar a composição e ferramentas utilizadas neste. Com o objetivo de
analisar o trabalho que ocorre em estado real a partir das bases neuroergonômicas
definidas previamente, é necessário que sejam estabelecidos os métodos para a
coleta e análise dos dados necessários para o protocolo proposto. Estes utilizam
abordagem de métodos de trabalho, originária da Engenharia de Produção, com o
desenho de experimentos laboratoriais.
6.3.1. Primeira etapa: definir o objeto de estudo
A primeira etapa consiste na definição de qual será o objeto de estudo, ou seja,
a organização, o processo, o posto de trabalho e a atividade pertencente a este, com o
intuito de aumentar o valor oferecido pela organização como um todo. Para tal, antes
da definição desta atividade, faz-se importante compreender a natureza da
organização escolhida, utilizando assim a etapa de identificação do contexto.
6.3.1.1. A identificação do contexto
Antes da coleta dos dados fisiológicos utilizando o equipamento principal
escolhido, o EEG, é necessária a identificação e caracterização do ambiente
selecionado, com o intuito de enxergar quais as principais demandas e variáveis
relacionadas a ele. Para tal, propõe-se um plano de perguntas baseado em Meirelles e
Salles (2007), à base do check-list, que ressalta diversas características voltadas à
Engenharia de Produção que podem ou não ser relevantes ao objeto de estudo.
Os dados a serem coletados podem ser agrupados em categorias. A primeira,
de identificação, abrange o nome, endereço, contato da organização, número de
turnos, número de funcionários total e por turno, horários de maior ou menor serviço e
91
organograma funcional. A segunda envolve a caracterização da unidade produtiva:
histórico, principais mudanças, estratégia (missão, visão, valores e plano estratégico),
serviços oferecidos, sistemas de gestão e de informação utilizados, terceirização,
política de contratação e demissão, treinamentos e eventos. A terceira envolve as
políticas: determinar quais as políticas de investimento, de capacidade máxima de
produção (ou atendimento), e seu posicionamento em relação à concorrência.
A quarta categoria envolve determinar qual o processo que será estudado,
através da Classificação ABC. Pereira (1999) disserta que esta classificação é uma
ferramenta gerencial que permite identificar os itens, ou produtos, que possuem maior
necessidade de atenção do que outros. Ao elencar todos os itens e atribuir sua
importância a partir de alguma variável (receita, lucro, quantidade, etc.), será possível
dividir estes em classes, tendo a classe A poucos itens que representam grande parte
do valor do contexto (em geral 20% dos itens representam 80% do valor, daí a regra
80/20 de Pareto), a classe B com quantidade moderada de itens e valor agregado
médio, e a classe C muitos itens que agregam pouco valor. Assim, de acordo com a
natureza da organização estudada, deve-se escolher qual o principal processo a ser
analisado através do seu grau de importância para esta.
Por fim, a quinta e última categoria visa detalhar o processo escolhido na etapa
anterior. Para tal, são propostos elaboração de fluxogramas e mapofluxogramas,
classificação das atividades quanto aos critérios espacial (produto, funcional,
posicional ou em grupo), de tempo (job-shop ou flow-shop 11 ) e de trabalho
(especializado ou polivalente), e avaliação ergonômica - temperatura, ruídos,
iluminação, adequação a fatores antropométricos, acidentes e doenças, motivação,
fadiga, monotonia, entre outros.
Ao final desta categoria, deve-se ter um diagnóstico inicial das demandas
existentes e das variáveis principais a serem analisadas. Entre as demandas, pode-se
englobar diversas naturezas: altos níveis de rotatividade e absenteísmo, alto índice de
doenças ocupacionais, desbalanceamento da linha de produção (surge daí a
identificação do gargalo, isto é, a atividade com menor capacidade de produção por
unidade de tempo), reclamações de falta de qualidade, retrabalho, alto nível de
estresse, resultados financeiros abaixo da meta, entre outros. Junto a estas
11
A atividade job-shop é caracterizada pela produção puxada, isto é, o processo apenas começa a atuar quando há uma demanda do cliente, seja interno ou externo, para que o produto ou serviço seja realizado. Já flow-shop (produção empurrada) realiza as atividades de forma direta e contínua, sem a necessidade do pedido pelo cliente (CORRÊA; CORRÊA, 2012).
92
demandas, deve-se identificar quais as variáveis que são prioritárias para o processo
escolhido, em analogia aos Indicadores Chave de Desempenho (KPI - Key
Performance Indicator): tempo de duração da atividade, índice de não-conformidade,
custo médio do produto, entre outros possíveis. Ao fim, devem ser identificados os
elementos externos que influenciam na execução da tarefa: ritmo de sono, arranjo
físico do posto e do setor, interface do sistema de computador utilizado, facilidade na
captura de informações, equipamentos auxiliares (telefone, maquinários,
equipamentos de proteção individual, etc.) e outras informações relevantes.
6.3.1.2. Definição da atividade
Após a caracterização e escolha do processo, a próxima etapa busca definir
qual será a atividade a ser analisada. Esta deve ser uma atividade chave para a
organização, de preferência presente em um processo finalístico, ou seja, um dos
principais e que gere valor para todos os agentes envolvidos.
A definição da atividade ou do conjunto de atividades a ser estudado depende
do contexto de cada uma das organizações, das demandas apresentadas ao longo da
etapa de caracterização, e das variáveis envolvidas nos processos. Em geral, além de
atividades que impactem diretamente no produto ou serviço final oferecido, e da
grande importância para a organização, apresentam demandas como alto nível de
estresse, grande quantidade de retrabalho ou tempo demasiadamente longo de
duração. Pela grande quantidade de naturezas contrastantes, optou-se por tornar esta
definição flexível. No entanto, utilizando os conceitos de Engenharia de Produção e
neuroergonomia, três abordagens são recomendadas. Ressalta-se que é possível
utilizá-las em conjunto, para verificar a convergência dos resultados.
6.3.1.2.1. Uso dos indicadores de desempenho
Esta abordagem é tradicional à avaliação de desempenho dos trabalhadores.
Consiste na escolha de um KPI diretamente relacionado com a estratégia da
organização, e em seguida na seleção da atividade com o pior rendimento dentre as
presentes no processo definido na etapa anterior. Por exemplo, para uma atividade
industrial de linha de montagem cujo foco é dado na liderança em menor custo, pode-
se escolher indicadores como produtividade. Já para atividades críticas que exijam
velocidade na execução, como atendimentos a emergências, indicadores como tempo
93
de duração da atividade e índice de não conformidade do atendimento mostram-se
fundamentais para a escolha da tarefa.
A Tabela 6 apresenta um exemplo de KPIs que podem ser utilizados, de
acordo com as necessidades da organização. Podem ser indicadores financeiros, de
eficiência, eficácia, qualidade, produtividade e efetividade. O próprio TEI é um
indicador neuroergonômico que pode ser adotado como KPI neste caso, cujo uso será
melhor apresentado no subitem 6.3.1.2.3. Recomenda-se adotar poucos KPIs para a
análise, de preferência um principal e outros auxiliares.
Tabela 6: Exemplos de indicadores.
Fonte: Adaptado de Costa e Jardim (2010).
Além disto, também se recomenda a escolha dos principais KPIs pela
necessidade, nas outras etapas, de verificar o desempenho da atividade e suas
mudanças após a implantação das alternativas de solução.
6.3.1.2.2. Uso do NASA-TLX
Para o método proposto, uma outra possibilidade é o uso do questionário do
NASA-TLX, apresentado no capítulo 4 pelos estudos de Hart e Steveland (1988). A
ferramenta deverá ser aplicada a todas as atividades principais do processo escolhido,
e aquela com a maior nota final, representando a maior carga mental de trabalho, será
a indicada para a aplicação do método. Recomenda-se a aplicação do questionário
com todos os funcionários envolvidos nestas atividades.
94
6.3.1.2.3. Escolha pelo uso do NASA-TEI
Uma terceira alternativa é o uso do TEI para encontrar as atividades com maior
ou menor nível de engajamento do operador no trabalho. Para tal, alguns
procedimentos para a coleta dos dados deverão ser feitos.
Deve-se realizar uma amostragem inicial dos trabalhadores para cada tarefa,
escolhendo "m" operadores que realizam "n" repetições cada, gerando um total de m x
n observações para cada atividade candidata do processo escolhido. Esta escolha do
tamanho da amostra, que pode ser realizada empiricamente, depende da natureza da
tarefa, do tempo de duração de cada repetição, do número total de funcionários que
realizem esta tarefa, e do número de atividades diferentes a serem medidas. Deve-se
ter em mente a viabilidade econômica desta etapa: para que não acarrete grandes
custos nem alocação de grande quantidade de tempo, a escolha da quantidade de
voluntários e de repetições deve utilizar apenas um curto espaço do tempo do método
como um todo, de preferência com coleta de todos os dados no mesmo dia. Sugere-se
um número entre 10 e 20 observações por cada atividade. Por exemplo, para
atividades com grande quantidade de funcionários (mais que vinte), uma possibilidade
é escolher quatro funcionários e realizar de três a cinco repetições com cada. Já para
processos com grande quantidade de atividades candidatas, limitar de cinco a dez
medições seria uma alternativa plausível, como em uma linha de montagem.
Para cada uma das m x n observações, deve ser calculado o valor médio do
TEI (𝑇𝐸𝐼̅̅ ̅̅ ̅ ), de acordo com a Equação 5. Em seguida, deve-se calcular 𝑇𝐸𝐼̿̿ ̿̿ ̿ , para
encontrar a média da atividade, de acordo com a Equação 6.
𝑇𝐸𝐼̅̅ ̅̅ ̅ = (1𝑚. 𝑛⁄ ) × ∑ 𝑇𝐸𝐼𝑚.𝑛
𝑖=1 (Eq. 5)
𝑇𝐸𝐼̅̅ ̅̅ ̅̅̅ ̅̅ ̅ = (1𝑚. 𝑛⁄ ) × ∑ 𝑇𝐸𝐼̅̅ ̅̅ ̅𝑚.𝑛
𝑖=1 (Eq. 6)
Após a coleta dos dados, pode-se utilizar um gráfico de barras para
identificação do maior e do menor TEI. Um critério para escolha é selecionar a tarefa
cujo valor do 𝑇𝐸𝐼̿̿ ̿̿ ̿ mais se distancie do valor de 𝑇𝐸𝐼̅̅ ̅̅ ̅̿̿ ̿̿ ̿ ou seja, da média entre os valores
de 𝑇𝐸𝐼̿̿ ̿̿ ̿. Este critério é baseado na necessidade de balanceamento do engajamento
entre tarefas, isto é, tentar equilibrar o nível de engajamento entre todas as atividades
do processo de forma a torná-lo mais estável a novas demandas. Pode-se utilizar
outros aspectos para a escolha da atividade, como a existência de demandas relativas
a cada uma destas. Conforme ressaltado no início do primeiro passo, pode-se utilizar
mais de uma ferramenta combinadas para escolha das atividades a serem analisadas.
95
6.3.2. Segunda etapa: identificar pontos críticos
Com a escolha da atividade a ser analisada, a segunda etapa consiste na
identificação dos pontos críticos desta para elaboração de um diagnóstico inicial. O
objetivo desta fase é balancear a carga mental e o nível de engajamento dentro da
própria atividade ao reduzir esta variabilidade, evitando que ocorra sobrecarga do
trabalhador, alto nível de estresse e excitação, sonolência ou baixa produtividade.
A identificação dos pontos críticos consiste na realização dos experimentos,
descrita na seção 6.1.1, no entanto algumas etapas iniciais de preparação do
experimento são necessárias, entre elas a elaboração do protocolo de coleta e
entrevistas individuais. Após este, a análise inicial dos dados obtidos.
6.3.2.1. O protocolo de coleta
O protocolo deve ser um registro formal, elaborado pelos pesquisadores e
entregue ao ponto focal da organização (representante que auxiliará na pesquisa),
constando com as principais informações relativas à coleta. Deve-se obter uma lista
completa de todos os funcionários que realizam determinada tarefa, com suas
principais características sociais (idade e gênero, por exemplo) e relativas à
organização (horário de trabalho, tempo de experiência na atividade). Caso qualquer
outra característica seja relevante, esta deverá ser também registrada, como se o
funcionário é matutino ou vespertino (baseado em seu ciclo circadiano).
O protocolo deverá conter a relação de todos os indivíduos que participarão do
experimento, obtido através de técnica de amostragem, os dias e horários de
realização da coleta, os instrumentos a serem utilizados, e uma declaração formal
sobre direito de imagem e áudio, assegurando que os dados e gravações apenas
serão utilizadas para fins da pesquisa e não serão divulgados externamente.
Faz-se importante comentar sobre os horários de coleta. Em geral, recomenda-
se que as medições sejam realizadas no início, meio e final dos turnos de trabalho,
para verificar se há diferenças nos valores encontrados entre estes. Caso exista mais
de um turno, as observações devem ser distribuídas ao longo destes turnos. Para a
situação de trabalho noturno, a coleta de dados deste deve ser previamente
combinada com a organização, para evitar riscos de segurança aos pesquisadores.
96
6.3.2.1.1. A amostragem
A amostragem é um procedimento estatístico utilizado para escolha de um
grupo de indivíduos dentro de uma população para representar as principais
características deste (STOCK; WATSON, 2012). Como há diferenças individuais entre
cada voluntário, esta técnica auxilia na convergência de informações generalizadas,
tornando o procedimento viável economicamente por não necessitar realizar
experimentos com toda a população referente à atividade.
Pelo fato da população a ser analisada, os trabalhadores de certa atividade de
trabalho, ser finita e pequena, pode-se utilizar então a fórmula de Cochran (2007) para
o cálculo do número de participantes, apresentada pela Equação 7. Para a notação
apresentada, N é o tamanho da população, z é o parâmetro da tabela normal
relacionado com o intervalo de confiança, e é determinado pela precisão esperada, p é
a variabilidade esperada pela população para o atributo e q = (1 – p).
𝑛 = 𝑛0
1+ (𝑛0−1)
𝑁
, 𝑜𝑛𝑑𝑒 𝑛0 = 𝑧2𝑝𝑞
𝑒2 (Eq. 7)
Em geral, recomenda-se utilizar intervalos de confiança de 95% (𝛼 = 5% ),
precisão de 5%, e máxima variabilidade (p = q = 50%). Neste caso, 𝑛0 = 384. Por
exemplo, para uma população com 92 trabalhadores, o tamanho esperado da amostra
seria então de 74 trabalhadores. No entanto, pela viabilidade econômica de realizar
cada experimento, pode haver a necessidade de serem obtidas amostras menores
com resultados pouco menos confiáveis. Assim, assumindo 𝛼 = 10% (z = 1,65),
precisão de 10% e admitindo variabilidade de 20% (o que pode ser justificado pelo
perfil de trabalhador, treinamentos realizados e tempo de experiência), para esta
mesma população a amostra necessária deve ser de 30 indivíduos.
Para cada um dos "n" participantes, recomenda-se que sejam feitas um
número de "x" repetições, este dependendo da natureza da tarefa. Sugere-se
inicialmente uma quantidade de cinco a dez repetições, para obter um valor médio
para cada indivíduo.
6.3.2.1.2. O quadro de observações
O quadro de observações é uma tabela para registro geral das informações
relevantes para cada experimento realizado. Deve conter os principais dados para
cada uma das observações: número da observação, voluntário, gênero, idade, turno,
97
data, horário do início da observação, e comentários adicionais. Este quadro deve ser
preenchido ao decorrer dos experimentos, de forma manual ou eletrônica, para
acompanhamento e análises posteriores. Outras informações necessárias podem ser
utilizadas, como tipo da máquina utilizada ou outra ferramenta, posição em relação ao
arranjo físico, entre outras variáveis relevantes levantadas na primeira etapa do
método. Um exemplo de quadro de observações consta na Figura 28.
Figura 28: Exemplo de quadro de observações.
Fonte: Elaboração própria.
No entanto, para a elaboração do quadro, as observações e características
devem expressar as diversas combinações diferentes entre variáveis. Por exemplo,
distribuir entre os diversos momentos do turno de trabalho, gêneros, faixas etárias,
entre outros.
6.3.2.2. A curva-TEI
Com os experimentos realizados, cada observação gerou uma curva-TEI.
Assim, é necessário obter uma curva média, ou uma curva-𝑇𝐸𝐼̅̅ ̅̅ ̅, com a qual poderá ser
analisado seu comportamento e comparado com as filmagens e observações diretas
realizadas.
No entanto, um ponto a ser ressaltado é a diferença de tempo de atividade
entre cada uma das observações. Por exemplo, para uma atividade cujo tempo normal
foi definido como dois minutos, há flutuações estatísticas que fazem com que uma
observação possa ser realizada em 1min50seg, e outra em 2min10seg. Para tal ponto,
faz-se importante normalizar as curvas.
Uma ferramenta que pode ser utilizada neste quesito é o gráfico de operações,
que divide a atividade em diversas etapas. O método comum utiliza os movimentos
98
fundamentais das mãos, também chamados de therbligs, no entanto este pode ser
adaptado para o uso neste contexto: recomenda-se então dividir a atividade em etapas
elementares e, com o auxílio das filmagens, dividir os dados obtidos nestas etapas. Ao
final, pode-se normalizar o tempo de cada uma dessas etapas e, proporcionalmente,
os dados envolvidos em cada uma destas. Com os dados normalizados no mesmo
intervalo de tempo, faz-se por fim possível obter a curva-𝑇𝐸𝐼̅̅ ̅̅ ̅, calculada como a média
do total de observações realizadas.
6.3.2.3. A identificação dos pontos críticos na curva-TEI
Esta etapa possui o propósito de encontrar pontos críticos diante da curva-TEI.
Ao encontrar a curva média, esta deverá ser plotada em um gráfico de linhas, com a
correta separação de cada uma das etapas fundamentais levantadas anteriormente, e
comparada com as filmagens realizadas ao longo dos experimentos.
A Figura 29 apresenta um exemplo de curva. Foram incluídos o valor do
baseline, com o intuito de comparar se o engajamento durante a ação é maior ou
menor do que em momento de repouso, e o valor da tendência, que indica que o nível
de engajamento aumenta com o decorrer da tarefa. Foram identificados os pontos
críticos, representados pelos maiores picos ou vales da curva, que devem ser
estudados com os elementos associados das filmagens. Momentos de pico, no qual
há alto índice das ondas beta, representam alto nível de estresse, enquanto momentos
de vale mostram que há aumento do poder das ondas alfa e teta, representando
sonolência, monotonia e rendimento.
99
Figura 29: Exemplo de curva-TEI média.
Fonte: Elaboração própria.
Outros fatores também podem ser estudados, além da identificação de picos e
vales. Pode-se utilizar um limite de dois desvios padrão para cima ou para baixo, em
relação ao valor médio, e estudar momentos que fiquem fora deste intervalo. O limite
superior de confiança é apresentado pela Equação 8, enquanto o limite inferior é
representado pela Equação 9. Também é possível verificar se há momentos de
tendência crescentes ou decrescentes dentro das etapas, ou da atividade como um
todo. O objetivo final, diante de todas estas possibilidades, é identificar quais os
momentos críticos da tarefa.
𝐿𝑆𝐶 = 𝑇𝐸𝐼̿̿ ̿̿ ̿ + 2 × 𝜎𝑇𝐸𝐼̅̅ ̅̅ ̅ (Eq. 8)
𝐿𝐼𝐶 = 𝑇𝐸𝐼̿̿ ̿̿ ̿ − 2 × 𝜎𝑇𝐸𝐼̅̅ ̅̅ ̅ (Eq. 9)
Assim, após identificar quais os pontos de pico ou vale, ou fora do intervalo de
confiança, pode-se elaborar um diagnóstico inicial da situação atual da atividade.
Parte-se assim para a análise específica da atividade.
100
6.3.3. Terceira etapa: análise dos fatores
Esta etapa destina-se a analisar os fatores envolvidos em cada um dos pontos
críticos levantados na segunda fase. Para tal, recomenda-se inicialmente estabelecer
uma priorização entre os pontos, para que seja gerado o maior valor possível desde o
início da análise.
Este protocolo não estabelece uma única forma possível de realizar a análise
dos elementos, já que se entende que estes dependem da natureza da atividade e da
organização. É uma etapa flexível, no entanto serão apresentadas algumas das
possíveis formas para análise, que podem ser utilizadas em conjunto ou
individualmente.
6.3.3.1. Entrevistas com funcionários
Uma das recomendações é a conversa com os funcionários, através do uso de
questionários semiestruturados. Pode se elaborar um roteiro de perguntas condizente
com as necessidades da análise, e entrevistar alguns (ou todos) os operadores
envolvidos na tarefa. Sugerem-se inicialmente perguntas abertas, pedindo que
expliquem a tarefa, a rotina diária, ensinem o passo-a-passo e as principais
dificuldades e demandas. Após isso, pode-se convergir a perguntas mais específicas.
A recomendação da entrevista semiestruturada parte do princípio que o operador deve
relatar por si só suas necessidades de forma não enviesada pelas perguntas dos
pesquisadores.
Para uma segunda parte da entrevista, sugere-se que o pesquisador mostre a
gravação para o trabalhador, e peça que este explique as diversas etapas da tarefa. O
foco das perguntas deve ser nas dificuldades encontradas nos pontos críticos.
Recomenda-se evitar que o voluntário fique nervoso ou com alguma insatisfação ou
incômodo durante a entrevista, e explicar que o propósito do trabalho é a melhoria do
serviço prestado.
101
6.3.3.2. Uso de dados secundários
Outra possibilidade é o uso de dados secundários para esclarecer dificuldades
durante a execução destes pontos críticos. Para tal, pode-se utilizar relatórios e bases
de dados anteriores da própria organização, benchmarking 12 , procedimento
operacional padrão (POP), entre outras fontes. Como exemplos possíveis, cita-se
relatório de manutenções de determinado equipamento, relatórios de produtividade
mensal, entre outros, dependendo da natureza da atividade.
6.3.3.3. Análises estatísticas e correlação entre variáveis
Com o conjunto de dados obtidos a partir do quadro de observações, é possível
a adição de dados característicos com o intuito de descobrir relações entre as
variáveis.
Um exemplo é o uso de análises de correlação, técnica estatística que reflete o
quanto uma variável influencia outra. A Figura 30 apresenta um exemplo de base de
dados para descobrir correlações entre os dados. Recomenda-se acrescentar, para
cada observação, o valor médio do TEI obtido durante a coleta. Primeiro realizam-se
diagramas de dispersão, apresentados por Gujarati (2009) como uma ferramenta na
qual são plotadas os valores de uma variável no eixo das abscissas, e os valores de
outra variável no eixo das ordenadas, e são identificados neste plano os pares
coletados, com o propósito de verificar o comportamento conjunto de ambas variáveis.
Assim, identificar possíveis relações entre estas e, em seguida, calcular a correlação
em si, apresentado pela Equação 10. Nesta, verifica-se o quão uma variável explica a
outra variável. Por exemplo, seja X uma variável aleatória onde 𝑋 = {1, … , 𝑁}, 𝑁 𝜖 ℕ∗ e
Y uma variável aleatória onde 𝑌 = {1, … , 𝑁}, 𝑁 𝜖 ℕ∗, ambas matriciais. Assim, Cov(x,y)
é a covariância entre X e Y, 𝜎 é o desvio padrão da respectiva variável, Var(X) é a
variância de X e Var(Y) a variância da variável Y.
𝐶𝑜𝑟𝑟(𝑋, 𝑌) = 𝐶𝑜𝑣(𝑋,𝑌)
√𝑉𝑎𝑟(𝑋).𝑉𝑎𝑟(𝑌)=
𝜎𝑥𝑦
𝜎𝑥𝜎𝑦 (Eq. 10)
12
Benchmarking é conceituado, por Corrêa e Corrêa (2012), como a busca por melhores práticas para determinada atividade ou política, seja interna ou externamente à própria organização, com o objetivo de atingir vantagens competitivas sustentáveis.
102
Figura 30: Exemplo de base de dados.
Fonte: Elaboração própria.
Caso exista correlação entre as variáveis, recomenda-se o uso de regressões
lineares 13 (método dos mínimos quadrados) simples, exponenciais, entre outras
possibilidades, que reflitam o comportamento das curvas apresentadas pelo diagrama
de dispersão. Com tais regressões é possível identificar quais as melhores
combinações de variáveis para explicar os altos ou baixos níveis de engajamento.
6.3.3.4. Planejamento de experimentos
O planejamento de experimentos é uma técnica proveniente do controle
estatístico da qualidade na qual, segundo Montgomery (2009), é realizada uma série
de testes com o objetivo de determinar qual a melhor combinação entre diversos
parâmetros para obter o melhor resultado final. Este resultado deve ser quantitativo, e
pode ter como objetivo atingir o maior valor, menor valor ou uma meta específica.
Citando um exemplo para o estudo presente, para um processo atendimento de
chamados eletrônicos (um call center), pode-se ter o objetivo de alcançar o maior
engajamento dos trabalhadores. Para tal, uma possibilidade é variar parâmetros como
13
Regressão linear é uma técnica estatística cujo objetivo é encontrar a curva que melhor expresse uma relação entre uma variável dependente e uma ou mais variáveis independentes de forma linear (isto é, as variáveis independentes devem possuir potência igual a 1). Um dos principais métodos para realizar uma regressão linear é o método dos mínimos quadrados, no qual busca-se encontrar a curva que minimize o somatório do quadrado da distância entre o valores reais e os previstos, ou seja, o somatório do quadrado dos erros (STOCK; WATSON, 2012).
103
o tipo de telefone utilizado e a iluminância14 da sala utilizada para verificar qual a
combinação que resulta no maior engajamento, o objetivo determinado pelo estudo.
Para ilustrar a situação, a Figura 31 apresenta um esquema teórico de um
processo comum. As entradas são transformadas em saídas através de uma
transformação realizada, no entanto, há fatores de entrada que podem ou não ser
controláveis. No exemplo do processo de atendimento, o tipo de telefone utilizado e a
iluminação são fatores controláveis, representados pelas letras “x” na figura. Já outros,
como umidade do ar e tempo de atendimento, podem ser fatores incontroláveis, isto é,
não é possível alterá-los para controle estatístico. São representados pelas letras “z”.
Figura 31: Intervenção de variáveis controláveis e incontroláveis.
Fonte: Adaptado de Montgomery (2009).
Assim, busca-se obter a melhor combinação de fatores controláveis a verificar
qual a melhor saída y. Para cada fator, devem ser determinados os seus níveis, isto é,
as variações de valores que serão testados. Para o exemplo oferecido, pode-se supor
que o tipo de telefone será avaliado em dois níveis, um no modelo convencional com
fio (nível -1), e um no modelo headset (nível 1). Já para a iluminância, serão utilizados
três níveis, os valores 500 (nível -1), 750 (nível 0) e 1000 lux (nível 1). A nomenclatura
de controle de qualidade em geral utiliza valores entre -1 e 1 para representar os
diversos níveis. Ressalta-se que as variáveis controláveis não precisam
necessariamente ser quantitativas, conforme apresentado pelo exemplo, apenas a
saída que deve ser necessariamente mensurável.
14
Iluminância é uma medida utilizada para verificar o nível de iluminação presente em um local, dado pela razão do fluxo luminoso recebido por uma determinada área. É medido em lux, e suas normas para interiores e postos de trabalho são determinadas pela Norma Brasileira 5413 (TÉCNICAS, 1992).
104
Após definidos os fatores e os níveis, deve-se realizar experimentos com cada
combinação de fatores, e coletar os valores de saída, no caso o valor do TEI. Neste
caso, por serem dois níveis de tipo de telefone e três níveis de iluminância, ao todo
serão necessários pelo menos seis experimentos para verificar os melhores níveis.
Recomenda-se, no entanto, que sejam realizadas pelo menos duas a cinco
observações para cada combinação, variando entre os funcionários, para tornar os
resultados mais assertivos. A Figura 32 apresenta um exemplo de tabela de
combinações preenchida, para este caso.
Figura 32: Exemplo de tabela de experimentos.
Fonte: Adaptado de Montgomery (2009).
Após realizar cada um dos experimentos, deve-se criar gráficos de linha com
os valores médios do TEI para cada uma das combinações, selecionar um parâmetro
para um eixo-x, e identificar as relações com o outro fator. A Figura 33 ilustra um
exemplo de gráfico obtido através dos dados fictícios da Figura 32. Pelo objetivo de
determinar qual é o maior valor para o TEI, chega-se assim ao resultado de que a
combinação de 1000 lux e telefone do tipo headset seria a melhor dentre as
candidatas.
105
Figura 33: Exemplo fictício de resultado de experimentos com dois fatores.
Fonte: Elaboração própria.
Ressalta-se aqui, neste ponto, a recomendação de realizar experimentos com
poucos parâmetros, em geral dois ou três. Isto ocorre por reduzir o número de
experimentos e a leitura dos resultados através dos gráficos de linha ou de plano.
Deve ser avaliada também a viabilidade técnica e econômica neste caso.
6.3.3.5. Uso de ferramentas adicionais
Caso seja necessário, é possível o uso de diversas outras ferramentas que
auxiliem na identificação de problemas, usuais para a Engenharia de Produção. Além
de ferramentas sobre a análise dos métodos de trabalho, apresentadas no Capítulo 1,
outras possibilidades podem ser acrescentadas. Para o uso em um MIASP, o foco
será dado de forma resumida em ferramentas de qualidade, em especial no Diagrama
de Ishikawa. No entanto, não há impedimento para o uso de quaisquer outras cujo
parecer acredite ser necessário.
O Diagrama de Ishikawa, ou Diagrama de Espinha de Peixe, é uma ferramenta
de voltada para a análise dos problemas identificados em etapas anteriores
(CORRÊA; CORRÊA, 2012). Seu principal intuito é encontrar as causas que originam
os efeitos indesejados, percebidos pelos usuários envolvidos, pelo uso de diversas
dimensões. Para o caso industrial, em geral estas são os seis M’s: método, mão-de-
106
obra, máquina, material, meio ambiente e medida. Já para o caso de serviços, os
autores comentam que pode-se utilizar dimensões como lugares, procedimentos,
políticas e pessoas. A descrição do problema é posta na ponta direita do modelo, e as
ramificações são as causas possíveis para tal problema. Entre seus benefícios, o
gráfico tende a organizar o raciocínio em discussões para um problema que seja
prioritário, como brainstormings, é fácil de ser compreendido pelo uso gráfico das
causas potenciais, envolve em geral um pequeno grupo de indivíduos envolvidos, etc.
A Figura 34 apresenta exemplo de aplicação do Diagrama, que apresenta o problema
do acúmulo dos resíduos de coco verde estudado por Junior (2010).
Figura 34: Exemplo de Diagrama de Ishikawa.
Fonte: Junior (2010, p.108).
Outras ferramentas, como o gráfico de operações ou outros diagramas de
Pareto, podem ser utilizadas. Faz-se importante aqui encontrar elementos que estejam
limitando o desempenho da atividade, para a elaboração de um diagnóstico mais
aprofundado. Quanto melhor o diagnóstico aqui formulado, mais fácil será a realização
da próxima etapa, a prescrição de alternativas de solução.
6.3.4. Quarta etapa: prescrever alternativas de solução
A etapa seguinte consiste em prescrever alternativas de solução para eliminar
os problemas encontrados durante o diagnóstico, isto é, definir sugestões para o
107
balanceamento dos níveis de engajamento dos operadores e melhoria dos KPIs
determinados durante a primeira etapa do método. Esta é uma fase subjetiva, pelo fato
das soluções dependerem da natureza dos problemas encontrados.
No entanto, cabe a discussão de dois pontos relevantes neste tópico. O
primeiro é sobre a busca por alternativas. Em geral, quanto melhor o diagnóstico
levantado na etapa anterior, mais fácil tende a ser a busca por soluções. No entanto,
ressalta-se aqui o uso de benchmarking de casos semelhantes ao encontrado, como
ressalta Corrêa e Corrêa (2012). A procura por problemas na literatura, tanto
acadêmica quanto cinza15, indica uma gama de soluções já testadas e implantadas
para diversos casos que aumenta a viabilidade da alternativa. Além disto, para
necessidades de maior avanço técnico, o uso de bases de patentes pode oferecer
ideias e soluções dos últimos anos desenvolvidas por centros científicos ou
departamentos de Pesquisa e Desenvolvimento de diversas outras organizações.
Como exemplo de bases, cita-se a European Patent Office (ESPACENET), a United
States Patent and Trademark Office (USPTO) e o Instituto Nacional de Propriedade
Intelectual (INPI).
O segundo ponto é a escolha por alternativas que sejam viáveis, tanto técnica
quanto economicamente. Estas devem ser ajustadas à realidade da empresa, sua
capacidade de investimentos e de implantação. Sugere-se a preferência por
alternativas de baixo custo, que alterem políticas e o clima organizacional, ou que
desenvolvam ferramentas simples (eletrônicas ou não) de fácil uso e disseminação.
Por exemplo, para casos que sugiram a mudança da interface do usuário com o
sistema, devem-se apresentar as intenções para o setor responsável, no caso o de TI
(Tecnologia da Informação), para a concordância ou não destas alternativas.
6.3.5. Quinta etapa: gerir a mudança
A última etapa consiste na gestão da mudança do contexto atual para o
melhorado, aplicando as alternativas de solução. Para tal, deve-se seguir alguns
passos preliminares antes da implantação em si.
15
Literatura cinza, conforme apresentado por Proença Júnior e Silva (2016), depende da natureza do campo estudado, no entanto em geral pode ser contribuições em eventos, blogs, relatórios técnicos, websites, entre outros.
108
6.3.5.1. A priorização de alternativas de solução
O procedimento de priorização faz-se necessário quando há mais de uma
alternativa de solução a ser implantada, e pelo fato dos recursos utilizados (tempo,
capital, pessoas, materiais) serem escassos. Meredith e Mantel Jr. (2000) apresentam,
dentre soluções de priorização de projetos, a análise multicritério, ferramenta gerencial
que seleciona quais projetos devem ser realizados sequencialmente de acordo com
uma nota relativa entre eles. Para tal, são definidos critérios relevantes à natureza do
projeto e à organização (ex: investimento necessário, tempo de execução,
imobilização da produção ou do atendimento, impacto positivo, etc.) e, para cada
projeto, são atribuídas notas de zero a dez nestes critérios. Cada critério pode ou não
ter pesos diferentes, de acordo com as necessidades do problema. Ao final, a
priorização é baseada na ordem decrescente das pontuações obtidas.
Ressalta-se como desvantagem o fato desta ser uma avaliação subjetiva e
possivelmente enviesada, no entanto apresenta agilidade e praticidade quanto a seu
uso. Caso necessário, podem ser utilizados outros métodos de priorização de projetos
para definir a sequência que gere impactos positivos mais rapidamente. O uso de
indicadores financeiros, como payback e Valor Presente Líquido, neste caso não é
recomendado, pela incerteza do aumento do valor financeiro gerado pelas alternativas
de solução.
6.3.5.2. O plano de ação
Após definir a ordem de implantação das alternativas, recomenda-se a criação
de um plano de ação, ferramenta que auxilia no gerenciamento de implantações de
pequenos projetos ou mudanças. Lisbôa e Godoy (2012) comentam sobre o 5W2H,
uma técnica mnemônica que descreve o projeto de implantação em sete etapas: o quê
(what), quando (when), onde (where), quem (who), por quê (why), como (how) e
quanto (how much). Suas vantagens são a sua facilidade e praticidade de ser
realizada, o fato de não necessitar de softwares específicos e poder ser visualizada
por todos os agentes envolvidos. Um exemplo é apresentado na Figura 35. Caso
necessário, informações adicionais podem ser inseridas, como o status.
109
Figura 35: Exemplo de 5W2H.
Fonte: Lisbôa e Godoy (2012, p.38).
O plano de ação também possui o intuito de mostrar o acompanhamento do
projeto de implantação, para verificar se houve ou não atrasos, além de apontar
problemas existentes durante o andamento dos projetos. Auxilia também na alocação
de recursos materiais e humanos, e no planejamento posterior para a realização dos
testes de implantação.
6.3.5.3. O teste das alternativas de solução
Antes da implantação efetiva das alternativas, é necessário realizar testes para
validação da suficiência destas e suas respectivas correções. Com base no âmbito
gerencial, estas são as duas fases intermediárias do ciclo PDCA - Plan, Do, Check,
Act (planejar, executar, verificar, atuar), dissertado por Andrade (2003) como uma
ferramenta de melhoria e controle de processos para atingir as metas organizacionais.
Corrêa e Corrêa (2012) explicitam que a fase de execução (Do) é relacionada com a
implementação do plano de forma experimental, em pequena escala, e com o registro
e medição das melhorias e resultados, positivos e negativos, atingidos. Já para a fase
de verificação, os autores dissertam que o plano deve ser revisado, para o controle do
ajuste dos resultados aos objetivos estabelecidos e para correção de problemas
existentes. Diante do PDCA, faz-se necessário assim realizar na organização
estudada estas etapas antes da devida implantação das melhorias em relação ao TEI.
110
6.3.5.4. A padronização
Em conjunto com a última etapa do ciclo PDCA de atuação para implementar
devidamente o plano, há a necessidade de realizar o gerenciamento da rotina,
abordado por Andrade (2003) como um conjunto de esforços voltados à eliminação
das não-conformidades provenientes das variações nos processos produtivos. Assim,
o autor recomenda o uso da ferramenta SDCA - Standard, Do, Check, Atc (padronizar,
executar, verificar, atuar), análoga ao PDCA com o intuito de realizar padronizações.
Assim, o foco do SDCA é manter as condições e resultados de trabalho inseridos
dentro de um limite esperado para atingir os objetivos estabelecidos à organização.
Nesta discussão, para o método proposto, necessita-se da padronização das soluções
apresentadas a partir de treinamentos, elaboração de fichas contendo os POPs
(também chamado de método prescrito) e supervisões constantes para assegurar que
a melhoria obtida encontra-se mantida em seu nível desejado.
6.4 Discussão sobre o método
O método aqui proposto, para uma análise neuroergonômica do trabalho no
âmbito do engajamento, mostra-se como uma variante dos métodos de identificação,
análise e solução de problemas (MIASP). O uso do EEG como um elemento adicional
à análise tradicional traz, a curto prazo, uma dificuldade técnica para a realização
desta abordagem, no entanto, espera-se que a difusão e popularização do instrumento
auxilie não só o engajamento, mas também outros aspectos cognitivos como carga
mental de trabalho, que passem a ser vistos como aspectos de grande relevância para
a efetividade das organizações. O efeito dos aspectos cognitivos sobre o desempenho
operacional, conforme descrito no Capítulo 4 através de diversos estudos da área, e a
relação deste último com os indicadores financeiros e outros elementos de geração de
valor (baseado na discussão presente no Capítulo 1), mostra que a preocupação com
a compreensão do cérebro humano e a adaptação dos meios de trabalho a este é uma
área de estudo fundamental para as próximas décadas.
O método aqui descrito caracteriza-se por sua interdisciplinaridade. O uso de
ferramentas de diversas áreas do conhecimento da Engenharia de Produção em um
protocolo, como engenharia de métodos, estatística, gestão da qualidade e ergonomia,
representa o viés da flexibilidade presente nas diversas organizações e suas
diferentes naturezas. Em geral, não há um melhor método ou uma melhor solução de
cunho geral: há a necessidade de se estabelecer uma visão geral padronizada, no
111
entanto cada caso específico apresenta suas particularidades, necessidades e
ferramentas mais adequadas.
Em conjunto com a ideia de interdisciplinaridade, a neuroergonomia traz
contribuições valiosas à esfera organizacional sobre a importância da cognição
humana diante dos processos. A necessidade de adaptar os meios de trabalho ao ser
humano é objeto de estudo pela ergonomia, no entanto compreender o cérebro
humano permite um melhor desenho dos processos, atividades e ambientes de
trabalho, abrindo horizontes para novas possibilidades. Os avanços na viabilidade
técnica dos instrumentos neurocientíficos permite que o EEG seja utilizado em
diversos contextos devido à sua portabilidade e seu custo relativamente baixo quando
comparado aos outros instrumentos. Instrumentos adicionais, como o eye tracking,
podem ser devidamente acrescentados ao método quando for julgado necessário,
como em casos de intenso uso de atividades oculomotoras. Já outros métodos, como
o PET e o fMRI, por enquanto raramente podem ser utilizados em ambientes reais por
sua estrutura física, mas trazem contribuições de mapeamento cerebral que podem
aumentar a precisão das análises realizadas. No entanto, os estudos das ondas
cerebrais extraídas pelo EEG nas últimas décadas trouxeram possibilidades de
análises e novos indicadores para serem utilizados em experimentos e métodos das
neurociências.
O conceito do TEI como um indicador mensurável permite um melhor uso, mais
estruturado, para adequação ao conceito do MIASP. O TLX, apresentado por Hart e
Steveland (1988), também é um indicador neuroergonômico importante para melhoria
das organizações. Mesmo com caráter subjetivo, HART (2006) aponta que mais de
quinhentos estudos foram realizados utilizando este método, provando sua eficácia
diante da incerteza das técnicas neuroergonômicas no contexto real.
A demanda neuroergonômica de estudo de operações reais, em vez de
experimentos em laboratórios com condições controladas, levanta discussões sobre a
viabilidade do método aqui prescrito. A prática é necessária para o aprimoramento do
próprio método, através do uso, avaliação e reformulação conforme os aprendizados
(o loop duplo). Para tal consolidação, é necessário que este seja aplicado em diversos
tipos de organizações e em diferentes naturezas de atividades, para validação de seu
escopo e da adequação do nível de flexibilidade proposto.
Este estudo não traz aplicações práticas do método proposto, conforme
apresentado na seção de limites e limitações. No entanto, a próxima seção discorre
112
sobre as possibilidades de aplicação do método em diferentes contextos
organizacionais.
6.5 Sobre a Aplicação do Método
A flexibilidade proposta pelo método permite que este seja aplicado em
diversos contextos de trabalho diferentes. Cada situação de trabalho é única, no
entanto existem possibilidades de uso das diferentes ferramentas aplicadas em
indústrias de diferentes gêneros. Com este intuito, a discussão presente neste tópico
pretende avaliar possibilidades de uso do método nas organizações.
Para facilitar a compreensão, foi utilizada uma matriz de classificação empírica
de alguns exemplos de organizações, baseada na matriz de inovação de produto e de
processo de Hayes, Upton e Pisano (2008). A matriz aqui apresentada pela Figura 36
possui como eixo-x a quantidade de uso de tarefas cognitivas em comparação às
tarefas físicas, e como eixo-y o valor gerado para a população como um todo. O
conceito de valor gerado agrega, neste caso, a quantidade de pessoas atingidas, a
frequência de consumo do pacote de valor e a qualidade de vida oferecida a essas
pessoas. Logo, uma organização que atinge poucas pessoas e que desenvolve bens
comuns deve estar em uma posição inferior, já uma instituição que atinge grande
parcela da população e oferece serviços frequentes de importância ao bem-estar
social deve estar em uma posição superior na matriz. Ressalta-se aqui o fato da matriz
ser ilustrativa, sem comprovações técnicas da real posição relativa entre cada uma
das organizações presentes.
113
Figura 36: Exemplo de classificação de organizações.
Fonte: Elaboração própria.
Um primeiro exemplo pode ser de uma indústria de massa, como as indústrias
de cerveja ou automobilísticas. Nos setores cujo foco é o de custo, uma
recomendação é verificar quais as atividades da linha de produção que podem ser
melhorados. Para tal, pela alta repetibilidade das atividades, podem ser utilizados em
conjunto na primeira etapa tanto a análise pelo TEI quando pelos KPIs. Em atividades
repetitivas, na qual em geral é frequente altos índices de monotonia, a análise
posterior do TEI possui maior enfoque em descobrir como aumentar a motivação e a
assertividade dos operadores em suas ações, já que, como discutido no Capítulo 4, há
uma relação entre eficácia e engajamento. O uso de ferramentas de Engenharia de
Produção neste caso, como o gráfico de operações, faz-se fundamental para a
compreensão da atividade repetitiva. Também o uso de entrevistas e verbalizações,
tanto dos funcionários quanto dos níveis hierárquicos acima, mostra-se ferramentas
relevantes para este caso.
Outra possibilidade, além da área de montagem de produtos, é o de estudo nas
áreas de inspeção de qualidade. Um baixo resultado nos indicadores de qualidade
pode, além de demonstrar que os processos produtivos não estão adequadamente
ajustados, indicar que a área de controle de qualidade possui deficiências em seus
processos inspecionais. Assim, diversos aspectos podem ser estudados como
114
variáveis relevantes com o objetivo de aumentar o engajamento e a eficácia do
processo: método de inspeção visual (recomenda-se o uso do eye tracking neste
caso), horas de sono dos funcionários, a política de pausas durante a jornada de
trabalho, os instrumentos utilizados, a rotação de cargos, entre outros.
Utilizando outro exemplo, de empresas focadas em alta tecnologia e
direcionadas, podem-se citar empresas do ramo de jogos eletrônicos. Um dos
possíveis focos de atenção pode ser a fase de desenvolvimento e teste dos jogos. Por
exemplo, um método possível seria o NASA-TLX, pela inaplicabilidade do TEI neste
primeiro estágio, já que o tempo de ciclo de criação de um jogo é relativamente longo.
Assim, é possível perceber quais as atividades são mais cansativas, e buscar formas
de tentar melhorar.
Nestas empresas, as atividades relacionadas à criação, como desenvolvimento
de roteiros e desenho de personagens e cenários, exigem um ambiente que estimule
os funcionários a estarem engajados e criativos. Assim, o foco no arranjo físico para o
aumento do TEI pode ser um rumo a ser tomado, com a análise dos diversos
elementos possíveis: palheta de cores, localização espacial, uso de acessórios,
aspectos ergonômicos (antropometria dos móveis, iluminação, temperatura,
ventilação, entre outros), etc. Também podem ser avaliadas as políticas de trabalho,
como a correlação do engajamento com o horário de trabalho (se em geral os
desenvolvedores conseguem obter melhores resultados durante a manhã ou a noite),
turno de horário fixo ou flexível, possibilidade de trabalho em casa, eventos
corporativos, entre outras possibilidades.
Em analogia aos estudos de efetividade de publicidade e propaganda de
Young (2002), é possível utilizar o TEI durante as fases de testes de jogos, para
verificar o quão engajado os usuários em geral ficam ao consumir o produto final, isto
é, jogar o jogo em si. Recomenda-se em conjunto o uso do eye tracking, para a
criação de mapas de calor que mostrem a frequência de observação em cada
elemento presente na cena exposta. Com isto, é possível realizar grupos de teste com
consumidores reais para realizar mudanças nos aspectos que menos atraem a
atenção destes e, em consequência, conseguir um produto final mais assertivo,
gerando provável impacto positivo para as vendas.
Um último exemplo aqui apresentado é o dos centros de comando e controle.
São organizações de grande impacto para a população e de natureza de
monitoramento em tempo real, logo são exigidos altos níveis de atenção, vigilância e
rapidez em tomadas de decisão.
115
Utilizando como exemplo um centro destinado a atendimento de emergências,
como de defesa civil, polícia, atendimento médico ou de bombeiros, dois dos mais
importantes indicadores utilizados são o tempo de atendimento para a emergência e o
nível de eficácia das decisões tomadas. Para tal, a primeira etapa do método deve
focar na identificação dos processos de vigilância e atendimento a este tipo de
emergência, e recomenda-se o uso dos indicadores acima para determinar as
atividades a serem pesquisadas, no caso com maior tempo de duração e maior índice
de não conformidade.
Ao identificar a tarefa, por exemplo um atendimento telefônico às emergências,
há diversas variáveis que devem ser levadas em conta: roteiro de atendimento,
interface do sistema utilizado, tempo de experiência, entre outros. Já para tarefas de
monitoramento constante, pode ser relevante verificar a possibilidade do uso de
estímulos para manter os níveis de engajamento dos indivíduos, como as técnicas
apresentadas por Szafir e Mutlu (2012). O uso do eye tracking nestes casos também é
recomendado, pela constante interface do usuário com monitores e outros elementos
digitais. Também pode ser discutida, como em todos os outros casos, a questão do
perfil indicado dos funcionários para contratação, as características e o modelo de
treinamento. O uso de análises de correlação estatística pode ser de grande
relevância após a tomada dos dados primários e secundários.
Pode-se aqui discutir sobre a viabilidade deste estudo nas organizações. É um
método flexível, que pode ser aplicado a qualquer tipo de organização, no entanto
estima-se que há uma maior propensão de uso pelas empresas focadas em
tecnologia, serviços críticos e indústrias de grande porte. Isto se justifica pelo fato da
aplicação do método envolver o uso de instrumentos, como o EEG e possivelmente o
eye tracking, que envolvem certo investimento de capital. O método também exige
uma grande quantidade de horas de estudo, tanto para a coleta de dados quanto para
a análise, sugestão de soluções e suas implantações. Para tal, há uma maior
propensão à adesão deste por empresas que contenham um setor especializado de
Pesquisa e Desenvolvimento (P&D), ou de métodos de trabalho, ou uma área
relacionada à inovação. Uma outra possibilidade neste caso é a integração entre
universidades e empresas, com a contribuição da primeira pelo auxílio na realização
do método, e da segunda por permitir a realização de projetos acadêmicos e pela
abertura de uma fonte de estudos.
116
7. CONCLUSÃO
Este trabalho teve o propósito de desenvolver um método geral, baseado nos
MIASP (métodos de identificação, análise e solução de problemas), utilizando o
indicador de engajamento da tarefa (TEI) para melhoria das atividades de trabalho em
organizações. Foram utilizadas contribuições dos ramos de análise do trabalho e de
seu desempenho, e da neuroergonomia, campo incipiente cujo propósito é estudar o
cérebro humano e seus principais elementos diante da execução do trabalho e dos
meios envolvidos neste.
Em primeiro lugar, a pesquisa tratou da contextualização das organizações nos
dias atuais. A era da globalização e da informação trouxe o aumento da
competitividade entre as empresas, o que culminou na busca por geração de bens e
serviços que se destacasse dos demais, de forma eficaz e eficiente (HAYES; UPTON;
PISANO, 2008). Destaca-se aqui a importância do desempenho operacional e seus
diversos elementos diante da melhoria da produção, a partir da mensuração com o
uso de indicadores chaves de desempenho, os KPIs. No entanto, a modificação das
tarefas majoritariamente físicas para cognitivas nos últimos anos, conforme exposto
por Spiegel (2009), traz a necessidade da mudança das abordagens para melhoria
das organizações e de como mensurar o desempenho operacional.
Para tal, fez-se necessário compreender a visão clássica do projeto do trabalho
humano. Seu expoente após o início da primeira revolução industrial veio a partir do
taylorismo, apresentando a Administração Científica, cujo propósito era instituir uma
ciência para determinar qual a melhor forma do operário realizar suas tarefas. Os
avanços trazidos por outros, como o casal Gilbreth, apontaram para os estudos de
melhorias dos projetos de postos de trabalho e dos elementos presentes neste, de
forma a aumentar o desempenho realizado (BARNES, 1977). A ergonomia, neste viés,
também traz a preocupação com as condições de saúde do trabalhador, atribuindo
assim à organização a necessidade de adaptar os meios de trabalho ao ser humano,
alterando o foco do crescimento acelerado da produção para o próprio indivíduo (IIDA,
2005).
Nas últimas décadas, diversos estudos continuaram aplicando os conceitos da
engenharia de métodos nas organizações, no entanto houve uma outra mudança de
perspectiva. A meta não era mais apenas obter o melhor lucro por produções de baixo
custo, ela agora depende da competição e de qual o valor que o cliente procura, seja
por qualidade, velocidade, flexibilidade ou preço. Junto a isto, a automação industrial
tornou-se presente, principalmente em território brasileiro nos últimos anos, e traz
117
assim a mudança da natureza do trabalho: as máquinas realizam tarefas físicas ou em
condições insalubres, e os seres humanos passam a, em diversas organizações,
desempenhar atividades cognitivas, como trabalhos de escritório que envolvem
tomada de decisão, atenção, vigilância, entre outros. Diante disto, a importância da
ergonomia cognitiva e da engenharia de resiliência surge como forma de melhoria no
desenho destes postos de trabalho. No entanto, há lacunas na compreensão do
comportamento humano que não são devidamente preenchidas.
Apresenta-se como aliada à ergonomia cognitiva e ao projeto do trabalho a
neurociência, cujo propósito é estudar o cérebro humano, sua anatomia e principais
funções. O panorama das funções executivas, que realizam as atividades de tomada
de decisão e atenção, por exemplo, ajuda a compreender como o ser humano reage
diante de um determinado contexto. Pela coleta de informações utilizando o sistema
sensorial, estas funções determinam qual o melhor procedimento a ser realizado pelo
sistema motor (FILHO, 2013). Junto a isto, age também o sistema dual do cérebro,
baseado no sistema 1 (instinto) e sistema 2 (analítico). A compreensão do cérebro,
neste contexto, auxilia o desenvolvimento da ciência neuroergonômica.
Com a junção da ergonomia e da neurociência, nasce a neuroergonomia,
ciência recente conceituada por Parasuraman e Rizzo (2008) como o estudo
ergonômico do cérebro diante do ambiente de trabalho. Suas contribuições em
campos como a aviação, os setores de vigilância e centros de comando trazem a
importância de estudar os indicadores psicofisiológicos de forma mais certa, evitando
assim o uso apenas de observações diretas do comportamento humano. Entre tópicos
principais, a atenção, o sono, a carga mental de trabalho e o engajamento mostraram-
se importantes para diversos contextos.
Sobre este último tópico, o engajamento, este trabalho apresentou um foco
maior em relação ao indicador de engajamento da tarefa (TEI), desenvolvido por Pope,
Bogart e Bartolome (1995) através de estudos de automação adaptativa (AA). Sua
captura através do EEG, baseado em uma razão entre as ondas de excitação e as de
sonolência, mostra-se como uma alternativa viável pela portabilidade do aparelho e
pela assertividade quantitativa, evitando o uso de critérios subjetivos para avaliação do
quão engajado o operador se encontra. Usos em áreas como aprendizado e
neuromarketing mostraram possível sua aplicação em contextos diferentes da AA.
Surge assim a possibilidade de utilizar a neuroergonomia na análise do trabalho
humano.
118
No entanto, para o desenvolvimento de uma proposta de método
neuroergonômico, houve a necessidade de apresentar quais instrumentos poderiam
ser utilizados. O EEG, por sua portabilidade e custo inferior relativo aos demais, além
da resolução espacial e temporal em nível aceitável para análise, foi identificado como
um potencial candidato (PARASURAMAN, 2011). Adicionou-se a isto a possibilidade
de captura do indicador TEI pelo EEG, no entanto ressalta-se a importância do uso de
instrumentos complementares caso necessário, como o eye tracking.
Este trabalho apresentou e discutiu o método neuroergonômico proposto junto
com suas diversas possibilidades de execução. Este método foi dividido em cinco
etapas principais, as quais são baseadas nos MIASP, para identificar, analisar e
solucionar os problemas presentes nas organizações. Primeiramente, a escolha de
qual a atividade a ser estudada, com base nos KPIs definidos como estratégicos ao
setor, é uma das etapas de maior importância no processo, pois ela que indica qual o
problema inicial durante a geração dos bens e serviços oferecidos. Em seguida, há
uma preocupação com o nível de engajamento ao longo da atividade escolhida, com o
intuito de determinar, utilizando o TEI, as observações diretas e as entrevistas, quais
os pontos críticos que causam o desbalanceamento. Estes pontos críticos devem ser
analisados, utilizando o arsenal possível de ferramentas de Engenharia de Produção
existentes, para criação de um diagnóstico final. Após isso, o método sugere que
alternativas de solução devem ser prescritas, e deve ser realizada a gestão da
mudança, para efetivação das melhorias nos setores.
Discute-se, por fim, sobre as aplicações do método aos ambientes. A grande
diversidade de naturezas das atividades de trabalho sugere que o método proposto
pode ser aplicado em suas diversas formas, tanto em um ambiente controlado de linha
de montagem quanto em um centro de comando e controle. Portanto, uma das
principais características do método é sua flexibilidade, que necessita da experiência,
habilidade e criatividade dos projetistas ou pesquisadores para sua melhor aplicação
em determinado contexto.
Com base nos MIASP, o uso conjunto da medição do TEI através de
amostragem e de análises estatísticas que relacionam as variáveis inerentes à
natureza do trabalho mostra-se um aliado potencial às ferramentas tradicionais de
Engenharia de Produção, como o gráfico de operações. A intenção do método, em
relação às áreas de engenharia de métodos e ergonomia, é poder contribuir com a
ultrapassagem de barreiras que traziam teor de incerteza, no caso como o indivíduo
lida cognitivamente com os determinados elementos envolvidos em sua atividade.
119
Para a corrente ergonômica, é possível sua aplicação dentro de uma Análise
Ergonômica do Trabalho, aumentando o teor quantitativo para o projeto de sistemas
que melhorem a interface homem-máquina. Para os projetos de melhoria do trabalho,
a subjetividade durante a elaboração dos diagnósticos poderá ser reduzida: ao
conseguir analisar de forma mais aprofundada elementos pouco mensuráveis, como o
desenho de mostradores e a usabilidade de sistemas, soluções mais assertivas
poderão ser implementadas.
Como perspectivas futuras a este projeto, espera-se que este método possa
ser posto em prática, com sua respectiva avaliação e proposta de melhorias, em
diferentes ambientes de trabalho. Em especial, seria de grande importância a
aplicação em organizações que são serviços críticos à população, como hospitais e
centros de comando e controle, pelo alto nível de tarefas cognitivas e pelo grande
valor oferecido de forma contínua à sociedade. Além disso, também se espera que
novos indicadores e métodos neuroergonômicos possam ser incorporados ao método,
tanto pelo EEG quanto por outros instrumentos.
120
REFERÊNCIAS BIBLIOGRÁFICAS
ACEMOGLU, Daron; RESTREPO, Pascual. Robots and jobs: Evidence from US labor markets. 2017.
ÅKERSTEDT, Torbjörn. Shift work and disturbed sleep/wakefulness. Occupational medicine,
v. 53, n. 2, p. 89-94, 2003.
AMABILE, R. A. N. Remoção de Artefatos e Análise de Parâmetros Espetrais em Sinais de EEG: Efeitos do Fármaco Flunitrazepam. Engenharia Eléctrica, v. Pos-Gradua, 2008.
ANDRADE, Fábio Felippe de. O método de melhorias PDCA. 2003. Tese de Doutorado.
Universidade de São Paulo.
ANDUJAR, Marvin; GILBERT, Juan E. Let's learn!: enhancing user's engagement levels through passive brain-computer interfaces. In: CHI'13 Extended Abstracts on Human Factors in Computing Systems. ACM, 2013. p. 703-708.
ARGYRIS, Ch; SCHÖN, Donald A. Organizational learning: A theory of action perspective. Reis, n. 77/78, p. 345-348, 1997.
ATCHLEY, Paul; CHAN, Mark; GREGERSEN, Sabrina. A strategically timed verbal task improves performance and neurophysiological alertness during fatiguing drives. Human
factors, v. 56, n. 3, p. 453-462, 2014.
AZADEH, Ali et al. Performance optimization of integrated resilience engineering and lean production principles. Expert Systems with Applications, v. 84, p. 155-170, 2017.
BALLOU, Ronald H. Gerenciamento da Cadeia de Suprimentos-: Logística Empresarial.
Bookman Editora, 2009.
BARCELLINI, Flore; DE GREEF, Tjerk; DÉTIENNE, Françoise. Editorial for special issue on cognitive ergonomics for work, education and everyday life. 2016.
BARNES, Ralph Mosser. Estudo de movimentos e de tempos: projeto e medida do trabalho. Editora Edgard Blucher, 1977.
BATALHA, Mario. Introdução à engenharia de produção. Elsevier Brasil, 2013.
BEAR, Mark F.; CONNORS, Barry W.; PARADISO, Michael A.Neurociências: desvendando o sistema nervoso. Artmed Editora, 2008.
BELENKY, Gregory et al. Patterns of performance degradation and restoration during sleep restriction and subsequent recovery: A sleep dose-response study. Journal of sleep research, v. 12, n. 1, p. 1-12, 2003.
BERBERIAN, Bruno et al. The out-of-the-loop Brain: A neuroergonomic approach of the human automation interaction. Annual Reviews in Control, 2017.
BIAN, Jun et al. The Study on Neuro-IE Management Software in Manufacturing Enterprises:—The Application of Video Analysis Technology. Physics Procedia, v. 33, p.
1608-1613, 2012.
BLANCHARD, Olivier. Macroeconomia. 5ª edição. 2011.
BLIGARD, Lars‐ Ola; OSVALDER, Anna‐ Lisa. CCPE: Methodology for a Combined Evaluation of Cognitive and Physical Ergonomics in the Interaction between Human and Machine. Human Factors and Ergonomics in Manufacturing & Service Industries, v. 24, n. 6, p. 685-711, 2014.
121
BORGHETTI, Brett J.; GIAMETTA, Joseph J.; RUSNOCK, Christina F. Assessing continuous operator workload with a hybrid scaffolded neuroergonomic modeling approach. Human factors, v. 59, n. 1, p. 134-146, 2017.
BROADBENT, Donald Eric. Perception and communication. Elsevier, 2013.
BYRNE, Evan A.; PARASURAMAN, Raja. Psychophysiology and adaptive automation.
Biological psychology, v. 42, n. 3, p. 249-268, 1996.
CAUSSE, Mickael et al. The effects of emotion on pilot decision-making: A neuroergonomic approach to aviation safety. Transportation research part C: emerging technologies, v. 33, p. 272-281, 2013.
CAMIÑO, Leonardo Esch. Aplicação de conceitos de Lean Seis Sigma para incremento de volume de vendas: um estudo de caso em uma indústria de bebidas. 2017.
CHAOUACHI, Maher et al. Affect and mental engagement: towards adaptability for intelligent systems. In: Proceedings of the 23rd International FLAIRS Conference. AAAI
Press, 2010.
CHRISTENSEN, Clayton M. Exploring the limits of the technology S‐ curve. Part I: component technologies. Production and Operations Management, v. 1, n. 4, p. 334-357, 1992.
CHUA, Zarrin; CAUSSE, Mickaël. Aging Effects on Brain Efficiency in General Aviation Pilots. In: Advances in Neuroergonomics and Cognitive Engineering. Springer, Cham, 2017. p.
243-254.
COCHRAN, William G. Sampling techniques. John Wiley & Sons, 2007.
COMSTOCK JR, J. Raymond; ARNEGARD, Ruth J. The multi-attribute task battery for human operator workload and strategic behavior research. 1992.
CORRÊA, Fábio de Paula. Carga mental e ergonomia. 2003.
CORRÊA, Henrique L.; CORRÊA, Carlos A. Administração de Produção E Operações: Manufatura E Serviços: Uma Abordagem Estratégica . Editora Atlas SA, 2012.
COSTA, Luis Sergio Salles; CAULLIRAUX, Heitor M. Manufatura integrada por computador. Rio de Janeiro: Campus, 1995.
COSTA, Ricardo Sarmento; JARDIM, Eduardo Galvão Moura. As cinco principais dimensões do diagnóstico operacional.Net, Rio de Janeiro, 2010.
CRANDALL, Beth; KLEIN, Gary A.; HOFFMAN, Robert R. Working minds: A practitioner's guide to cognitive task analysis. Mit Press, 2006.
DA COSTA, Dassayevy Fernandes et al. Utilização da Engenharia de Métodos em uma Indústria Têxtil: um estudo de caso no interior do Rio de Janeiro. 2017.
DE MASI, D. Criatividade e grupos criativos: descoberta e invenção. Rio de Janeiro:
Sextante, v. 1, 2005.
DEGANI, Asaf. Taming HAL: Designing interfaces beyond 2001. Springer, 2004.
DEMOS, John N. Getting started with neurofeedback. WW Norton & Company, 2005.
DI STASI, Leandro L. et al. Task complexity modulates pilot electroencephalographic activity during real flights. Psychophysiology, v. 52, n. 7, p. 951-956, 2015.
DITTMAR, Anke; FORBRIG, Peter. Cognition, technology, and work: special issue on cognitive ergonomics for designing collaborative activities. 2013.
122
DUARTE, Luiz Carlos da Silva. ABORDAGEM COMPARATIVA ENTRE MÉTODOS DE SOLUÇÃO DE PROBLEMAS: O MIASP E O MÉTODO DAS 6 ETAPAS. XXVII Encontro Nacional de Engenharia de Produção, 2007.
EVANS, Jonathan St BT. Heuristic and analytic processes in reasoning. British Journal of Psychology, v. 75, n. 4, p. 451-468, 1984.
FAYOL, Henri. Administração industrial e geral: previsão, organização, comando, coordenação, cotrôle. Editôra Atlas, 1965.
FERREIRA, Gleisse Kelly Mendes; GONTIJO, Fábio de Brito. A Racionalização de Tempos e de Movimentos nos Processos Produtivos por meio da Engenharia de Métodos. In:
Congresso Mineiro de Engenharias e Arquitetura-CENAR. 2017.
FREEMAN, Frederick G. et al. Evaluation of an adaptive automation system using three EEG indices with a visual tracking task. Biological psychology, v. 50, n. 1, p. 61-76, 1999.
FREY, Carl Benedikt; OSBORNE, Michael A. The future of employment: how susceptible are jobs to computerisation?.Technological Forecasting and Social Change, v. 114, p. 254-280, 2017.
FILHO, Roberto Ivo da Rocha Lima. Aspectos neuroeconômicos da tomada de decisão na BM&FBovespa. 2013. Tese de Doutorado. Universidade de São Paulo.
FUNKE, Matthew E. et al. The neuroergonomics of vigilance: Effects of spatial uncertainty on cerebral blood flow velocity and oculomotor fatigue. Human factors, v. 59, n. 1, p. 62-
75, 2017
GEVINS, Alan; SMITH, Michael E. Electroencephalography (EEG) in neuroergonomics. Neuroergonomics: The brain at work, p. 15-31, 2006.
GHALI, Ramla; FRASSON, Claude. An Exploratory Study of Learners’ Brain States. In:
International Conference on Intelligent Tutoring Systems. Springer, Cham, 2014. p. 644-646.
GIRAUDET, Louise et al. The neuroergonomic evaluation of human machine interface design in air traffic control using behavioral and EEG/ERP measures. Behavioural brain research, v. 294, p. 246-253, 2015.
GOLDRATT, Eliyahu M.; COX, Jeff. A meta: um processo de aprimoramento contínuo. In: A meta: um processo de aprimoramento contínuo. Educator, 1995.
GONÇALVES, L. A. Um Estudo sobre a Transformada Rápida de Fourier e seu uso em Processamento de Imagens. URGS-Instituto de Matemática, Porto Alegre, 2004.
GONÇALVES, Micael Teixeira; SALONITIS, Konstantinos. Lean assessment tool for workstation design of assembly lines. Procedia CIRP, v. 60, p. 386-391, 2017.
GRAFMAN, Jordan. Executive functions. Neuroergonomics: The brain at work, p. 159-177, 2008.
GUÉRIN, François et al. Compreender o trabalho para transformá-lo: a prática da ergonomia. In: Compreender o trabalho para transformá-lo: a prática da ergonomia. Edgar Blucher,
2001.
GUJARATI, Damodar N. Basic econometrics. Tata McGraw-Hill Education, 2009.
HART, Sandra G. NASA-task load index (NASA-TLX); 20 years later. In: Proceedings of the human factors and ergonomics society annual meeting. Sage CA: Los Angeles, CA: Sage Publications, 2006. p. 904-908.
123
HART, Sandra G.; STAVELAND, Lowell E. Development of NASA-TLX (Task Load Index): Results of empirical and theoretical research. In: Advances in psychology. North-Holland, 1988. p. 139-183.
HAYES, Robert H.; UPTON, David; PISANO, Gary. Produção, estratégia e tecnologia: em busca da vantagem competitiva. Bookman, 2008.
HOLLNAGEL, Erik; WOODS, David D.; LEVESON, Nancy. Resilience engineering: Concepts and precepts. Ashgate Publishing, Ltd., 2007.
IIDA, Itiro. Ergonomia. projeto e produção. São Paulo: Editora Edgard Blucher, 2005.
ITTI, Laurent; KOCH, Christof. A saliency-based search mechanism for overt and covert shifts of visual attention.Vision research, v. 40, n. 10, p. 1489-1506, 2000.
JOHNSEN, Stig O.; KILSKAR, Stine Skaufel; FOSSUM, Knut Robert. Missing focus on Human Factors–organizational and cognitive ergonomics–in the safety management for the petroleum industry. Proceedings of the Institution of Mechanical Engineers, Part O: Journal of risk and reliability, v. 231, n. 4, p. 400-410, 2017.
JOHNSON, Addie; PROCTOR, Robert (Ed.).Neuroergonomics: A cognitive neuroscience approach to human factors and ergonomics. Springer, 2013.
JUNIOR, CCMF. Aplicação da ferramenta da qualidade (diagrama de Ishikawa) e do PDCA no desenvolvimento de pesquisa para a reutilização dos resíduos sólidos de coco verde. INGEPRO–Inovação, Gestão e Produção, v. 2, n. 09, 2010.
KAHNEMAN, Daniel. Thinking, fast and slow. Macmillan, 2011.
KANAANE, Roberto. Comportamento humano nas organizaçöes: o homem rumo ao século XXI. In: Comportamento humano nas organizaçöes: o homem rumo ao século XXI. Atlas, 1995.
KANNATHAL, N. et al. Entropies for detection of epilepsy in EEG. Computer methods and programs in biomedicine, v. 80, n. 3, p. 187-194, 2005
KAPLAN, Robert S.; NORTON, David P. The balanced scorecard: translating strategy into action. Harvard Business Press, 1996.
KENDALL, Gerald I. Visão viável: transformando o faturamento em lucro líquido. Porto Alegre: Bookmann, 2007
KESSLER, Gabriela Z. et al. Análise do nível de eficiência e produtividade em uma empresa do ramo de tecnologia para desenvolvimento da filosofia enxuta. XXXVI
Encontro Nacional de Engenharia de Produção. João Pessoa, 2016.
LAKATOS, Eva Maria; MARCONI, Marina de Andrade. Fundamentos da metodologia científica. In: Fundamentos da metodologia científica. 2010.
LEE, Gyusung I. et al. Comparative assessment of physical and cognitive ergonomics associated with robotic and traditional laparoscopic surgeries. Surgical endoscopy, v. 28, n. 2, p. 456-465, 2014.
LISBÔA, Maria da Graça Portela; GODOY, Leoni Pentiado. Aplicação do método 5W2H no processo produtivo do produto: a joia. Iberoamerican Journal of Industrial Engineering, v. 4,
n. 7, p. 32-47, 2012
MA, Qingguo et al. A research on the application of physiological status information to productivity enhancement. In: Electrical Engineering and Control. Springer, Berlin, Heidelberg, 2011. p. 801-808.
MADNI, Azad M.; JACKSON, Scott. Towards a conceptual framework for resilience engineering. IEEE Systems Journal, v. 3, n. 2, p. 181-191, 2009.
124
MALLIS, Melissa; BANKS, Siobhan; DINGES, J. F. Sleep and circadian control of neurobehavioral functions. 2008. Tese de Doutorado. Oxford University Press.
MATTHEWS, Gerald et al. The psychometrics of mental workload: multiple measures are sensitive but divergent. Human Factors, v. 57, n. 1, p. 125-143, 2015.
MATTHEWS, Robert; MCDONALD, Neil J.; TREJO, Leonard J. Psycho-physiological sensor techniques: an overview. In:11th International Conference on Human Computer Interaction (HCII). 2005. p. 22-27.
MEIRELLES, L.A., SALLES, M.M.F. (2007). Roteiro de projeto de posto de trabalho. Rio de Janeiro, UFRJ, Manuscrito.
MEREDITH, Jack R.; MANTEL JR, Samuel J. Administração de Projetos: Uma Abordagem Gerencial. Grupo Gen-LTC, 2000.
MCKEY, Michael G. Biofeedback: an overview in the context of heart-brain medicine. Cleveland Clinic Journal of Medicine, v. 75, p. S31, 2008.
MINTZBERG, Henry et al. Criando organizações eficazes. São Paulo: Atlas, p. 09-31, 1995.
MONTGOMERY, Douglas C. Introduction to statistical quality control. John Wiley & Sons
(New York), 2009.
MUSCAT, Antônio RN. Técnicas de avaliação da produtividade. 1995.
NACY, Somer M. et al. Controlling a Servo Motor Using EEG Signals from the Primary Motor Cortex. American Journal of Biomedical Engineering, v. 6, n. 5, p. 139-146, 2016.
NERY DE MATOS, C. A. et al. Proposed improvements to the sugar-alcohol industry based on knowledge of cognitive ergonomics. SHO2015: INTERNATIONAL SYMPOSIUM
ON OCCUPATIONAL SAFETY AND HYGIENE, 2015
OHNO, Taiichi. O sistema Toyota de produção além da produção. Bookman, 1997.
PARASURAMAN, Raja. Neuroergonomics: Brain, cognition, and performance at work. Current directions in psychological science, v. 20, n. 3, p. 181-186, 2011.
PARASURAMAN, Raja; GALSTER, Scott. Sensing, assessing, and augmenting threat detection: behavioral, neuroimaging, and brain stimulation evidence for the critical role of attention. Frontiers in human neuroscience, v. 7, p. 273, 2013.
PARASURAMAN, Raja; MOULOUA, Mustapha; MOLLOY, Robert. Effects of adaptive task allocation on monitoring of automated systems. Human factors, v. 38, n. 4, p. 665-679, 1996.
PARASURAMAN, Raja; RILEY, Victor. Humans and automation: Use, misuse, disuse, abuse. Human factors, v. 39, n. 2, p. 230-253, 1997.
PARASURAMAN, Raja; RIZZO, Matthew (Ed.).Neuroergonomics: The brain at work. Oxford
University Press, 2008.
PAULISTA, Paulo Henrique; GALDINO, Bruno Jose. MÉTODO DE ANÁLISE E SOLUÇÃO DE PROBLEMAS: ESTUDO DE CASO EM UMA EMPRESA DO RAMO ELETRÔNICO. XXXIV Encontro Nacional de Engenharia de Produção, 2014.
PEREIRA, Moacir. O uso da curva ABC nas empresas. São Paulo, 1999.
PEREIRA, Cinara Caetano et al. Análise do risco ergonômico lombar de trabalhadores da construção civil através do método NIOSH/Analysis of lumbar ergonomic risk of construction workers using the NIOSH method. Revista Produção Online, v. 15, n. 3, p. 914,
2015
125
POPE, Alan T.; BOGART, Edward H.; BARTOLOME, Debbie S. Biocybernetic system evaluates indices of operator engagement in automated task. Biological psychology, v. 40, n. 1, p. 187-195, 1995.
PORTER, Michael E. Vantagem competitiva: criando e sustentando um desempenho superior. Rio de Janeiro: Campus, 1992.
PRINZEL, Lawrence J. et al. A closed-loop system for examining psychophysiological measures for adaptive task allocation. The International journal of aviation psychology, v. 10,
n. 4, p. 393-410, 2000.
PROENÇA, Adriano. Capacitações dinâmicas e o dinamismo das capacitações: o enfoque centrado em capacitações e o processo estratégico. 2003
PROENÇA JÚNIOR, Domício; SILVA, Édison Renato. Contexto e processo do Mapeamento Sistemático da Literatura no trajeto da Pós-Graduação no Brasil. TransInformação, v. 28, n. 2, 2016.
REN, Fuchun et al. Resilience Optimization for Complex Engineered Systems Based on the Multi-Dimensional Resilience Concept. IEEE Access, v. 5, p. 19352-19362, 2017.
RIGHI, Angela Weber; SAURIN, Tarcisio Abreu. ENGENHARIA DE RESILIÊNCIA: UM PANORAMA DE SEUS ESTUDOS E PERSPECTIVAS DE PESQUISAS FUTURAS. XXXI
Encontro Nacional de Engenharia de Produção, 2011.
RIZZO, Matthew; KELLISON, Ida L. Eyes, brains, and autos.Archives of Ophthalmology, v.
122, n. 4, p. 641-647, 2004.
RUCHKIN, Daniel S. et al. Modality-specific processing streams in verbal working memory: evidence from spatio-temporal patterns of brain activity. Cognitive Brain Research, v. 6, n. 2, p. 95-113, 1997.
SANTOS, André Clementino de Oliveira et al. AVALIAÇÃO ERGONÔMICA DO POSTO DE TRABALHO NUMA INDÚSTRIA DE COLCHÕES. Revista Traços, v. 5, n. 10, 2017.
SCERBO, M. Adaptive automation. Neuroergonomics: The brain at work, v. 239252, 2007.
SCHAUFELI, Wilmar B. et al. The measurement of engagement and burnout: A two sample confirmatory factor analytic approach. Journal of Happiness studies, v. 3, n. 1, p. 71-92, 2002.
SCHRECKENGHOST, Debra et al. Procedure Automation: Sharing Work with Users. 2018.
SHIKDAR, Ashraf A.; AL-KINDI, Mahmoud A. Office ergonomics: deficiencies in computer workstation design.International Journal of Occupational Safety and Ergonomics, v. 13, n. 2,
p. 215-223, 2007.
SLACK, Nigel; CHAMBERS, Stuart; JOHNSTON, Robert. Administração da produção. Atlas,
2009.
SMITH, Adam. A riqueza das nações: investigação sobre a natureza e suas causas. Nova
Cultural, 1776.
SQUIRE, Larry et al. (Ed.). Fundamental neuroscience. Academic Press, 2012.
SOARES NETO, J. B.; ALEXANDRE, M. L. Neuromarketing: Conceitos e técnicas de análise do cérebro de consumidores. XXXI Encontro da ANPAD, 2007.
SPIEGEL, Thaís. Concepção de uma Linha de Pesquisa para o aumento da produtividade do Trabalho Cognitivo nas Organizações: A proposta de mapeamento e difusão das contribuições dos corpos teóricos da Ciência Cognitiva como ação de pesquisa inicial. 2009. Projeto de Graduação.
126
STOCK, James H.; WATSON, Mark W. Introduction to econometrics: Global edition.
Boston, MA: Pearson Education, 2012.
SUN, Hongyu et al. EEG-based safety driving performance estimation and alertness using support vector machine. Int J Secur Appl, v. 9, p. 125-134, 2015.
SZAFIR, Daniel; MUTLU, Bilge. Pay attention!: designing adaptive agents that monitor and improve user engagement. In: Proceedings of the SIGCHI conference on human factors in computing systems. ACM, 2012. p. 11-20.
TAYLOR, Frederick Winslow. The principles of scientific management. Harper, 1914.
TÉCNICAS, ASSOCIAÇÃO BRASILEIRAS DE NORMAS. NBR 5413: Iluminância de interiores. Rio de Janeiro, 1992.
TEECE, David J. Profiting from technological innovation: Implications for integration, collaboration, licensing and public policy. Research policy, v. 15, n. 6, p. 285-305, 1986.
TEIXEIRA, Ana Flávia Serpa; VISOTO, Nayanne Antunes Ribeiro; PAULISTA, Paulo Henrique. AUTOMAÇÃO INDUSTRIAL: SEUS DESAFIOS E PERSPECTIVAS. Revista Científica da FEPI-Revista Científic@ Universitas, 2016.
TRELHA, Celita Salmaso et al. Análise de posturas e movimentos de operadores de checkout de supermercado. Fisioterapia em Movimento, v. 20, n. 1, 2017.
VAN DONGEN, Hans et al. The cumulative cost of additional wakefulness: dose-response effects on neurobehavioral functions and sleep physiology from chronic sleep restriction and total sleep deprivation. Sleep, v. 26, n. 2, p. 117-126, 2003.
VARIAN, Hal R. Microeconomia: princípios básicos. Elsevier Brasil, 2006.
VASCONCELOS, I. F. G.; MOTTA, F. P. Teoria geral da administração. São Paulo: Thomson, 2002.
VIDAL, Mario Cesar et al. Introdução à ergonomia. Apostila do Curso de Especialização em Ergonomia Contemporânea/CESERG. Rio de Janeiro: COPPE/GENTE/UFRJ, 2000.
WARM, Joel S.; PARASURAMAN, Raja. Cerebral hemodynamics and vigilance. Neuroergonomics: The brain at work, p. 146-158, 2007
YOUNG, Charles. Brain waves, picture sorts®, and branding moments. Journal of Advertising Research, v. 42, n. 4, p. 42-53, 2002.
ZHANG, Jian-Hua et al. Classifying human operator functional state based on electrophysiological and performance measures and fuzzy clustering method. Cognitive
neurodynamics, v. 7, n. 6, p. 477-494, 2013.
ZHENG, Robert. Cognitive load measurement and application: a theoretical framework for meaningful research and practice. Routledge, 2018
top related