pontifícia universidade católica de são paulo puc-sp ... assef pierotti.pdflistinha de...
Post on 23-Jul-2020
0 Views
Preview:
TRANSCRIPT
Pontifícia Universidade Católica de São Paulo
PUC-SP
Juliana Assef Pierotti
Análise do desempenho dos alunos do curso de Direito de uma Universidade particular da
cidade de São Paulo nas avaliações do Enade
Mestrado Profissional em Educação: Formação de Formadores
São Paulo
2018
Juliana Assef Pierotti
Análise do desempenho dos alunos do curso de Direito de uma Universidade particular da
cidade de São Paulo nas avaliações do Enade
Mestrado Profissional em Educação: Formação de Formadores
Trabalho Final apresentado à Banca Examinadora da
Pontifícia Universidade Católica de São Paulo, como
exigência parcial para obtenção do título de MESTRE
PROFISSIONAL em Educação: Formação de Formadores,
área de concentração Formação de Formadores: Ação
Pedagógica e Avaliação, sob a orientação da Profa. Dra.
Clarilza Prado de Sousa.
São Paulo
2018
BANCA EXAMINADORA
______________________________________
______________________________________
_______________________________________
Autorizo, exclusivamente para fins acadêmicos e científicos, a reprodução total ou parcial desta
dissertação, por processos de fotocopiadoras ou eletrônicos.
Como sei pouco e sou pouco, faço pouco que me cabe me dando inteiro.
FERNANDO PESSOA
AGRADECIMENTOS
Esse processo de mestrado não foi pequeno e, praticamente, valeu por dois. Isso fez com que a
listinha de agradecimentos ficasse grande. Muita gente contribuiu de alguma forma para que
esse momento se tornasse possível e não posso deixar de agradecer a cada um que, direta ou
indiretamente, contribuiu.
A minha orientadora Clarilza Prado de Sousa pelos encontros e aprendizados.
Ao Nelson Gimenes que me acolheu e ouviu minhas angústias antes (e depois) de iniciar o
mestrado. E quando eu hesitei, ele me disse: “Ju, o tempo vai passar de qualquer jeito.” E
passou!
A professora doutora Sandra Ferreira que chegou em um momento difícil e trouxe leveza,
assertividade e muitas contribuições técnicas para que esta pesquisa pudesse ficar da forma que
ficou.
Ao Humberto Silva pela paciência e parceria no dia a dia do curso. E junto com ele, à toda
Turma 4 que compartilhou aulas, provas, ansiedades e, claro, qualificações e defesas bem
sucedidas.
A Adriana Reis e Luciana Pasqualucci pela abertura de horizontes com o “meu tema e eu”.
A Maritime pelas canetas com marcadores de texto para estudos e trabalhos.
A Sonia Wippich minha professora (de inglês e da vida) que me incentivou e me disse: “você
vai tirar de letra esse exame de proficiência”. Acreditava mais no meu inglês do que eu mesma.
Ainda me deu a honra de traduzir o resumo da pesquisa.
A tia Angélica Martins que, no meu primeiro mês de mestrado, me disse que tinha certeza que
meu trabalho seria um sucesso, mas que eu estivesse preparada para meses de muito estudo e
solidão. Você tinha razão, tia.
A Teresa por apostar em mim e me ajudar para que, no trabalho, as minhas ausências
“acadêmicas” fossem possíveis.
A Glória (in memoriam) e Maria Helena por acreditarem em mim e me concederem a
oportunidade de fazer o mestrado; ao João Luís e Lúcia por darem continuidade a esse desafio.
A Ana Maria que compartilhou aulas, sentimentos, sensações, dificuldades, vontades de
desistir, risadas, palhaçadas e muito aprendizado. O meu (mestrado) está saindo e o seu vai sair
também.
A Ana Maria e Maria José pelas ajudas “bibliográficas” e livros emprestados.
A Vivian não só pelos ensinamentos sobre como consultar artigos acadêmicos e a melhor forma
para encontrar os arquivos, como pela força, palavras de carinho e incentivo.
A Valéria que sempre teve uma palavra de acolhimento e vibrou junto comigo.
A Aninha por me mostrar o valor das pessoas e das coisas.
A Dra. Suely que, com seus conhecimentos, alto astral e disponibilidade, me ajudou na
indicação dos assuntos abordados em cada prova.
Aos meus “supers” de coração Adriana e Ari que me ajudaram na revisão do texto quando eu
“não sabia escrever”.
Ao Renato que contribuiu com o encontro de melhores palavras para atender às necessidades
acadêmicas.
A Flávia e a Manu que sempre estiveram a postos para compartilhar os momentos mais
agradáveis e os mais estranhos.
As “ricas” (Bia, Clélia, Erica e Michele) que compartilharam momentos difíceis de
“desestressar estressando”.
A Tia Márcia Melhem que, com toda experiência de orientação de alunos, me fez sentir mais
“normal” e me trouxe calma e tranquilidade para seguir estudando.
A Adriane Fin que, tenho certeza, é um anjo em forma de gente. Não mediu esforços para me
ajudar em tudo o que eu precisei: escrita, formatação, ideias etc. Foram muitos encontros,
telefonemas, áudios, e-mails e trabalho madrugadas adentro. Sem dúvida, uma das principais
responsáveis por ter conseguido concluir o trabalho.
Aos meus cunhados Aice e Maurício que sempre me deram forças e energias para continuar.
Aos meus irmãos Gustavo e Marcela que fizeram questão de me mostrar que eu estava no
caminho certo e me apoiaram nas diversas formas, até com chamadas de vídeo, para que
pudesse ver os meus sobrinhos e esquecer um pouco o cansaço.
Aos meus pilares de alegria Dante, Dora e Bento, sobrinhos amados e de quem, sorrateiramente,
roubei boas energias e sorrisos puros, abraços apertados e beijos carinhosos, que me
energizaram para seguir em frente.
E, por fim, aos meus amados pais, Luiza e Geraldo, que sempre estiveram incondicionalmente
ao meu lado, sofrendo junto, compartilhando da “montanha russa de sensações”, ouvindo
minhas histórias, me incentivando, me apoiando, aceitando minhas ausências, meus cansaços e
não me deixando esmorecer e nem desistir.
RESUMO
PIEROTTI, Juliana Assef. Análise do desempenho dos alunos do curso de Direito de uma
Universidade particular da cidade de São Paulo nas avaliações do Enade. 2018. 119 fls.
Dissertação de Mestrado Profissional (Programa de Estudos Pós-Graduados em Educação:
Formação de Formadores). Pontifícia Universidade Católica de São Paulo (PUC-SP). São
Paulo: 2018.
A presente pesquisa buscou analisar o desempenho dos alunos do curso de Direito de uma Instituição
de Educação Superior (IES) a partir dos dados públicos disponibilizados pelo Instituto Nacional de
Estudos e Pesquisas Educacionais Anísio Teixeira (Inep) referentes aos resultados obtidos nas provas
do Exame Nacional de Desempenho dos Estudantes (Enade) dos anos de 2006, 2009, 2012 e 2015. A
análise quali-quantitativa consistiu da comparação dos Índices de Discriminação e Índices de Facilidade
das questões de Componente Específico mais acertadas e mais erradas pelos estudantes do curso de
Direito dessa IES em relação ao total de estudantes de Direito (participantes do exame) do Brasil.
Também foi feita a verificação dos conteúdos curriculares de melhor e pior desempenho desses dois
grupos. Englobando análise documental, análise de resultado de exames e contextualização
histórica do surgimento dos testes de inteligência e suas influências para a criação da Avaliação
de Larga Escala na Educação Superior, esta pesquisa buscou ainda indicar perspectivas de uso
dessas informações para o processo de planejamento e aperfeiçoamento da proposta pedagógica
de um curso, considerando o desempenho de seus respectivos alunos nas provas realizadas.
Percebemos que os resultados ainda estão sendo tratados de forma regulamentadora e a criação
de rankings se mantém, deixando de agregar na proposta de formação de novos cidadãos
trabalhadores.
Palavras-chave: Avaliação da Educação Superior. Enade. Uso dos resultados da Avaliação.
Curso de Direito. Índice de Discriminação. Índice de Facilidade. Testes. Psicometria.
ABSTRACT
This research is the analysis of the performance of Law students from a High Educational
Institution based on public data made available by Instituto Nacional de Estudos e Pesquisas
Educacionais Anísio Teixeira (Inep) on results obtained in the Students Performance National
Exam (Enade) in 2006, 2009, 2012 and 2015.The qualitative and quantitative analysis is the
comparison of Discrimination and Facilities Levels in Specific Component in more accurate
and more wrong questions by Law students from this Institution compared to the total number
of Law students who participated all over Brazil. It was also verified the curricular contentes
with best and worst performance of these two groups. Covering documental analysis, results
analysis and historical textualization of the emergence of intelligence tests and their influences
for the creation of the Large Scale High Education Appraisal, this research aimed to indicate
perspectives of the use of these informations for the planning and improvement process on the
pedagogical proposal of a course, considering their respective students performance in the tests.
We noticed that results are still being addressed in a regulatory manner and the creation of
rankings is kept with a lack of aggregation in the formation proposal of new workers.
Keywords: Evaluation of higher education. Enade. Use of Evaluation Results. Law course.
Discrimination Index. Facility Index. Tests. Psychometry.
LISTA DE ABREVIATURAS E SIGLAS
Abric Associação Brasileira de Universidades Comunitárias
Ades Avaliação Discente da Educação
Ana Avaliação Nacional da Alfabetização
Andifes Associação das Instituições Federais do Ensino Superior
Capes Coordenação de Aperfeiçoamento de Pessoal de Nível Superior
CES Câmara de Educação Superior
CFE Conselho Federal de Educação
CNE Conselho Nacional de Educação
CPA Comissão Própria de Avaliação
CPC Conceito Preliminar de Curso
DCN Diretrizes Curriculares Nacionais
EAD Ensino a Distância
Enade Exame Nacional de Desempenho dos Estudantes
ENC Exame Nacional de Cursos
Enem Exame Nacional do Ensino Médio
FCC Fundação Carlos Chagas
Geres Grupo Executivo para Reforma da Educação Superior
ID Índice de Discriminação
IDD Indicador de Diferença entre o Desempenho
IES Instituição de Educação Superior
IF Índice de Facilidade
IGC Índice Geral de Cursos
Inep Instituto de Pesquisas Educacionais Anísio Teixeira
Isop Instituto de Seleção e Orientação Profissional
Ldben Lei de Diretrizes e Bases da Educação Nacional
MEC Ministério da Educação
OAB Ordem dos Advogados do Brasil
Paiub Programa de Avaliação Institucional das Universidades Brasileiras
Paru Programa de Avaliação da Reforma Universitária
PPP Projeto Político Pedagógico
Saeb Sistema de Avaliação da Educação Básica
Saresp Sistema de Avaliação de Rendimento Escolar do Estado de São Paulo
Sinaes Sistema Nacional de Avaliação do Ensino Superior
UNE União Nacional dos Estudantes
LISTA DE QUADROS
Quadro 1 – Enade 2006: estatísticas gerais ......................................................................... 65
Quadro 2 – Enade 2009: estatísticas gerais ......................................................................... 65
Quadro 3 – Enade 2012: estatísticas gerais ......................................................................... 66
Quadro 4 – Enade 2015: estatísticas gerais ......................................................................... 66
Quadro 5 – Informações complementares sobre as provas ................................................. 68
Quadro 6 – Conteúdos abordados nas questões do Componente Específico – Enade 2006
............................................................................................................................................. 74
Quadro 7 – Conteúdos abordados nas questões do Componente Específico – Enade 2009
............................................................................................................................................. 75
Quadro 8 – Conteúdos abordados nas questões do Componente Específico – Enade 2012
............................................................................................................................................. 78
Quadro 9 – Conteúdos abordados nas questões do Componente Específico – Enade 2015
............................................................................................................................................. 80
Quadro 10 – Lista de disciplinas/objetos de conhecimento cobradas e a frequência em que
aparecem em todos os anos de Enade do curso de Direito ................................................. 82
Quadro 11 – Disciplinas/objetos de conhecimento que são destaque nas questões do Enade
2006 ..................................................................................................................................... 85
Quadro 12 – Desempenhos nas questões do Enade 2006 .................................................... 86
Quadro 13 – Referências para ID e IF ................................................................................. 87
Quadro 14 – Disciplinas/objetos de conhecimento que são destaque nas questões do Enade
2009 ..................................................................................................................................... 89
Quadro 15 – Desempenhos nas questões do Enade 2009 .................................................... 90
Quadro 16 – Referências para ID e IF ................................................................................. 91
Quadro 17 – Disciplinas/objetos de conhecimento que são destaque nas questões do Enade
2012 ..................................................................................................................................... 92
Quadro 18 – Desempenhos nas questões do Enade 2012 .................................................... 93
Quadro 19 – Referências para ID e IF ................................................................................. 94
Quadro 20 – Disciplinas/objetos de conhecimento que são destaque nas questões do Enade
2015 ..................................................................................................................................... 95
Quadro 21 – Desempenhos nas questões do Enade 2015 .................................................... 96
Quadro 22 – Referências para ID e IF ................................................................................. 97
Quadro 23 – Questões com Desempenho Ineficiente – Enade 2006 ................................... 101
Quadro 24 – Questões com Desempenho Ineficiente – Enade 2009 ................................... 102
Quadro 25 – Questões com Desempenho Ineficiente – Enade 2012 ................................... 102
Quadro 26 – Questões com Desempenho Ineficiente – Enade 2015 ................................... 103
LISTA DE FIGURAS
Figura 1 – Exemplo de questão da prova do Enade ............................................................ 99
SUMÁRIO
INTRODUÇÃO ................................................................................................................. 14
Objetivo geral ............................................................................................................. 16
Objetivos específicos ................................................................................................ 16
Estudos correlatos ...................................................................................................... 16
CAPÍTULO I – O SURGIMENTO DOS TESTES EDUCACIONAIS E SUA
RELAÇÃO COM A AVALIAÇÃO DE LARGA ESCALA .......................................... 20
1.1 – Breve histórico da trajetória dos Testes Psicológicos aos Testes Educacionais......... 20
1.2 – O desenvolvimento dos Testes Educacionais no Brasil ............................................. 23
1.3 – Os testes de múltipla escolha e a Psicometria ............................................................ 25
1.4 – A Avaliação: histórico e desafios ............................................................................... 29
1.4.1 – A Avaliação de Larga Escala................................................................................... 31
1.4.2 – A Avaliação da Educação Superior no Brasil ......................................................... 34
1.4.2.1 – O desenvolvimento histórico da Avaliação de Larga Escala na Educação
Superior do Brasil ................................................................................................................ 38
1.4.2.1.1 – O Exame Nacional de Cursos – o Provão.......................................................... 40
1.4.2.1.2 – O Sistema Nacional de Avaliação da Educação Superior (Sinaes) ................... 43
1.4.2.1.3 – O Exame Nacional de Desempenho de Estudantes (Enade) ............................. 47
1.5 – A avaliação do curso de Direito e a participação da OAB nesse processo ................ 50
1.5.1 – O Enade do curso de Direito ................................................................................... 51
1.5.2 – A prova do Enade de Direito ................................................................................... 53
1.5.2.1 – Enade 2006 ........................................................................................................... 54
1.5.2.2 – Enade 2009 ........................................................................................................... 55
1.5.2.3 – Enade 2012 ........................................................................................................... 56
1.5.2.4 – Enade 2015 ........................................................................................................... 56
CAPÍTULO II – PERCURSO METODOLÓGICO ...................................................... 58
2.1 – Análise de documentos ............................................................................................... 58
2.1.1 – Análise de itens ........................................................................................................ 59
2.1.2 – Dados da prova do Enade do curso de Direito ........................................................ 63
CAPÍTULO III – ANÁLISE DOS DADOS ................................................................... 73
3.1 – Análise dos objetos de conhecimentos abordados ...................................................... 73
3.2 – A Análise do funcionamento técnico de questões do Componente Específico .......... 83
3.2.1 – Itens com melhor desempenho ................................................................................ 84
3.2.2 – Itens com desempenho ineficiente ........................................................................... 101
RECOMENDAÇÕES FINAIS ........................................................................................ 106
REFERÊNCIAS BIBLIOGRÁFICAS ............................................................................ 110
14
INTRODUÇÃO
Minha trajetória profissional sempre esteve, de alguma maneira, ligada à Educação.
Além de ser filha de professora, em 2000, terminei o curso de Psicologia na Universidade
Católica de Santos1 e, depois de passar por diversos trabalhos com formação de pessoas
(crianças, jovens e adultos), busquei novos desafios e iniciei, em 2009, a atividade de
Psicometrista, na Fundação Carlos Chagas (FCC)2, onde estou há nove anos realizando, entre
outras coisas, a análise do desempenho das questões de provas de concurso público desta
instituição.
A Psicometria vem de Psico = mente/alma, Metria = medida. O desenvolvimento das
medidas educacionais e o surgimento dos fundamentos teóricos da medida, no processo de
mensuração da inteligência, trouxeram como consequência a criação de uma área de estudo: a
Psicometria3.
Uma das áreas de atuação da Psicometria é a análise do desempenho de itens/questões
que compõe uma prova, em relação aos sujeitos a ela submetida. A prova é um dos instrumentos
de medida usados para avaliar e/ou selecionar pessoas. Atualmente, há uma imensurável
quantidade de Avaliações que utilizam questões (objetivas e/ou discursivas) e, para essa
pesquisa, optamos pelo enfoque na Avaliação de Larga Escala.
Nos últimos anos, a Avaliação de Larga Escala passou a ser utilizada no Brasil de forma
mais constante e com objetivos de apontar resultados, não só para o ensino e aprendizagem de
alunos e professores, como também para uma avaliação mais focada em infraestrutura, Plano
Político Pedagógico (PPP) e formação do corpo docente. Os resultados dessas avaliações, no
entanto, nem sempre são utilizados de forma a trazer tomadas de decisões voltadas para o
desenvolvimento das Instituições, dos cursos e dos alunos avaliados.
Assim, a presente pesquisa visa indicar perspectivas de utilização desses resultados a
partir de dados publicados pelo Instituto de Pesquisas Educacionais Anísio Teixeira (Inep) e
divulgados nacionalmente. Foi feito um levantamento do desempenho dos alunos do curso de
Direito em uma Instituição de Educação Superior (IES) de alto prestígio nas provas do Exame
Nacional de Desempenho dos Estudantes (Enade)4, nos anos de 2006, 2009, 2012 e 2015. Os
1 http://www.unisantos.br/ 2 http://www.fcc.org.br/fcc/ 3 Melhor explicado e apresentado no Capítulo II desta pesquisa. 4 Melhor explicado e apresentado no Capítulo II desta pesquisa.
15
resultados obtidos pelos alunos do curso de Direito dessa IES, aqui chamada de Universidade
(ou IES) Alpha, foram comparados com os dados obtidos pelos alunos desse mesmo curso em
todo Brasil.
A presente pesquisa justifica-se na medida em que oferece a outros cursos a perspectiva
de analisar seus próprios dados, considerando os resultados que a Avaliação de Larga Escala
pode ter.
Existem atualmente no Brasil mais de um milhão (1.072.857) de advogados5 e cerca de
1.200 cursos6 de Direito. Além disso, o Brasil tem uma proposta de Avaliação de Larga Escala
para os cursos de nível superior (o Enade) que apresenta resultados, índices e apontamentos a
serem considerados para fundamentar decisões.
A partir do que afirmam Gentil et al. (2008) sobre a má formação profissional dos alunos
dos cursos de Direito, tal perspectiva de oferecer subsídios para fazer da avaliação um processo
que realmente contribua para a tomada de decisões curriculares e institucionais parece ser
fundamental.
Nos quatro ciclos do Enade realizados até o presente momento, o desempenho dos
estudantes (intitulado Conceito Enade7) do curso de Direito da IES escolhida passou de 5, no
primeiro ano de avaliação (2006), para 3, no segundo ciclo, em 2009, resultado que se manteve
nas últimas duas avaliações realizadas até hoje.
Na perspectiva de contribuir para o processo de avaliação, é um desafio fazer com que
os resultados orientem a prática da IES, especialmente do curso de Direito, constituindo-se
como um importante instrumento de dados e informações norteadores para o Projeto Político
Pedagógico (PPP).
Nesse sentido, este trabalho assumiu o compromisso de contribuir para que os resultados
da Avaliação de Larga Escala possam ajudar a aprimorar as propostas curriculares e,
consequentemente, a formação de profissionais.
Portanto, considerando a existência de uma proposta de avaliação dos cursos de IES, a
diminuição do Conceito Enade nos últimos 4 ciclos de avaliação na Universidade Alpha e a
possibilidade de uso dos resultados da Avaliação para o aperfeiçoamento da qualidade da
5 http://www.oab.org.br/institucionalconselhofederal/quadroadvogados 6 http://www.oab.org.br/ 7 O conceito Enade será melhor explicado e detalhado no Capítulo II desta pesquisa.
16
educação oferecida, buscamos analisar o desempenho dos alunos na aplicação das provas do
Enade, estabelecendo um diálogo entre os resultados dos dados analisados e a atribuição de
motivos para os resultados encontrados, por meio dos seguintes objetivos:
Objetivo geral
Analisar os resultados obtidos por alunos do curso de Direito, de uma Instituição de
Educação Superior (Universidade/IES Alpha), nas questões de Componente Específico das
provas do Enade de 2006, 2009, 2012 e 2015, indicando perspectivas de uso dos resultados para
o aprimoramento do Projeto Político Pedagógico da IES.
Objetivos específicos
Analisar os resultados do Exame Nacional de Desempenho dos Estudantes no curso de
Direito da Universidade Alpha.
Comparar os resultados do Enade do curso de Direito desta IES com os resultados da
média nacional dos cursos de Direito do Brasil.
Discutir as contribuições da Avaliação de Larga Escala para o processo de formação
dos estudantes do curso de Direito da Universidade Alpha.
Estudos correlatos
A realização de estudos correlatos sobre a temática é fundamental para o
desenvolvimento de uma pesquisa, uma vez que permite conhecer as diferentes problemáticas
e desafios que pesquisadores têm enfrentado em seus estudos. Na presente pesquisa
circunscrevemos os estudos correlatos ao período de dezembro de 2017 a maio de 2018.
Inicialmente buscamos no site Educ@8 (http://educa.fcc.org.br/) textos e artigos
científicos, além de livros, que tratassem de assuntos correlatos. Foi possível encontrar o que
8 O Educ@ é um indexador on-line que oferece um amplo acesso a coleções de periódicos científicos na área da
educação. Utiliza-se da metodologia Scientific Electronic Library Online (SciELO), que é um modelo para a
publicação eletrônica de periódicos científicos na internet. Permite a publicação eletrônica de edições completas
de periódicos científicos (revistas, jornais, artigos, etc.) a organização de bases de dados bibliográficas e textos
completos, com uma recuperação eficiente e imediata de textos a partir de seus conteúdos, bem como a preservação
dos arquivos eletrônicos. Contém ainda procedimentos integrados para medir o uso e o impacto da literatura
17
há de mais atual acerca de avaliação do Ensino Superior e inúmeros artigos foram selecionados
para leitura e posterior explanação ao longo desta dissertação. Feitas essas leituras, utilizando
o Banco de Dados da Biblioteca de Teses e Dissertações (BDTD)9, fizemos a busca pelos
termos Direito e Enade. Foram encontradas 291 pesquisas e, após a análise e leitura dos
resumos, introdução e conclusão selecionamos, como subsídio para nosso estudo, o trabalho de
Bezerra Junior (2016), que apresentou uma comparação entre as provas do Enade e a da Ordem
dos Advogados do Brasil (OAB), ambas ocorridas no ano de 2012, utilizando a taxonomia dos
Objetivos Educacionais de Benjamin Bloom.
Bezerra Junior (2016), indicando o grande número de cursos de Direito existentes no
Brasil, relata que, em 2013, houve uma atitude suspensiva no que diz respeito à criação de
novos cursos na área. Mas, com as pressões advindas, especialmente das faculdades privadas,
o MEC autorizou, em 2015, a retomada da criação de novos cursos.
O autor apresenta o funcionamento das Avaliações de Larga Escala na Inglaterra, que,
diferente do Brasil, são realizadas por corporações de profissionais independentes e não,
necessariamente, pelo governo, indicando a necessidade do Brasil se espelhar nesse modelo e
utilizar terceiros para melhorar a proposta de avaliação. Reforça um dos principais pressupostos
da área de avaliação compartilhado por Luckesi (1994) e Perrenoud (1999) de que avaliar
pressupõe uma Tomada de Decisão, ou seja, não basta apenas ter conhecimento do que fora
avaliado se nenhuma atitude for tomada em relação ao que foi obtido como resultado.
Procurando ampliar a busca por estudos correlatos, foram feitas novas combinações de
análise no site do BDTD utilizando as palavras-chaves Enade + Curso de Direito e,
posteriormente, Avaliação de Larga Escala e Curso de Direito que indicaram pesquisas não
correlatas. Utilizando apenas a palavra-chave Enade, foram identificadas 430 pesquisas, sendo
283 Dissertações. Fizemos um filtro, lendo os resumos, as introduções e as conclusões das que
tinham, no título, alguma indução para pesquisas com Avaliação de Larga Escala, ou Enade, ou
Avaliações de cursos de Direito e selecionamos os estudos de Campos (2013) e Oliveira (2017).
A pesquisa de Campos (2013) trata da elaboração da prova do Enade no modelo do
Banco Nacional de Itens. Aponta para a necessidade de a avaliação nacional dos estudantes do
nível superior conseguir mensurar a apreensão de conhecimento relativo para cada curso. É
científica com indicadores estatísticos, a partir dos quais especialistas poderão analisar a literatura incluída na
biblioteca. 9 http://bdtd.ibict.br/vufind/
18
necessário que os resultados oferecidos demonstrem a capacidade do estudante avaliado
absorver conteúdos e conhecimentos relativos ao seu respectivo mundo do trabalho.
Compartilhando dessa perspectiva de Avaliação, na Educação Superior, mais do que um
processo de classificação de alunos e cursos, para Marinho (2012) a avaliação deve ser
compreendida como uma investigação de formação humana e construção de cidadania. Nesse
sentido, de acordo com Inep/Mec10, o Enade tenta cumprir tal papel na medida em que propõe
que a avaliação não seja estanque e nem tampouco voltada, somente, para os conhecimentos
adquiridos, mas, que tenha foco no desenvolvimento de competências e habilidades que o
profissional precisa para entrar no mercado de trabalho.
A pesquisa de Oliveira (2017) aborda o componente de Formação Geral dos anos 2010,
2011 e 2012, correspondentes ao terceiro ciclo do Enade. Para esta pesquisa, interessaram
especialmente os dados obtidos com a prova do ano de 2012, em que a área de Direito foi
avaliada pelo ciclo do Enade. O autor avaliou as questões de Formação Geral, com base na
Teoria Clássica da Medida, e concluiu que os dados obtidos com a análise das questões o
levaram a entender que tais questões não servem para medir o que se propõe, por apresentarem
índices (de Discriminação) muito irrelevantes.
A Teoria Clássica da Medida, para Pasquali (1997) a Teoria Clássica dos Testes (ou
Medidas), foi criada a partir dos estudos que trataram da correlação. Desenvolvida por
Spearman, essa teoria serve para avaliar duas importantes características psicométricas: a
validade e a confiabilidade de um teste. É voltada para o desempenho do teste como um todo,
ou seja, a soma de todas as respostas dadas, e não uma análise individualizada dos itens. Para
DeVellis (2006), trata-se de um conjunto de técnicas e conceitos usados para a definição e o
desenvolvimento de instrumentos de medidas.
Para Portney e Watkins (1993), validade, é a capacidade que uma questão tem para
medir aquilo que se propõe. Confiabilidade, para Armstrong, White e Saracci (1995), é a
possibilidade de reprodutibilidade – ou não – da medida.
Os resultados apontados pelo autor (OLIVEIRA, 2017) são úteis no que diz respeito à
qualidade das avaliações propostas, inclusive por mencionar que a diferença de desempenho
dos alunos ingressantes em relação aos alunos concluintes, nesses 3 anos de avaliação, foi
pequena ou até maior por parte dos ingressantes.
10 http://portal.inep.gov.br/enade
19
Nesse sentido, questiona-se como é possível que, mesmo após uma trajetória
universitária quase completa, um estudante não obtenha nenhum ganho de conteúdo,
habilidades ou conhecimentos no que diz respeito à Formação Geral. Será que, como
questionam Cortelazzo & Ribeiro (2013), os objetivos dos Componentes de Formação Geral se
aproximam mais de uma formação de Ensino Médio do que da formação universitária? E, se
for isso uma verdade, para que continuar avaliando a Formação Geral se ela não é objeto das
Instituições de Educação Superior?
Apoiado no que estudou Oliveira (2017), acrescido da importância das questões da área
de Componente Específico para a formação de um profissional da área de Direito, na presente
pesquisa, realizamos apenas as análises das questões de Componente Específico que
compuseram as provas do Enade de 2006, 2009, 2012 e 2015.
Dessa forma, além da Introdução, segue-se, no Capítulo I, um breve histórico da criação
e trajetória dos testes psicológicos aos testes educacionais, no mundo e no Brasil, chegando às
influências para o desenvolvimento das Avaliações Larga Escala, fazendo uma pequena
contextualização dos principais processos avaliativos existentes no Brasil até chegar ao Sistema
Nacional de Avaliação do Ensino Superior (Sinaes) que propôs, em 2004, a criação da prova
Enade para avaliação das IES até os dias atuais.
Na sequência, no Capítulo II, o percurso metodológico com os critérios para a seleção
das provas, consulta a relatórios e pesquisas (de dados) realizadas. Há, também, uma breve
apresentação sobre a análise de itens e os procedimentos utilizados para a análise das quatro
provas objetivas.
Após isso, no Capítulo III, apresentamos a análise dos dados das provas de Direito do
Enade, avaliadas nos quatro ciclos (de três anos cada um), com a comparação entre o
desempenho dos alunos da Universidade Alpha (universidade particular da cidade de São
Paulo) e o desempenho dos alunos do Brasil.
Finalmente, nas Considerações Finais, argumentamos sobre a realização dos objetivos
propostos no início deste trabalho, as limitações encontradas e as sugestões acerca de outros
estudos que possam surgir a partir desse foco.
20
CAPÍTULO I – O SURGIMENTO DOS TESTES EDUCACIONAIS E SUA RELAÇÃO
COM A AVALIAÇÃO DE LARGA ESCALA
As provas/testes/avaliações fazem parte do dia a dia dos sujeitos desde muito cedo, pelas
situações e escolhas que fazemos. Ao entrar em uma nova escola, ao começar um curso, ao
participar de competições esportivas ou ao escolher um simples prato de comida, em todos esses
casos concretizam-se seleções que apontam para uma experiência de tomadas de decisões e,
portanto, análise de contexto/avaliação.
De acordo com Vianna (1989), escolher entre duas ou mais coisas significa julgar o
valor de cada uma e optar pela melhor. De acordo com Stake (2004), todos nós nascemos
avaliadores, mas não necessariamente bons avaliadores.
Considerando que grande parte dos testes educacionais atuais surgiu na Psicologia, com
a criação dos testes de inteligência, propomos neste capítulo retomar essa discussão sobre os
testes de inteligência e sua origem. Segundo Abrantes (2011), antes de 1800 não havia seleção
intelectual, a seleção era apenas física, e foi somente quando o trabalho manual começou a ser
substituído por máquinas e tecnologias que começou a ser exigida mais capacidade intelectual
dos trabalhadores, pois o rendimento intelectual poderia ajudar no exercício do trabalho.
Embora importante, mesmo um bom desempenho físico não poderia, sozinho, responder pelo
desenvolvimento de uma tarefa.
Os testes educacionais, a partir dos testes de inteligência e psicológico desenvolvidos
na Psicologia, buscavam, então, mensurar o conhecimento adquirido e não somente o
desenvolvimento das habilidades psicológicas.
Assim, descrevemos a trajetória histórica percorrida pelos testes psicológicos até o
desenvolvimento dos testes educacionais, que hoje são utilizados em processos amplos de
seleção de pessoal e Avaliação de Larga Escala.
1.1 – Breve histórico da trajetória dos Testes Psicológicos aos Testes Educacionais
Os relatos de autores como Silva (2011), Alves (1930), Anastasi (1965) e Pasquali
(2013) indicam que os testes têm início com as pesquisas de Francis Galton e Alfred Binet.
Francis Galton procurando evidenciar diferenças entre os indivíduos para que pudesse
21
quantificá-las, planejou, em 1883, a “régua de Galton” para a discriminação visual de
comprimento e o “apito de Galton” para a discriminação de maior altura audível.
A busca por resultados mensuráveis levou Galton a propor, em 1884 – quando montou
o Laboratório Antropométrico para a Feira Internacional de Londres, que os visitantes
passassem por testes físicos para tentar medir a sua inteligência. Sugeriu, por exemplo, medir
o tamanho da cabeça em relação ao tempo de resposta para uma determinada pergunta, supondo
que a pessoa com boa habilidade intelectual teria o sistema nervoso mais eficiente, e que isso
estaria relacionado ao tamanho do seu cérebro. Galton imaginava, assim, que medir o tamanho
da cabeça era um teste de inteligência mais simples.
Com a perspectiva de associação física ao desempenho, o suíço Lavater propôs, na
segunda metade do século XIX, que a personalidade estaria diretamente ligada às características
física do rosto e da cabeça: assim, quanto maior fosse o ângulo da face, maior a probabilidade
daquela pessoa ter o cérebro mais desenvolvido e ter a capacidade mental aumentada, o que foi
chamado de Cefalometria11. Evidentemente, tais estudos foram inconclusivos.
Depois disso, estudos do psicólogo americano James Cattell, em 1890, inauguraram
uma nova perspectiva e, como Galton, Cattell propôs um teste para medir a inteligência por
meio do tempo de reação: imaginava que quanto maior fosse a inteligência, maior seria a
eficácia do sistema nervoso, mais rápidos seriam os sinais cerebrais e, portanto, mais rápidas
as respostas. Embora tais proposições não tenham sido comprovadas, criou-se a possibilidade
de que a inteligência estaria ligada também à eficácia do sistema nervoso e não ao tamanho do
cérebro e/ou do rosto.
A partir dessa perspectiva, Alfred Binet, em 1903, desenvolveu seus estudos sobre as
faculdades psíquicas superiores, realizando uma pesquisa experimental na qual se valeu de suas
duas filhas. A fim de preservá-las, elas foram chamadas, respectivamente, de Marguérite
(quatro anos) e Armande (dois anos).
Do estudo com as filhas, utilizando o “método das perguntas”, desenvolveu o inquérito
que foi usado como modelo para as demais crianças francesas, comparando os pares (idades
similares) e gerando os testes padronizados. No entanto, Binet não procurava somente medir
diferenças, sua maior preocupação estava em diagnosticar as dificuldades de aprendizagens e
os seus estudos visavam desde diferenças individuais na inteligência aos diferentes estilos de
11 É a ciência que estuda as dimensões das estruturas do crânio e da face.
22
pensamento. A criação dos testes de inteligência, e mesmo o conceito de idade mental,
procurava servir de apoio a crianças com dificuldades para aprender.
Nessa trajetória histórica de busca de mensuração de indivíduos, de identificar
diferenças entre eles considerando suas capacidades, habilidades ou o que definiam por
inteligência, em 1905, Alfred Binet e Théodore Simon se associaram e criaram a escala Binet-
Simon, que pretendia medir a inteligência de crianças com o objetivo de identificar os possíveis
atrasos escolares.
Essa escala métrica era composta de muitas questões que apresentavam dificuldades
crescentes e eram aplicadas às crianças de idades diversas. Cada grupo de questões era referente
a uma determinada idade e inteligência, sendo que o teste tinha duração de duas horas e traçava
o perfil da personalidade. Os resultados apontavam para duas recomendações: (1) apresentar as
limitações de déficit de inteligência e (2) indicar as possíveis consequências causadas pelas
condições ambientais.
Com base nos resultados, fruto da média da aplicação em um grande número de pessoas,
foi criado um padrão de referência para cada idade. Quando o desempenho era inferior a essa
média obtida por faixa etária, considerava-se a criança com retardo mental. Assim, o
entendimento partia de uma relação artificial de que a idade cronológica da criança era igual à
idade mental. Conforme a diferença entre a idade cronológica e a mental, a criança era
classificada em: Idiota (grave); Imbecil (limitada e dependente); Deficiente mental (limitada,
mas com independência); ou Rendimento normal. No entanto, tratando-se de uma medida
externa e artificial, ainda que a escala determinasse que havia um retardamento, não era possível
conhecer as causas, de acordo com o que afirma Pasquali (2013).
Mais significativo, nesse sentido, acabou sendo a criação do quociente de inteligência
que, segundo Lewis Terman (1916), era resultado da relação descrita na equação:
𝑄𝐼 =𝑖𝑑𝑎𝑑𝑒 𝑚𝑒𝑛𝑡𝑎𝑙
𝑖𝑑𝑎𝑑𝑒 𝑐𝑟𝑜𝑛𝑜𝑙ó𝑔𝑖𝑐𝑎𝑋100
Onde:
QI = 100 – Normal;
QI < 100 – Retardo no desenvolvimento;
QI > 100 – Precoce.
23
Os conceitos e as definições de inteligência foram muitos e distintos, sempre seguindo
a ambição de poder selecionar pessoas de acordo com as habilidades requeridas. Di Dio (1972)
evidencia diversas definições a título de exemplificação: Bergson (1907, apud DI DIO, 1972,
p. 15) entendia a inteligência como “um poder indefinido de decompor segundo qualquer lei e
de recompor segundo qualquer sistema”; Thorndike (1904, apud DI DIO, 1972, p. 16) dizia que
“o valor de um escore é apenas o de predizer como uma pessoa se comportará em outra tarefa
intelectual”; Colvin (s.d. apud DI DIO, 1972, p.17) afirmava que “um indivíduo possui
inteligência na medida em que aprendeu ou pode aprender a ajustar-se ao meio”; Woodrow (s.d.
apud DI DIO, 1972, p.18) dizia que a definição de Inteligência é “a capacidade de adquirir
capacidade”, que é muito parecido com o conceito de Dearbon (s.d. apud DI DIO, 1972, p.20)
ao dizer que a “inteligência é a capacidade de aprender ou tirar proveito da experiência”. Já
para Guilford (s.d. apud DI DIO, 1972, p. 26), “a inteligência pressupõe as habilidades, mas
não se confunde com elas (...) ela é um todo, cujas partes são as habilidades”.
Procurando tornar mais complexo o conceito de inteligência, no século XX, Spearman
(s.d. apud Di Dio, 1972) propôs que os aspectos da atividade intelectual tinham em comum um
fator geral de inteligência – o chamado Fator G. Mas para Di Dio (1972) também existe um
Fator S, que são as habilidades específicas de cada ser humano.
Em contrapartida, autores de décadas anteriores como, Louis Thrustone (s.d. apud Di
Dio, 1972), entendiam que a inteligência estava baseada em vários fatores e não apenas em um.
Também é importante assinalar que o célebre Jean Piaget entendia que a inteligência estava
diretamente ligada ao desenvolvimento das estruturas cognitivas, articulando-se com a solução
de problemas intelectuais.
1.2 – O desenvolvimento dos Testes Educacionais no Brasil
Assim como no exterior, o Brasil se destacou com contribuições para o surgimento dos
testes e para a adaptação, a implementação e a consolidação destes. De acordo com Pasquali
(2013), Centofanti (2016), Alchieri e Cruz (2003), Campos, Gouvea e Guimarães (2014), com
forte influência do que acontecera na Europa, tanto na área de Educação quanto na Psicologia,
Manoel Bonfim, Isaías Alves, Helena Antipoff e Heraldo Vianna se destacaram na contribuição
para a adaptação e a implementação dos testes no Brasil.
24
Tendo ido estudar na França com Binet, Manoel Bonfim criou em 1912, o primeiro
laboratório de Psicologia, no Rio de Janeiro, sob supervisão de Binet. Antes da utilização de
testes, o autor acreditava que a observação dos indivíduos em seu meio social traria dados a
respeito da inteligência dos observados: por isso, defendia que essa era uma das maneiras de
medir a inteligência. A partir da aproximação com Binet, passou a utilizar os testes como fonte
de dados e publicou, em 1928, o Manual de Aplicação dos testes.
Isaías Alves, próximo do ano de 1926, traduziu a escala Binet-Simon (para o português)
e, a partir disso, o Governo da Bahia convidou-o para elaborar uma proposta de formação aos
professores da rede baiana com o objetivo de ensina-los a utilizar testes com seus alunos. Entre
1932 e 1935, criou o Serviço de Medidas Escolares, do Instituto de Educação.
Helena Antipoff, nascida na Rússia, em 1929, veio para o Brasil assumir a escola de
aperfeiçoamento de Professores de Belo Horizonte/MG, que tinha como finalidade a formação
continuada dos professores, tendo sido ainda responsável por padronizar os testes de QI em
Minas Gerais. Com a publicação do Manual de Aplicação dos testes de Bonfim, em 1928,
Antipoff deu continuidade, no decorrer da década de 20, aos testes pedagógicos como uma
tentativa de construir uma Pedagogia para o conhecimento da criança. Com isso, a mensuração
da inteligência passou a ser obrigatória para a definição de salas com idades mentais
homogeneizadas, passando a ser uma referência para a classificação dos estudantes.
Nos idos dos anos 30, o Estado de MG tinha uma larga amostra de resultados das idades
mentais obtida com a aplicação de testes, contribuindo para começar a descrever e a montar as
curvas de desenvolvimento cognitivo brasileira, criando, então, a possibilidade de comparação
dos níveis de inteligência em diferentes grupos, o que evitaria a utilização de comparação com
padrões internacionais.
Por fim, dentre as pessoas que contribuíram para que os testes educacionais pudessem
se tornar uma ferramenta útil e com validade, citamos Heraldo Marelin Vianna que, entre 1964
e 2013, trabalhou, pesquisou e disseminou os testes de múltipla escolha e o desenvolvimento
da Psicometria no Brasil. Foi graduado em Geografia, História e Direito, mas se especializou
em Educação (pela Universidade de Michigan, 1967) e, em 1968, fez a especialização em
Pedagogia (pela Centre Internacional D'études Pédagogiques). Seguindo, então a carreira na
área de Educação, com mestrado e doutorado em Educação (entre 1969 e 1997). Atuou com
Psicologia da Educação, Avaliação, Formação do avaliador e, de acordo com Novaes (2014), a
avaliação educacional teve grande contribuição dele, pois criou várias avaliações de
25
desenvolvimento educacional envolvendo um número muito grande de alunos o que,
posteriormente, ajudaram na solução de problemas com as grandes avaliações nacionais, como
Sistema de Avaliação da Educação Básica - SAEB.
A inteligência medida pelos testes foi chamada de “inteligência civilizada”; entretanto,
percebeu-se que os testes não mediam as capacidades de compreensão e interpretação de dados,
e sim o conhecimento. Com isso, os testes de inteligência passaram a receber críticas
importantes. Helena Antipoff acreditava, da mesma forma que Manoel Bonfim, que o meio
social influenciava na inteligência, o que a levou a descrever cinco fatores para considerar ao
medir a inteligência: Experiência, Cultura, Meio Social, Atitudes individuais e Reações
Emocionais.
A partir dessas contribuições, o Brasil passou a utilizar os testes de inteligências em
diversos segmentos. O Centro Ferroviário de Ensino e Seleção Profissional de Sorocaba,
coordenado por Roberto Mange, foi um dos pioneiros, na década de 20, a trabalhar de forma
mais técnica e eficiente com testes de inteligência. Também é possível citar o Instituto de
Seleção e Orientação Profissional (Isop) que, no Rio de Janeiro, em 1947, trabalhou com
questões objetivas para selecionar pessoas.
1.3 – Os testes de múltipla escolha e a Psicometria
As contribuições para o desenvolvimento dos testes, no Brasil, foram impulsionadas
com a criação de instituições voltadas para os processos seletivos e pelo desenvolvimento dos
programas de avaliação externa, tais como o Sistema de Avaliação da Educação Básica (Saeb),
o Sistema de Avaliação de Rendimento Escolar do Estado de São Paulo (Saresp), a Avaliação
Nacional do Rendimento Escolar (Prova Brasil), a Avaliação Nacional da
Alfabetização (ANA), dentre outros, que não serão objeto de pesquisa desta pesquisa.
26
Nesse sentido, foram pioneiras a Fundação Carlos Chagas (FCC)12 e a Fundação
Cesgranrio13 que, desde a década de 60, realizam concursos públicos, processos seletivos e
avaliações externas em todo o Brasil, com a utilização constante de testes objetivos de múltipla
escolha.
Estes tipos de testes (objetivos) surgiram no exército americano, na década de 1910, que
criou uma comissão onde Terman e Goddar foram convidados a planejar testes para serem
aplicados em muitos soldados ao mesmo tempo. Entendia-se, assim, que esses soldados iriam
para a Guerra e precisariam ter seus QIs medidos de forma rápida, a fim de classificar o nível
de inteligência de cada um, para tomada de decisão quanto à definição dos diferentes serviços,
dispensas militares, decisões administrativas, entre outras questões.
A princípio, a realização dos testes era individual e com a observação de um médico que
procurava acompanhar o comportamento dos indivíduos durante o processo. Como se tratava
de uma operação demorada, surgiu a necessidade de um processo mais rápido e eficiente e foi,
então, que Arthur Ortiz desenvolveu um teste que previa múltiplas escolhas.
O desenvolvimento das medidas educacionais, desencadeando o surgimento dos
fundamentos teóricos da medida, e a busca incessante de Binet, Simon e seus seguidores na
construção da escala e no processo de mensuração da inteligência trouxeram, como
consequência, a criação de uma área de estudo: a Psicometria.
De acordo com Pasquali (2009), a história da Psicometria veio da Psicofísica com Ernst
H. Weber e Gustav Fechner. A Psicometria, uma subárea da Psicologia, é voltada para o
processo de mensuração de comportamentos que utiliza princípios e técnicas da Matemática,
12 “A Fundação Carlos Chagas é uma entidade fundacional de direito privado, sem fins lucrativos, reconhecida
como de utilidade pública nos âmbitos federal, estadual e municipal, dedicada à avaliação de competências
cognitivas e profissionais e à pesquisa na área de educação. Fundada em 1964, sob o impulso de um grupo de
professores universitários-pesquisadores que buscava maior acuidade na seleção de alunos para o nível superior,
com procedimentos mais transparentes, respaldados em pesquisas e modelos de avaliação educacional (...). Assim
surgiu o CESCEM – Centro de Seleção de Candidatos às Escolas Médicas e Biológicas, que logo em seguida se
constituiu como uma fundação, a Fundação Carlos Chagas. (...) expandiu rapidamente suas atividades, realizando,
em todo o Brasil, exames vestibulares e concursos de seleção de profissionais para entidades privadas e públicas.
A partir de 1971, com a criação do Departamento de Pesquisas Educacionais, passa a desenvolver um amplo
espectro de investigações interdisciplinares, voltadas para a relação da educação com os problemas e perspectivas
sociais do país.” Disponível em: http://www.fcc.org.br/fcc/. Acesso em maio/2018. 13 “Em 1994, (...) a Fundação Cesgranrio começou a se preparar para fazer a avaliação de sistemas de ensino. A
partir de 1995, (...) passou a elaborar e aplicar o projeto do SAEB, Sistema de Avaliação do Ensino Básico (...). A
partir daí, coube à Cesgranrio, ano a ano, (...) a aplicação (...) das avaliações nacionais: o Exame Nacional de
Cursos, popularmente chamado "Provão", (...) o Enem – Exame Nacional do Ensino Médio - desde 1998; o
ENCCEJA - Exame Nacional para Certificação de Competências de Jovens e Adultos, em 2002 e 2007; e a Prova
Brasil, de 2005 e 2007.” Disponível em: http://www.cesgranrio.org.br/avaliacoes/principal.aspx. Acesso em
Maio/2018.
27
especialmente da Estatística. Não é uma atividade exclusiva de psicólogos, visto que
estatísticos, pedagogos e profissionais de diferentes áreas das Ciências Humanas e Exatas
também contribuem para o desenvolvimento dessa área.
Ainda para Pasquali (2009), a Psicometria é considerada um dos usos de medida – a
área que trata de medidas e comportamento humano. O conceito surgiu no final do século XIX,
partir dos estudos de Galton que passou a criar testes para medir conhecimento e não mais a
parte física. Alguns anos depois, entre 1904 e 1913, Spearman começou a desenvolver o modelo
teórico de Psicometria.
Louis Thrustone percebeu a diferença entre a Psicofísica – o estímulo e a resposta do
organismo – e a Psicometria – o comportamento do organismo. Para Di Dio (1972), a
Psicometria tenta explicar as respostas às tarefas por meio de itens. Técnicas Psicométricas
partem do pressuposto que todos os indivíduos compartilham de características semelhantes.
Um dos usos das técnicas psicométricas se dá no âmbito da Avaliação Educacional,
criando-se instrumentos de medida das habilidades cognitivas dos sujeitos. Para Vianna (1995,
apud Vianna, 2014) foram os pesquisadores F. Galton, K. Pearson, C. Spearman e C. Burt que
contribuíram para que a Avaliação Educacional fosse influenciada pela Psicometria, com a
construção de instrumentos que pudessem medir o conhecimento. Uma das influências da
Psicometria na Avaliação Educacional foi a definição do melhor instrumento de medida para
avaliação de habilidades e competências dos sujeitos: a prova. Para que isso fosse possível, era
necessário entender, dentre outros, os objetivos daquela prova, a quem se destinava, por que foi
criada, o que se pretendia com ela e para que iria acontecer.
Para a viabilização desse processo, a Psicometria depende de um profissional
tecnicamente capacitado para implementar essas teorias: o Psicometrista. Uma de suas
principais funções é criar um adequado instrumento para aferir os conhecimentos cognitivos
dos sujeitos a serem testados – a prova. Para essas provas, antes de chegar ao produto final, de
fato, são necessárias respostas para muitas perguntas como, por exemplo: O que medir? Como
medir? Para que medir? Para que público será aplicada a prova? Serão pessoas com nível (de
ensino) fundamental, médio ou superior? Exige-se algum tipo de formação específica? A prova
deverá ser fácil, média ou difícil?
Considerando que uma prova é formada por um conjunto de questões, também se faz
necessária a definição de quantas questões irão compor a prova. Serão questões objetivas e/ou
discursivas e/ou práticas? Qual será o tempo necessário para responder todas essas questões?
28
Qual a nota para aprovação? Como será feita a classificação? Portanto, são muitas as definições
que interferem diretamente no resultado final.
Um bom instrumento de avaliação consegue mensurar os sujeitos que detêm as
habilidades cognitivas exigidas e os sujeitos que não possuem tais habilidades desenvolvidas
e/ou adquiridas. Uma prova serve também para medir as habilidades dos sujeitos envolvidos,
de forma a separá-los entre os que possuem mais e os que possuem menos habilidades
cognitivas, nesse caso. Para Fernandes (2009), ainda que já se tenha evoluído em termos
psicométricos, a característica dos testes precisa ser melhor discutida para que haja mais
coerência e consistência nos resultados.
Para Rabelo (2013a), a diferença entre medir e avaliar se dá porque medir é determinar
a extensão da característica que se pretende saber e avaliar é comparar, emitir um julgamento e
tomar uma decisão. Por exemplo, se dizemos que Ana Lúcia nadou 100 metros em um minuto,
estamos medindo; mas se dizemos que o resultado (um minuto) não é satisfatório ou precisa
melhorar, estamos avaliando, estamos comparando o resultado de Ana Lúcia com o de outras
pessoas.
De acordo com Vianna (2000, p.81), avaliar não é Medir é o começo da avaliação.
“Medir é atribuir número a um certo atributo, segundo determinados critérios”, pois avaliar
pressupõe um julgamento de valor (VIANNA, 2005). Mas avaliação e medida já foram
sinônimo (FERNANDES, 2005), com o entendimento de que a avaliação era uma técnica que
permitia medir algo, como o proposto por Alfred Binet e que deu origem ao Coeficiente de
Inteligência.
A medida deixou de ser sinônimo de avaliação quando se percebeu que avaliar era mais
do que medir ou que medir era uma das etapas de uma avaliação. A prova Enade, por exemplo,
mede habilidades, competências e conhecimentos de determinados alunos, e inclui a
contextualização de estrutura/instalações, o currículo do curso, dentre outros. Nessa concepção,
Vianna (1989) esclarece que medir é quantificar, de acordo com critérios anteriormente
estabelecidos, e que avaliar é determinar o valor de algo com determinada finalidade, ou seja,
é emitir um julgamento.
No entanto, foi a partir da década de 60 que os avaliadores ganharam essa consciência
sobre o juízo de valor dos objetos avaliados (FERNANDES, 2005). Para que se possa medir
algo, é necessária a utilização de ferramentas de medição; na área da Educação, não há, assim
como na Física, as unidades de medidas como o metro e o grau, uma unidade constante para se
29
medir o que quer que seja (DI DIO, 1972). Por isso, os instrumentos de “medição” são as provas
(compostas por testes).
De acordo com Silva (2011), teste é uma medida padronizada, sob as mesmas condições
de aplicação de uma amostra de comportamento, em que a principal variável é a
heterogeneidade dos sujeitos envolvidos, o que facilita o entendimento em relação ao
desempenho de quem está sendo testado. Esses testes foram criados para servir de instrumentos
diagnósticos de dificuldades de aprendizagens e possuem a função de medir a diferença entre
sujeitos diferentes e/ou medir as reações do mesmo sujeito em situações diferentes.
1.4 – A Avaliação: histórico e desafios
Segundo Nóvoa (2009), a partir de meados do século XIX passou a ser impossível
imaginar processos em Educação que não indicassem o julgamento de alunos e seus respectivos
conhecimentos. A avaliação associada ao processo educativo passou a ter um caráter mais
formal quando Horace Mann (1845, apud VIANNA, 1995) passou a coletar dados para
fundamentar as decisões de políticas públicas direcionadas a questões da Educação, nos Estados
Unidos. No entanto, a primeira avaliação ocorreu entre 1887 e 1898, quando Joseph Rice quis
verificar a influência do tempo dedicado aos exercícios no processo de alfabetização
(VIANNA, 1995).
Próximo do século XX, Thorndike criou a primeira fundamentação teórica para medir
mudanças no ser humano, mas foi Ralph Tyler que, de acordo com Vianna (1995) e Fernandes
(2005), cunhou, em 1930, o termo Avaliação Educacional – que define a área de atuação da
avaliação –, com o intuito de fazer com que os professores melhorassem suas aulas e que os
instrumentos de medida construídos pudessem, de fato, mensurar a congruência entre o que
fora ensinado e as capacidades desenvolvidas.
Para Tyler (1949, apud GOLDBERG; SOUZA, 1982), a avaliação tem dois aspectos
importantes: (1) o julgamento de comportamento – para constatar o que precisa ser avaliado e,
então, coletar evidências; (2) ao menos outro momento de julgamento – para verificar as
modificações e as melhorias advindas da ação. Na década de 60, além de Tyler, Cronbach,
Scriven e Stake ajudaram no desenvolvimento da área, apresentando diferentes formulações e
pontos de vista acerca desse assunto.
30
Conforme afirmam Letichevsky, Vellasco, Tanschcit e Souza (2005), nos anos 60, os
avaliadores Scriven, Stake e Stufflebeam iniciaram uma grande discussão sobre procedimentos
e metas a serem desenvolvidas dentro da avaliação. No final da década de 1970, Daniel
Stufflebeam propôs 30 diretrizes para a realização de Avaliações Educacionais, o que resultou
em um documento chamado Standards for evaluations of education programs projects and
materials. Esse documento tornou-se um “manual” para os demais países que pretendiam
iniciar as grandes avaliações. De acordo com Penna Firme e Letichevsky (2010), os critérios
norteadores estão organizados em quatro grupos: utilidade – realizar uma avaliação que seja
útil para os envolvidos; viabilidade – verificar se ela tem importância e é necessária; ética –
respeito e bem-estar de todos os envolvidos; e precisão – revelar informações assertivas.
Scriven (1967) descreveu que a avaliação é o julgamento de importância, mérito e valor.
Assim, avaliar é também julgar, comparar um objeto de estudo com algum critério e, depois
disso, usar os resultados em prol da melhoria do aprendizado. Como enfatiza Cronbach (1963),
avaliar pode auxiliar na busca por melhores formas para atingir o aperfeiçoamento. Em
complemento, Lüdke (1984) explica que a melhoria da Educação se dará por meio dos bons
usos de uma Avaliação; Hadji (2001) entende que avaliar não é medir, e sim confrontar um
processo de negociação, é “tomar partido” sobre a maneira como as coisas são realizadas em
relação a como estas foram desejadas.
A avaliação já foi vista como simples instrumento de verificação de aprendizagem e
ainda é muito utilizada com a finalidade – única – de medir o aprendizado dos alunos. Se uma
avaliação for mal elaborada, consequentemente, vai mensurar resultados inconsistentes: por
exemplo, se um professor cobra uma disciplina/objeto de conhecimento que não foi apresentada
em sala de aula os resultados serão ruins; da mesma forma, se ele cobra superficialmente uma
disciplina/objeto de conhecimento que fora tratada de forma detalhada, os resultados serão
parcialmente corretos.
A proposta de uma avaliação é conseguir separar os sujeitos que dominam as habilidades
requeridas em relação aos sujeitos que não as dominam. Portanto, os sujeitos preparados, na
maioria das vezes, conseguem escolher a resposta certa. Os sujeitos que não sabem as
habilidades requeridas não respondem corretamente.
Porém, uma avaliação não pode ser uma atividade isolada, ela deve estar
contextualizada e, de acordo com Anísio Teixeira (1936, p.14), deve ser julgada por seus usos
e não somente por suas limitações. Em consonância com esse pensamento, Hadji (2001)
31
entende que a avaliação deve ser uma prática pedagógica a serviço da aprendizagem, de forma
a preceder a ação de formação.
Nóvoa (2009) afirma que os resultados da avaliação têm que ser usados de forma
inteligente, envolvendo, inclusive, a comunidade/sociedade local. Fernandes (2009) aponta que
um dos principais desafios é, justamente, promover a integração entre a sociedade local e todos
os alunos envolvidos.
Cronbach (1963) esclarece que não basta apenas avaliar, é necessário saber o que fazer
com os resultados, em prol do que quer que a avaliação se proponha. Esses resultados devem
ser trabalhados de forma que uma prova não seja a causa de estudos de um grupo de estudantes,
mas a sua consequência.
1.4.1 – A Avaliação de Larga Escala
A avaliação para atender a um contingente grande de pessoas (posteriormente chamada
de Larga Escala) surgiu, de acordo com Worthen, Sanders e Fitzpatrick (2004), em 2000 a.C.,
quando as autoridades chinesas usavam provas para verificar o desempenho dos servidores
públicos daquele país. Depois disso, em meados do século XIX, a Grã-Bretanha recebeu grande
destaque no uso de Avaliações de Larga Escala, envolvendo a Inglaterra e a Irlanda, em avaliar
o desempenho dos respectivos alunos nos programas de Educação oferecidos.
No final do século XIX, os Estados Unidos apareceram como grande potência na
realização de avaliações para a verificação do sistema educacional proposto. Essas avaliações
evoluíram, de tal forma, que no começo do século XX os Estados Unidos já haviam iniciado a
prática de avaliação de suas 155 Escolas de Medicina. Mais ou menos nessa época (por volta
de 1918), Thorndike propôs utilizar as provas objetivas para mensurar o conhecimento de
turmas com grande quantidade de pessoas a serem avaliadas, de uma só vez.
Para Fernandes (2005), é possível identificar algumas características que se repetem em
qualquer país optante pela realização de Avaliação de Larga Escala, e dentre elas encontram-
se: os exames são preparados por pessoas externas às escolas; a administração dos exames é
controlada (ou, pelo menos, supervisionada) pelo governo; as provas são desenvolvidas
partindo-se dos currículos utilizados pelo grupo de alunos a ser avaliado; as provas são as
mesmas para todos os envolvidos; as provas são aplicadas para um grande número de alunos;
as correções são estandardizadas; os critérios de correção são tornados públicos.
32
Ainda de acordo com Fernandes (2005), uma Avaliação de Larga Escala pode servir
para atender a diferentes objetivos, tais como: certificação – ao final de algum período de
estudo, a comprovação (ou não) de que aquele grupo de alunos aprendeu o que fora ensinado;
seleção – muito associada à certificação, mas com um caráter competitivo, os melhores
destacam-se e são selecionados para algo; controle – permite ao Poder Público, por exemplo,
controlar o que está sendo ensinado em cada região, tentar garantir que conteúdos semelhantes
sejam ensinados para pessoas que estejam na mesma condição curricular; monitorização – é a
prestação de contas, mais usada em outros países (que não o Brasil) quando, por meio dos
resultados atingidos por uma escola, por exemplo, o Estado pode preferir investir mais ou
menos em determinados aspectos, como conceder bolsas, entre outros; e a motivação – uma
tentativa menos comum, no Brasil, que é de tirar o caráter competitivo dos exames para, apenas,
comprovar aos envolvidos que estão progredindo.
Bonamino e Sousa (2012) apresentam três etapas para as Avaliações de Larga Escala,
identificadas pelas autoras como “gerações”: a primeira consiste no levantamento de problemas
e aprendizados adquiridos, ou seja, trata-se de um diagnóstico da situação avaliada; a segunda
é a divulgação pública dos resultados e, também, a devolução e a informação sobre os achados
aos diretamente envolvidos; a terceira é a responsabilização dos atores e instituições podendo,
inclusive, envolver recompensas para atingir as metas. E assim, para que se possa avaliar, tem-
se o diagnóstico, a informação e a ação (decisões).
A Avaliação precisa, no entendimento de Vianna (1989), estar comprometida com a
melhoria da qualidade da Educação; no entanto, nem sempre é isso que acontece. Muitas vezes,
ao contrário de fazer apontamentos sobre as condições em que a Educação se dá, a avaliação
de larga escala é mascarada com direcionamentos específicos. Além do que, para Bonamino e
Sousa (2012), “ensinar para o teste” pode significar, muitas vezes, desconsiderar aspectos
importantes, inclusive não cognitivos.
Para Vianna (1989), a avaliação não pode ser um instrumento de medida do trabalho do
professor, caso contrário, ele passa a querer ensinar apenas o que será cobrado na avaliação,
provocando um “direcionamento favorável” (e tendo os alunos obtido bons resultados, usar isso
para criar uma imagem favorável de seu trabalho). Para tentar exemplificar a situação descrita,
toma-se como exemplo a Prova SAEB14. De acordo com Rodrigues (2006), esse sistema de
14 Avalia a cada dois anos amostras de alunos (de escolas públicas e privadas) da 4ª e 8ª séries do Ensino
Fundamental e 3º ano do Ensino Médio. Disponível em: http://portal.inep.gov.br/educacao-basica/saeb. Acesso
em fev/2018.
33
avaliação foi criado para monitorar a qualidade da Educação e se as metas educacionais
estariam sendo alcançadas. Trata-se, portanto, de uma ferramenta criada para verificar se o
Ensino está ou não cumprindo os seus objetivos.
Em contrapartida, Bonamino e Sousa (2012) entendem que uma avaliação como o
SAEB não tem poder de influenciar o estilo cognitivo de alunos e professores e que serve,
portanto, para monitorar a qualidade da Educação sem consequências para a Escola e/ou
Currículo, de forma que não é possível obter resultados de desempenhos individuais. Essa
situação é diferente, por exemplo, da Prova Brasil, exclusiva para o Ensino Fundamental, que
ocorre, também, anualmente e com a finalidade de diagnosticar o Ensino e responsabilizar a
Instituição Escolar.
Tyler (1949, apud GOLDBERG; SOUZA, 1982) já apontava que são muitas as espécies
de objetivos educacionais não mensuráveis por uma prova de “lápis e papel”, e que, assim como
a parte cognitiva, são muito importantes. Isso não impediu que, por muitas vezes, ficassem
esquecidas no que diz respeito à avaliação e/ou à mensuração de cumprimento de objetivos.
De acordo com Perrenoud (2003), no dia a dia escolar só se deve avaliar aquilo que foi
ensinado, garantindo que a prova fosse uma consequência para os estudos realizados e
aprendizados adquiridos, e não o contrário (os alunos passam o ano estudando para obtenção
de bom resultado nas Avaliações de Larga Escala).
Ainda hoje, décadas depois da sua criação e das primeiras discussões sobre Avaliação
em larga escala (que surgiram, no Brasil, em meados de 1985), é possível encontrar grupos de
alunos que estudam baseados somente no que será cobrado na aplicação da Prova. Ou seja, não
se ensina o que se julga mais importante e sim aquilo que será cobrado na avaliação, isso para
que alunos e escola (em termos institucionais) obtenham desempenhos satisfatórios tanto em
relação à regulamentação do governo, quanto em relação à divulgação da proposta pedagógica
da escola.
Estas avaliações devem servir para criar um contexto do aprendizado do aluno naquele
ano e não para embasar os estudos e as diferentes maneiras de ensinar dos alunos e professores.
Mais do que um simples retorno sobre o aprendizado do aluno, a avaliação pode servir de
retorno para a forma de ensinar do professor, considerando que, se a grande maioria dos alunos
de determinada disciplina não se saiu bem, isso pode gerar aprendizados para a forma de ensinar
do professor. É o conflito entre o sucesso escolar (Instituição Escolar) e o sucesso educativo
(professor e aluno).
34
Bonamino e Sousa (2012) complementam que as Avaliações de Larga Escala não
podem servir como instrumento ameaçador do trabalho do professor, fazendo com que ele se
sinta desmotivado. A intencionalidade é que o instrumento seja orientador na correção de
eventuais defasagens, proporcionando uma discussão sobre o currículo escolar. Em relação aos
resultados das Avaliações de Larga Escala, Werle (2010, apud STANICH; SOUSA, 2016)
propõe que sejam analisados juntamente com os professores para que, com isso, possam
proporcionar o início de um trabalho que vise melhorias do Ensino e, consequentemente, do
aprendizado.
Para Souza (2000), a Avaliação de Larga Escala pode servir para apontar desigualdades
na Educação, controlar a qualidade do Ensino e tentar garantir a equidade no processo
educacional como um todo. De uma forma geral, fornece subsídios para a implementação (ou
alteração) de políticas nacionais. Entende ainda que não só se deve avaliar as habilidades e as
competências adquiridas como, também, as condições em que esses resultados foram
alcançados. Isso implica identificar as variáveis que podem ter influenciado o resultado do
desempenho de alunos de determinada escola e que podem estar associadas ao melhor ou pior
desempenho desses sujeitos.
1.4.2 – A Avaliação da Educação Superior no Brasil
De acordo com Vianna (1995), a Avaliação Educacional no Brasil é quase sempre
promovida pelos órgãos governamentais, diferente do que ocorre, por exemplo, nos Estados
Unidos ou Inglaterra, onde as próprias universidades assumem a tarefa de avaliar seus cursos,
estruturas e currículos, entre outros pontos, ainda que muitas vezes financiadas por empresas
privadas.
No Brasil, tendo em vista o aumento do acesso ao Ensino Superior, nas décadas de 70 e
80, os estudos ligados ao acesso e aos instrumentos responsáveis para ingresso dos estudantes
aumentaram, abrindo-se, então, um novo campo de pesquisa no Brasil. De acordo com Dias
Sobrinho (2013, p.109), a educação é “um bem público e direito social”, o que pressupõe
formação de cidadãos profissionalmente qualificados. Até por ser um direito social, tem
contribuído com a democratização da Educação na medida em que o número de matrículas vem
sendo ampliado a cada ano, o que registra “expansão de ofertas” (p.117) no que se refere aos
cursos e respectivas Instituições de Educação Superior (IES), diminuindo as desigualdades
35
sociais. No entanto, não adianta abrir novos cursos e/ou aumentar a quantidade de matrículas
sem que exista cautela e preocupação com a qualidade do que está sendo oferecido.
Tendo em vista que a Avaliação é um princípio básico de regulação do Estado e que
alguns problemas vinham sendo apontados, como falta de qualidade por parte dos professores,
precárias instalações físicas, jovens advindos das regiões mais diversas e com diferenças
cognitivas consideráveis entre si, pressupõe-se o emprego de instrumentos e técnicas para uma
proposta mais acertada de políticas públicas. Como aponta Dias Sobrinho (2010), uma maneira
de informar o mercado de trabalho sobre a qualidade e a capacitação disponibilizada aos novos
profissionais.
Mas nestas avaliações há, também, de acordo com Dias Sobrinho (2003), um papel
técnico e um significado político de forma que o Estado, na tentativa de cumprir o seu dever de
apresentar resultados para a sociedade (accountability), segue buscando formas e motivos para
o estabelecimento de uma cultura de avaliação produtiva e assertiva. E com o objetivo de
trabalhar com menos recurso e mais produção, o Estado tende a usar as Avaliações de Larga
Escala como instrumento de poder e controle sob a qualidade da Educação e desempenho do
trabalho dos professores, não como uma preocupação pedagógica, de fato. Nessa perspectiva,
a avaliação tem que ser democrática e participativa, além de ter uma intenção educativa para
melhorar as práticas pedagógicas.
A Educação de nível superior deve preparar os indivíduos às demandas do mercado de
trabalho (GOERGEN, 2008). Britto (2008) acrescenta que o Projeto Pedagógico de cada IES
deve considerar o potencial dos ingressantes e, a partir disso, traçar o perfil – as habilidades
acadêmicas e as competências profissionais – do futuro profissional que se deseja formar.
Mas existe um importante desafio no que tange às avaliações educacionais de larga
escala e que são aplicadas aos alunos no Ensino Superior: como mensurar qual parte do
conhecimento foi aprendido e apreendido nas aulas e atividades da Educação Superior e quais
partes foram apreendidas pelo aluno em atividades extracurriculares? De acordo com Gentil et
al (2008), as Avaliações de Larga Escala não devem existir somente para verificar a quantidade
de conteúdos que o aluno aprendeu, e sim a qualidade do que fora absorvido durante os anos
de curso ou, então, de acordo com Ristoff (2000), estas avaliações correm o risco de se tornarem
uma ação de marketing ou de reforço do poder.
Há de se tomar cuidado para não utilizar as Avaliações de Larga Escala na intenção
exclusiva de obtenção de rankings, que não trazem nenhum tipo de legado às Instituições, à
36
sociedade ou aos futuros profissionais. É mais interessante avaliar o que foi agregado de
conhecimento para o estudante, ao invés de comprovar que conteúdos ele aprendeu. Portanto,
não se trata de avaliação da aprendizagem, e sim avaliação para a aprendizagem.
Dias Sobrinho (2003) aponta que a avaliação de larga escala aplicada no Ensino
Superior precisa ser formativa, ou seja, seu objetivo principal deve ser a melhoria do processo
e não o controle. Em consonância com isso, Ristoff (2004) defende que existem, pelo menos,
seis ações necessárias para ajudar na implementação de uma proposta formativa de avaliação:
(1) o deslocamento de centro de avaliação de uma prova para um conjunto
diversificado de instrumentos, (2) a integração dos instrumentos de avaliação
e de informação e dos processos avaliativos desenvolvidos por diferentes
órgãos do Ministério da Educação e dos sistemas estaduais, (3) a valorização
dos aspectos qualitativos e interpretativos nos processos e instrumentos, (4) a
institucionalização de programas permanentes de capacitação de avaliadores,
(5) a criação e consolidação da cultura de autoavaliação nas Instituições de
Ensino Superior, e (6) a implantação de processos de meta-avaliação (p. 179).
Após a realização de uma avaliação e mediante os seus resultados, é necessário que se
tenha uma tomada de decisão que contribua para que os alunos possam ter oportunidades de
superar as dificuldades e aprender mais (FERNANDES, 2009). Para esse tipo de tomada de
decisão, existem três diferentes avaliações: (1) as que se baseiam na melhoria da aprendizagem
e ajudam os alunos – são prioritariamente formativas; (2) as que têm intenção de classificar,
certificar e só apreciam-se os resultados – são prioritariamente somativas; e (3) as que conjugam
as duas primeiras. É necessário analisar especificamente os objetivos desejados para que se opte
pela avaliação mais adequada.
Como apontam Worthen, Sanders e Fitzpatrick (2004), a Avaliação Formativa é
diagnóstica e fornece informações úteis para a melhoria do programa, diferentemente da
Avaliação Somativa que avalia o que terminou, para que novas atitudes possam ser tomadas em
um novo ciclo. Para Dias Sobrinho (2004), os resultados de uma avaliação vão sendo
produzidos ao longo do processo e não ao final do ciclo.
Por Avaliação Formativa, Perrenoud (1991) entende aquela que ajuda com a regulação
da aprendizagem e com o desenvolvimento do projeto educativo. Acredita esse autor que, ao
invés de Avaliação Formativa, devemos chamar de “Observação Formativa”. Verhine e Freitas
(2012) relacionam esta Avaliação à democracia, porque o processo é todo feito com a
colaboração e a participação dos interessados.
37
Foi Michael Scriven que, em 1967, trouxe à baila a distinção entre Formativa e Somativa
(FERNANDES, 2005). Para ele, a Avaliação Somativa era mais uma prestação de contas e a
certificação de forma a informar aos interessados (financiadores e poder público, por exemplo)
o que fora ensinado e quais os pontos de chegada daquele grupo ou Escola ou Universidade. Já
a Avaliação Formativa existe para que possa ser aferido o desenvolvimento dos alunos
envolvidos, a melhoria das aprendizagens e a regulação dos processos de Ensino.
Importante destacar que, embora determinada avaliação tenha um pressuposto
formativo ou somativo isso depende diretamente da forma como os resultados alcançados serão
usados em benefício de quem for avaliado. A tomada de decisão, diante do que se apresenta
como resultado, é o mais importante no que diz respeito ao uso destas duas avaliações. Os
resultados do Enade, por exemplo, podem possuir um caráter formativo ou somativo.
No entanto, a avaliação formativa tem aparecido menos como opção, sendo a somativa
a mais praticada. Tendo em vista o que foi dito por Bonamino e Sousa (2012), na segunda
geração (da avaliação) – explicada anteriormente nesta pesquisa – é que se pode retirar
subsídios (ou indicadores) que forneçam, aos interessados, informações sobre o que precisa ser
melhor tratado com alunos e/ou professores. Ou seja, um uso formativo dos resultados da
avaliação.
Valendo-se de uma metáfora comum, a função do termômetro é verificar se há (ou não)
febre no corpo: no entanto, ele não tem condições de apontar causas e procedimentos. Com a
avaliação deve-se tratar, mais ou menos, dessa forma: os resultados das avaliações realizadas
podem indicar que algo não está de acordo com o esperado, mas deve-se tomar atitudes e
decisões para descobrir e solucionar os motivos que levam à febre.
Se usado de forma somativa, por exemplo, os resultados do Enade podem servir para
orientar e regular políticas do país; se usado com intuito formativo, estes mesmos resultados
podem ajudar na reconstrução de um PPP de curso com os professores, e não para eles. Trata-
se de subsidiar a Universidade (nesse caso) para a tomada de decisão mais adequada.
Em meados dos anos 90, diante da grande diversidade e, também, da grande quantidade
de IES no Brasil, surgiu a necessidade, ao governo federal, de se preocupar com a qualidade
dos serviços oferecidos e prestados, aparecendo, então, os primeiros indícios de controle em
relação a estas Instituições. Levantamento de 1996, apresentado por Dias Sobrinho (2010),
aponta que havia, no Brasil, 922 IES, e quase 10 anos depois já eram 2.281. De acordo com o
38
último Censo de Educação Superior15, divulgado no segundo semestre de 2016, eram 2.407
IES, totalizando 8.033.574 estudantes matriculados. Não há, dentre os dados encontrados, a
informação sobre se estes alunos estão matriculados em cursos de Direito para Ensino a
Distância (EAD) ou presenciais.
1.4.2.1 – O desenvolvimento histórico da Avaliação de Larga Escala na Educação Superior
do Brasil
Como uma apresentação histórica do desenvolvimento da Avaliação de Larga Escala no
Brasil, tem-se que, de acordo com Barreyro (2008), desde a década de 1950, a avaliação de
nível superior vem sendo pautada nas discussões promovidas pela Coordenação de
Aperfeiçoamento de Pessoal de Nível Superior (Capes).
O principal objetivo desta Coordenação era garantir que houvesse pessoal especializado
– em qualidade e quantidade – para atender às necessidades das propostas educacionais que
visem ao desenvolvimento do Brasil (BRASIL, 2016). Anísio Teixeira (2010), o primeiro
dirigente da Capes, ao discutir a função da Universidade, diz que se trata “[...] de manter uma
atmosfera de saber para se preparar o homem que o serve e o desenvolve. Trata-se de formular
intelectualmente a experiência humana, sempre renovada, para que a mesma se torne consciente
e progressiva” (p. 33). A Capes promove intercâmbio e cooperação entre as IES por meio da
oferta de bolsas, nacionais e internacionais, e apoio a eventos científicos na área da Educação
(ARRUDA, 2016).
Foi como um marco histórico na área da Avaliação dos cursos de nível superior que, em
1961, foi promulgada a Lei de Diretrizes e Bases da Educação Nacional (Ldben), em plena
ditadura militar, como uma tentativa de dar autonomia às Instituições. Essa “autonomia” gerou,
apenas, um aumento desgovernado de matrículas, especialmente nas Instituições particulares,
sem qualquer controle de qualidade sobre o que estava sendo ensinado ou proposto como
Educação (SILVA, 2017).
Em 1968, em pleno regime militar, com repressão estudantil e resistência acadêmica,
foi instaurada a “Reforma Universitária” que, com a Lei nº 5.540 de 1968, determinava que o
Conselho de Educação competente verificasse, periodicamente e com fins avaliativos, as IES
15 Disponível em: http://portal.inep.gov.br/artigo/-/asset_publisher/B4AQV9zFY7Bv/content/mec-e-inep-divul
gam-dados-do-censo-da-educacao-superior-2016/21206. Acesso em mar/2018.
39
existentes (ARRUDA, 2016), e uma das principais consequências dessa reforma foi a
privatização do Ensino Superior. A procura (e a aprovação) para vagas no Ensino Superior
aumentou a partir de 1970, chegando a mais de 400% (MARTINS, 2009). Isso fez com que as
IES públicas não conseguissem absorver tamanho contingente, facilitando a abertura de um
mercado privado em que, em meio à pressão do movimento estudantil para ampliação do acesso
ao Ensino Superior, emergiram diversas Instituições particulares.
De acordo com levantamento apresentado por Arruda (2016), entre 1966 a 1980, os
estabelecimentos privados de pequeno porte tiveram um salto de 142 mil para 885 mil
matrículas. Vale ressaltar a contribuição das forças políticas e todo o caos instalado no país para
impedir que as avaliações continuassem a acontecer, fazendo com que, até meados de 1983,
nada mais fosse feito a esse respeito.
A primeira tentativa de Avaliação da Educação Superior no Brasil, surgiu, em 1983, por
iniciativa do Conselho Federal de Educação (CFE)16, o Programa de Avaliação da Reforma
Universitária (PARU), sendo este um acordo com a 5ª edição (revisada e ampliada) do Sinaes,
da sua concepção à regulamentação, de um questionário para estudantes e dirigentes sobre a
estrutura administrativa, as características do corpo docente e, basicamente, de dados
institucionais.
Nesse processo, o instrumento levava em consideração a participação da comunidade
acadêmica que tinha como proposta autoavaliar a gestão escolar e a disseminação de
conhecimento. De acordo com os resultados, seriam investidos os recursos públicos. Porém, o
PARU não conseguiu desenvolver o que tinha como proposta e, após um ano de seu início, foi
desativado.
Em 1985, foi criado o Ministério da Educação (MEC) que apresentou uma nova
proposta para a Avaliação da Educação Superior – o Grupo Executivo para Reforma da
Educação Superior (GERES) ainda muito voltado para as dimensões institucionais e com o
objetivo, de acordo com Silva (2017), de conhecer as condições em que as atividades
educacionais eram realizadas, contemplando a avaliação do desempenho institucional e a
qualidade dos cursos oferecidos.
As políticas de avaliação do país nessa época estavam voltadas para as Instituições
públicas, fazendo com que, desapercebidamente, o número de Instituições privadas aumentasse
16 Extinto pela Lei da LDBEN (9.131/1995).
40
sem qualquer controle e compromisso com a Educação. Isso fez com que a Reforma passasse
a ser vista como uma proposta controladora e que só tinha interesses políticos, o que provocou
manifestações políticas e de cunho educativo, apontando que se tratava de uma proposta que
valorizava a individualidades, competição e mérito, de forma a impedir que esse grupo Geres
continuasse atuando. Alguns anos depois, em 1993, surgiu o Programa de Avaliação
Institucional das Universidades Brasileiras (PAIUB), como uma iniciativa voluntária de duas
Associações ligadas à Educação: a Associação das Instituições Federais do Ensino Superior
(ANDIFES) e a Associação Brasileira de Universidades Comunitárias (ABRIC).
Dentre os principais objetivos, destacamos a autoavaliação instituída e que, na
sequência, viria acompanhada de uma avaliação externa, realizada por especialistas de fora da
Instituição. Foi a primeira avaliação a enfatizar o conhecimento de fato e a criar o primeiro
espaço de debate entre a comunidade acadêmica e a sociedade. O PARU havia se aproximado
disso, mas não promoveu o debate, apenas abriu espaço para ouvir a opinião. Só que isso ainda
não era suficiente para medir o Ensino ou, especialmente, o aprendizado, pois voltava-se, até
aquele momento, à Instituição ou ao Plano Pedagógico, fazendo com que, assim como as
demais tentativas de Avaliação já criadas, fosse destituída para que, de acordo com Bezerra
Júnior (2016), a Avaliação da Educação Superior passasse a acontecer no Brasil (com esse
nome), a partir da Lei nº 9.131 de 24 de novembro de 1995 e da Lei nº 9.394 de 20 de dezembro
de 1996 – Ldben que criou o Exame Nacional de Curso (ENC), a ser realizado pelos concluintes
do curso de graduação.
Antes da apresentação do Exame Nacional de Cursos, faz-se necessário um
esclarecimento acerca da Ldben: com a criação de tal Lei, a organização da educação escolar
passou a ser dividida da seguinte forma: Educação Básica – Educação Infantil; Ensino
Fundamental e Ensino Médio; e Educação Superior – Pós-Graduação, Graduação e Cursos de
Extensão e Sequenciais. É relevante destacar que, antes da promulgação da Ldben, a forma de
“chamar” o Ensino que vinha após o Ensino Médio era “Ensino Superior”. Após a Ldben a
recomendação é que seja abordado de “Educação Superior”.
1.4.2.1.1 – O Exame Nacional de Cursos – o Provão
A Avaliação de Larga Escala da Educação Superior começou por meio do ENC, mais
conhecido como Provão, termo dado pela massa estudantil e incorporado pelos órgãos oficiais.
Conforme explanado anteriormente, este exame foi criado pela Lei nº 9.131/1995 em seu artigo
41
6º: “O Ministério da Educação e do Desporto exerce as atribuições do poder público federal em
matéria de educação, cabendo-lhe formular e avaliar a política nacional de educação, zelar pela
qualidade do ensino e velar pelo cumprimento das leis que o regem.” Esta Lei, junto com o
Decreto nº 2.026, de 10 de outubro 1996, estabeleceu os procedimentos de Avaliação do Ensino
Superior, cuja organização ficou por conta, desde aquela época, do Instituto Nacional de
Estudos e Pesquisas Educacionais Anísio Teixeira (Inep).
O Provão foi realizado no período de 1996 a 2003 e tratava-se de uma prova, obrigatória,
que era aplicada anualmente a todos os alunos que estavam concluindo os respectivos cursos.
Inicialmente, apenas três cursos foram avaliados: Direito, Medicina e Engenharia Civil. Com o
passar do tempo, foram incluídas as demais áreas, chegando a atingir 26 cursos, no ano de 2003,
mesmo ano em que deixou de existir.
Tinha como proposta, verificar as condições de Ensino e avaliar o Currículo do curso,
as instalações e a qualificação docente. Para isso, de acordo com Silva (2017), o provão estava
baseado em quatro áreas: Administração, Ensino, Integração Social e Produtos Tecnológicos,
Culturais e Científicos.
A ideia era ampliar a qualidade, mas sob a ameaça de fechamento de cursos. No entanto,
não houve, durante o Provão, nenhum curso fechado, apenas o aumento desenfreado de IES,
especialmente as privadas, assim como aconteceu com a Reforma de 1968 (OLIVEIRA;
FONSECA; AMARAL, 2006). Com a promulgação da Ldben, que concedia autonomia de
criação de novos cursos e com o freio na expansão das Instituições públicas, houve uma nova
expansão desenfreada (ARRUDA, 2016) das IES particulares, trazendo, inclusive, um conflito
social em que a população de baixa renda permaneceu sem acesso à Educação porque não tinha
condições de pagar as altas mensalidades praticadas pelas IES particulares (SOUSA, 2008).
Os estudantes eram obrigados a comparecer no dia da prova, mas não a respondê-la;
com isso, houve o que fora chamado de “Nota Zero para o Provão”, um boicote dos estudantes
à forma de avaliação. Estes compareciam, assinavam as listas de presença, mas não respondiam
às questões e a prova era devolvida em branco. No Provão de 1996, mais de 50 mil estudantes,
de mais de 600 Instituições de Educação Superior, estavam convocados para a prestação da
Prova, e de acordo com os dados fornecidos pelo MEC, somente 6% não compareceram, mas
4% entregaram a prova em branco (CUNHA, 1997).
O que houve, de acordo com Vianna (2003), foi um movimento grande, especialmente
por parte das Instituições particulares, de reclamação a respeito da violação da autonomia
42
universitária, fazendo com que, a partir da criação do Provão, todas as IES tivessem que se
moldar ao que seria cobrado ao final do curso, e que estas tivessem um direcionamento para o
que seria cobrado no Provão ao invés do que fosse interessante, do ponto de vista de cada
Instituição, acerca da formação geral, científica e profissional.
Um ponto importante a ser destacado aqui é que, em alguns anos, as Instituições
particulares tiveram desempenhos inferiores aos das Instituições públicas, mais um motivo para
que houvesse o desinteresse na realização da prova e, principalmente, na divulgação dos
resultados. Mas não foi assim que as coisas se sucederam. Como parte dos resultados, o que se
viu foi muito marketing, resultados individualizados, listas de “melhores” e “piores”
Instituições, sem nenhuma tomada de decisão em relação a isso e de uma forma globalizada,
com poucos insumos acerca da qualidade da Educação Superior (GONÇALVES, 2016).
Aos estudantes, representados pela União Nacional dos Estudantes (UNE), se fortalecia
o desejo de ser avaliado de uma forma mais emancipatória e não reguladora. E o Provão não
atendia a esse ponto. Para Dias Sobrinho (2003), o Provão não considerava as condições
individuais de partida dos alunos a serem avaliados, e mais do que avaliar a aprendizagem ou
o curso em si, media desempenhos individuais. De acordo com Vianna (1989), fazer a
comparação intra e inter grupos era impossível nesse modelo e prejudicava – às vezes, até
impossibilitava – a interpretação dos resultados.
Para Cronbach (1963, apud VIANNA, 1989), o resultado global de um teste pode trazer
subsídios sobre a condição de um curso, mas pouco informa sobre como melhorá-lo. Por isso,
ele entende que os dados relativos ao desempenho dos alunos em um item específico podem
ser mais expressivos do que o resultado total. E tendo em vista que o exame era nacional,
entendia-se que os aprendizados adquiridos e até as condições físicas do local de ensino, por
exemplo, deveriam ser consideradas para que a avaliação fosse completa e isso não era
contemplado pelo Provão, que era baseado no desempenho dos alunos deixando de avaliar
pontos importantes como infraestrutura, capacitação do corpo docente, dentre outros.
Esses e alguns outros problemas citados por Schwartzman (2005), por exemplo, o de
que não se avaliava a parte de conhecimentos gerais dos indivíduos ou, como citaram Verhine,
Dantas & Soares (2006), a impossibilidade de comparação das notas dos diversos anos, a prova
aplicada apenas aos concluintes, a ausência de qualquer tipo de seleção de quem seriam os
alunos com perfil indicado (no que diz respeito ao tempo de curso, etc.), a omissão de pontuação
43
mínima que indicasse proficiência etc., foram importantes para que o governo optasse pela
extinção do Provão para a criação do Sinaes.
Diante do exposto, enfatizam-se quatro principais formatos de Avaliação de Larga
Escala no Brasil: PARU – com uma proposta mais formativa; GERES – com uma proposta
mais reguladora; PAIUB – com uma avaliação mais formativa; ENC – retornando à proposta
de regulação e controle. Nos casos de proposta formativa, aponta-se para uma autonomia com
possibilidades de autorregulação de cada Instituição, isso considerando que, quando são
propostas reguladoras (ou controladoras), o Estado normatiza e impõe regras para que cada IES
possa se adaptar.
Deixa-se, assim, com o Provão, um modelo de avaliação quantitativa – reguladora e
controladora, e passa-se para o modelo Sinaes – misto de controle e autonomia que se configura
em um sistema que imbrica avaliação formativa emancipatória com controle e regulação
(LACERDA; FERRI, 2017), o que não tem o mesmo entendimento para Otranto (2006) ao
afirmar que o Sinaes apenas fortalece os mecanismos já conhecidos de controle e regulação
diante das Instituição de Ensino Superior.
1.4.2.1.2 – O Sistema Nacional de Avaliação da Educação Superior (Sinaes)
Este Sistema foi criado por uma iniciativa do MEC, por meio da Lei nº 10.861, de 14 de
abril de 2004, e está estruturado em três eixos: avaliação institucional das Instituições, avaliação
dos cursos de nível superior e avaliação do corpo discente. Para isso, organiza-se em ciclos de
três anos, de forma que no primeiro ano realiza-se o Exame Nacional de Desempenho dos
Estudantes (Enade) e nos dois anos conseguintes a autoavaliação e a avaliação in loco (se
necessária) conforme apresentado a seguir.
Um dos motivos do estabelecimento de ciclos de três anos é dar oportunidade às
Instituições que não tenham obtido bom desempenho em determinado ano de realizarem
alterações e melhorarem o desempenho dos alunos e do curso em tempo hábil para a próxima
avaliação. Além disso, criar oportunidade para que vários cursos sejam avaliados ao mesmo
tempo. Entre 2004 e 2009, de acordo com a Nota Técnica nº 6 de 2018, o Sinaes era coordenado
e orientado pelo Inep, no entanto, as provas eram elaboradas por profissionais de empresas
terceirizadas. As questões eram elaboradas por especialistas de cada área e eram inéditas,
também, para os representantes do Inep. A partir de 2010, o próprio Instituto se encarregou de
44
montar equipes de Bancas Examinadoras, competentes para a elaboração de provas para cada
área de avaliação.
O Sinaes tem como objetivo padronizar os parâmetros para uma avaliação mais
uniforme (BRITO, 2008), o que para Gonçalves (2016) deixa de ser uma proposta reguladora
para ser uma proposta emancipatória. De acordo com BRASIL (2004), dentre as principais
finalidades do Sinaes estão: a melhoria da qualidade da Educação Superior e o aumento da
eficácia do Ensino Superior, permitindo que a IES melhore a qualidade dos serviços
educacionais; e ainda, como afirma Ristoff (2006), a geração de novas políticas públicas para
a Educação e a avaliação do processo como um todo, e não do produto final. Brito (2008) indica
que é uma oportunidade para reavaliar as metodologias de Ensino utilizadas.
Para isso, o Sinaes é composto de diversos instrumentos, a saber:
Autoavaliação (ou Avaliação Institucional) – realizada internamente pelas
Instituições, inclui o Projeto Pedagógico, o censo escolar, a avaliação dos
professores, instalações, entre outros pontos; é realizada pela Comissão Própria
de Avaliação (CPA) de cada IES.
Prova Objetiva Enade, com 40 questões, sendo divididas em Formação Geral
(composta de 8 questões objetivas) + Componente Específico (composto de 32
questões mescladas entre objetivas e discursivas), ambas mais detalhadas neste
estudo, posteriormente. Junto à prova objetiva é aplicado um questionário de
Avaliação Discente da Educação (ADES) – o questionário dos coordenadores de
curso e o questionário de percepção do aluno sobre a prova.
Censo da Educação – composto por um questionário de percepção do estudante
concluinte de cada ano avaliado. É realizado antes do dia da prova Enade,
composto de 103 questões que avaliam as instalações, o PPP e o corpo docente.
Avaliação in loco – realizada pela comissão de especialistas, apenas no caso de o
curso receber nota inferior a 2 (na escala de 0 a 5).
Acerca da Avaliação in loco, vale um esclarecimento sobre os procedimentos desse
item, conforme previsto no Art. 38 da Portaria Normativa nº 40 de 2010 (BRASIL, 201017), em
que, aos cursos que recebem nota inferior/conceito Enade a 3, é dada a chance de melhoria até
17 Disponível em: http://abmes.org.br/legislacoes/detalhe/198/portaria-normativa-n-40 Acesso em: maio de 2018.
45
o próximo ciclo de avaliação (três anos). Caso após todas as instâncias cabíveis o mesmo curso
atinja nota inferior a 3, por dois ciclos consecutivos, é necessária a instauração de um processo
administrativo para aplicação de penalidades. Dessa forma, a IES se defende por meio de
recursos e cabe à Câmara de Educação Superior (CES) do Conselho Nacional de Educação
(CNE) a definição pela penalidade ou pelo arquivamento do processo – caso a defesa seja aceita.
Caso haja uma necessidade de penalidade, existem algumas formas disso acontecer: nos
casos mais graves, a Instituição fica descredenciada e inabilitada para a abertura de novos
processos seletivos de cursos de graduação, podendo haver, inclusive, a cassação da autorização
de funcionamento; para limitações de menor expressão, os títulos das IES podem sofrer
alterações (por exemplo, o que era uma Universidade pode virar uma Faculdade), a advertência
e até perda de mandato do diretor responsável. Durante o ciclo de três anos, as melhorias devem
refletir o alcance de nota maior ou igual a 3 para que a IES possa retomar as condições
anteriores.
Especialmente nos casos dos cursos de Direito, conforme parágrafo primeiro do Art. 29
(BRASIL, 2007), nos pedidos de autorização e reconhecimento de curso de graduação será dada
vista para que o Conselho Federal da Ordem dos Advogados do Brasil (OAB) possa se
manifestar.
A prova do Enade é sempre alinhada com as Diretrizes Curriculares Nacionais (DCNs),
de forma a possibilitar a parametrização, ainda que parcial, do aprendizado dos examinados,
objetivando aferir o desempenho dos estudantes em relação ao que propõem estas Diretrizes e
às habilidades e às competências desenvolvidas ao longo do curso (SILVA, 2017).
A partir da nota do Enade dos alunos de cada curso, é possível chegar ao Conceito
Enade, uma nota pública que considera o desempenho dos estudantes concluintes de cada curso,
nos tipos de questões disponíveis na prova, ou seja, Formação Geral + Formação Específica
(SILVA; FERRAZ, 2018). Essa nota atribui um índice que pode variar de 1 a 5 – Art. 33
(BRASIL, 2007), sendo quanto maior a nota, melhor o desempenho no exame e,
consequentemente, melhor o Conceito Enade. Níveis iguais ou superiores a três indicam
qualidade satisfatória.
Para Dias Sobrinho (2010) trata-se de uma avaliação global e integradora que não
considera o desempenho individual do aluno, mas o desempenho do curso, na formação de
cidadãos preparados para o mercado de trabalho.
46
São indicadores de qualidade, calculados pelo Inep, de acordo com o Art. 33-B
(BRASIL, 2007):
* Conceito Preliminar de Curso (CPC) – Instituído pela Portaria Normativa nº 4, de 05
de agosto de 2008 (BRASIL, 2008a18); é calculado sempre no ano seguinte à aplicação do
Enade e tem como base o desempenho dos estudantes, os recursos didáticos-pedagógicos, o
corpo docente e a infraestrutura. Este Conceito não pode ser usado como um único indicador
de qualidade dos cursos, deve ser considerado junto às demais condições do contexto,
esclarecem Lacerda e Ferri (2017).
* Índice Geral de Cursos (IGC) – Instituído pela Portaria Normativa nº 12, de 5 de
setembro de 2008 (BRASIL, 2008b19); é calculado anualmente e considera a média dos últimos
CPC disponíveis dos cursos que foram avaliados no ano do cálculo (do IGC) e nos dois
anteriores, em relação à quantidade de matrículas feitas em cada um desses cursos em análise.
Outro fator levado em consideração para obtenção do IGC é a média dos conceitos atribuídos
pela CAPES20 aos Programas Stricto Sensu, de Pós-Graduação, na avaliação dos últimos três
anos. Considera-se, também, a distribuição dos estudantes dentre os cursos de graduação e Pós-
Graduação (Lato Sensu e Stricto Sensu).
Esses indicadores de qualidade, de acordo com o Art. 34 (BRASIL, 2008b), serão
calculados pelo sistema informatizado do Inep e, para se chegar ao resultado, serão
considerados os insumos coletados na própria base de dados e também na base de dados do
MEC, sendo estes dados associados aos respectivos códigos de cursos.
Aos cursos com CPC insatisfatório ou às Instituições com ICG insatisfatório é dada a
oportunidade de requerer a renovação do reconhecimento ou recredenciamento, desde que
munidos de uma proposta de melhoria acadêmica e comprovante de recolhimento de taxa de
avaliação in loco.
Outro índice aplicado é o Indicador de Diferença entre o Desempenho (IDD) –
desempenho esperado e desempenho observado – que, de acordo com Lacerda e Ferri (2017),
é obtido entre algumas variáveis: nota contínua do Enade e proporção de estudantes que iniciam
18 Disponível em: http://portal.mec.gov.br/index.php?option=com_docman&view=download&alias=670-sesu-
port-04-2008-pdf&Itemid=30192. Acesso em: maio de2018. 19 Disponível em: https://www.ufmg.br/dai/textos/Portaria%20normativa%2012%20de%208%20%20
de%20set%202008%20IGC.pdf. Acesso em: maio de 2018. 20 CAPES é Coordenação de Aperfeiçoamento de Pessoal de Nível Superior e é vinculada ao Ministério da
Educação do Brasil. Disponível em: http://www.capes.gov.br/. Acesso em: maio de 2018.
47
os estudos em uma IES cujo pai e/ou a mão têm nível superior de escolaridade; número de
concluintes x ingressantes; proporção de docentes com título de doutor; docentes com título de
mestre; professores com nível de trabalho integral ou parcial; e avaliação positiva, por parte dos
alunos, em relação à infraestrutura e à organização didática.
Para estes autores, dentre as principais mudanças do Provão para o Enade, encontram-
se: um instrumento que atenda à pluralidade institucional; o retorno do processo qualitativo e
não só quantitativo; o enfoque contínuo da avaliação; e a avaliação somativa e a formativa de
forma que a somativa se refere ao desempenho dos alunos e a formativa a toda a Instituição.
1.4.2.1.3 – O Exame Nacional de Desempenho de Estudantes (Enade)
O Enade é parte integrante do Sinaes. A Lei nº 10.861, de 14 de Abril de 2004 (BRASIL,
200421), que Institui este Sistema e dá outras providências, determinou que a avaliação de
desempenho dos estudantes de nível superior seria, a partir de então, realizada pelo Enade,
conforme expresso em seu Art. 5º: “A avaliação do desempenho dos estudantes dos cursos de
graduação será realizada mediante aplicação do Exame Nacional de Desempenho dos
Estudantes [...].”
De acordo com a Portaria nº40 (BRASIL, 2010), Art. 33-D, este Exame “[...] aferirá o
desempenho dos estudantes em relação aos conteúdos programáticos previstos nas diretrizes
curriculares do respectivo curso de graduação, e as habilidades e competências adquiridas em
sua formação.” Trata-se de uma iniciativa que se propõe a medir a capacidade do estudante de
usar o conhecimento para seu desenvolvimento; de trabalhar com conteúdos aprendidos; e se o
estudante conseguiu se desenvolver, no que diz respeito a habilidades e competências, entre o
começo e a conclusão do curso.
Ainda que o Enade pretenda ser uma avaliação diagnóstica, formativa e servir para
corrigir e superar dificuldades apresentadas ao longo de um processo para a tomada de decisão
em relação aos problemas, como vimos, uma avaliação não é, por pressuposto, formativa ou
somativa, isso vai depender dos usos que serão dados aos resultados e ao processo como um
todo.
21 Disponível em: http://www.planalto.gov.br/ccivil_03/_ato2004-2006/2004/lei/l10.861.htm. Acesso em: maio de
2018.
48
Para Ristoff (2006), o Enade é uma prova, com questões objetivas e discursivas,
aplicadas a estudantes selecionados, de forma a abranger todos os conteúdos indispensáveis
para a formação profissional de cada área, e com objetivo de identificar quais cursos estão
formando bons profissionais para o mercado de trabalho (LEITÃO; MORICONI; ABRÃO e
SILVA, 2010). Para Feldmann, Souza e Heinzle (2016) o Enade veio para comprovar o índice
de conhecimento obtido pelos alunos submetidos à prova, durante os anos de graduação em
uma IES.
Para a seleção dos alunos cadastrados para realização do Enade, a Instituição envia ao
MEC a lista com o nome dos alunos que, de acordo com Art. 33-H (BRASIL, 2007), cumprem
o critério estabelecido para responder à prova, a saber:
Aos ingressantes (enquanto foram avaliados por essa prova22): todos os estudantes
que tenham iniciado o curso com matrícula no ano de realização do Enade e
tenham concluído entre 7% e 22% da carga horária curricular mínima. De acordo
com o Artigo 33- F parágrafo 2º, os ingressantes realizam, apenas, a parte de
formação geral da prova, que será elaborada com base na Matriz de Referência do
Exame Nacional do Ensino Médio (Enem).
Aos concluintes: todos os alunos com expectativa de conclusão do curso, no ano
de realização do Enade, além dos que tenham completado mais de oitenta por
cento da carga horária mínima do curso.
O MEC e o Inep definem os alunos que farão parte da amostragem que participará do
Enade e uma lista é enviada à IES de forma a não possibilitar que esta escolha, por exemplo,
seus melhores alunos de cada curso, trazendo um viés para o resultado da avaliação. A avaliação
é feita apenas por uma amostragem, a fim de possibilitar que vários cursos possam ser avaliados
ao mesmo tempo.
O primeiro Enade foi realizado em 2004 e envolveu 13 áreas: Agronomia, Educação
Física, Enfermagem, Farmácia, Fisioterapia, Fonoaudiologia, Medicina, Medicina Veterinária,
Nutrição, Odontologia, Serviço Social, Terapia Ocupacional e Zootecnia. Em três anos, passou
a avaliar 52 áreas, diferente do Provão que em oito anos conseguiu atingir 23 áreas.
22 A partir de 2011, os ingressantes deixaram de fazer parte da prova Enade que, de acordo com o art. 33f da
Portaria normativa nº40, de 12 de dezembro de 2007, republicada em 29 de dezembro de 2010, estabelece: § 3º
Os alunos ingressantes que tiverem realizado o Enem, aplicado com metodologia que permita comparação de
resultados entre edições do exame, poderão ser dispensados de realizar a prova geral do Enade, mediante
apresentação do resultado válido.
49
Um curso está inserido dentro de um contexto que precisa ser considerado, caso
contrário, a estrutura pedagógica fica prejudicada: Proposta Pedagógica, perfil dos estudantes,
estrutura/instalações, entre outros. De acordo com Dias Sobrinho (2010), mais do que a
mensuração do aprendizado, o curso precisa ser aferido por meio de todas as outras esferas que
o compõem.
Um dos diferenciais que o Enade tentou apresentar foi, justamente, a opção de realizar
uma avaliação não só do conhecimento adquirido pelo aluno ou das condições e características
da infraestrutura e corpo discente ou projeto pedagógico. A nota obtida nas provas objetivas
não é a única forma de expressão para avaliação do curso.
Conforme apontou Schwartzman (2005) e também Oliveira (2017), no primeiro ano de
avaliação desses 13 cursos, alguns deles tiveram a média de conhecimento dos estudantes
concluintes pior do que a dos estudantes que estavam entrando no curso. O que pode ser um
dado alarmante, em termos de processo. Outro dado apontado por Oliveira (2017) é que, aos
estudantes ingressantes, talvez não fosse necessário aplicar a parte de Formação Geral deste
Exame, pois poderia obter tal informação por meio dos resultados do Enem. Por esse motivo e,
conforme afirmado anteriormente, o Enade passou, partir de 2011, a avaliar somente os
estudantes concluintes.
De acordo com a Portaria nº40 (BRASIL, 2010), em seu Art. 33-E, o calendário de
provas observa a seguinte divisão: no 1º ano – os cursos da Saúde, das Ciências Agrárias e áreas
afins; no 2º ano – os cursos das Ciências Exatas, licenciaturas e áreas afins; no último e 3º ano,
os cursos das Ciências Sociais Aplicadas, Ciências Humanas e áreas afins.
Cada prova é feita tomando como referência os conteúdos programáticos previstos nas
Diretrizes Curriculares do curso de graduação a ser avaliado e é composta de 40 questões
(objetivas e discursivas) que se dividem entre questões de formação geral e componente
específico. As questões de formação geral são aplicadas a todos os alunos ingressantes de todos
cursos, mais todos os concluintes, independentemente da área. Isso serve para aferir a aquisição
de competências, o desenvolvimento de habilidades e conhecimentos considerados essenciais
na formação de qualquer estudante de Educação Superior. As questões de Componente
Específico são aplicadas apenas aos concluintes e são elaboradas com base nas Diretrizes
Curriculares Nacionais de cada curso.
50
Mas, como é nacionalmente conhecido, a área de Direito é regida, muitas vezes, pela
Ordem dos Advogados do Brasil (OAB). Nesse caso, quais seriam as influências ou
interferências que a OAB poderia ter nessas Avaliações de Larga Escala do curso de Direito?
1.5 – A avaliação do curso de Direito e a participação da OAB nesse processo
A Ordem dos Advogados do Brasil surgiu em 1930, por meio do Decreto n.º 19.408,
assinado por Getúlio Vargas, chefe do Governo Provisório, e referendado pelo ministro da
Justiça Osvaldo Aranha. Uma de suas principais funções, de acordo com o próprio estatuto, Art.
54, é “colaborar com o aperfeiçoamento dos cursos jurídicos, e opinar, previamente, nos
pedidos apresentados aos órgãos competentes para criação, reconhecimento ou credenciamento
desses cursos” (BRASIL, 1994).
No entanto, ainda que exista o popularmente conhecido “Exame da Ordem” e ele seja
uma exigência legal e necessária a todos os interessados em exercer a advocacia, não se
reconhece, à OAB, a competência para fiscalizar e/ou avaliar o aprendizado dos bacharéis, nem
tampouco, do curso de Direito nas Instituições que ofertam esse curso.
Ele existe para mensurar as habilidades e as competências daqueles profissionais que
pretendem exercer a profissão e permite, inclusive, que mesmo depois de formado o cidadão
tenha seus conhecimentos e habilidades aferidos em uma nova prova do Exame da Ordem.
Maciel e Matumoto (2008) apontam que o Exame da OAB não tem nenhuma competência legal
para ser realizado com o objetivo de avaliar o que foi estudado/aprendido durante a formação
na esfera de nível superior.
A prova da OAB é direcionada para o exercício da advocacia e, desde a sua criação, de
acordo com Bezerra Junior (2016), é constantemente questionada em relação à eficácia, à
legalidade e, inclusive, à necessidade de existir, tendo em vista que, para os cursos de nível
superior, a avaliação de habilidades e competências do futuro profissional já faz parte da
proposta de Avaliação em Larga Escala, por meio do Enade.
No entanto, Vianna (2003) aventa a possibilidade de que os exames que avaliam os
cursos possam ser efetuados pelas próprias associações de classe, nesse caso, por exemplo, a
Ordem dos Advogados do Brasil (OAB). Considerando-se que o Exame da OAB permite
identificar o desempenho dos profissionais que querem advogar, talvez, também pudesse ser o
51
exame de avaliação dos cursos de Direito, apontando como resultados quais são os cursos mais
eficientes para a formação de advogados e, também, com menor sucesso na formação.
Para isso, é certo que seria necessário ajustar as atuais propostas da avaliação da OAB,
no entanto, a terceirização desse tipo de avaliação – a ser realizada pelos órgãos de classe –
poderia trazer uma redução nos custos, tornando a avaliação mais barata, em especial ao
governo. Além de garantir que a avaliação estaria voltada para o conhecimento que o
profissional precisa para atuar na área. Isso, consequentemente, pode trazer dados a respeito da
qualidade do curso (e da IES) que formou esses profissionais.
No caso da OAB, por exemplo, existe uma participação legítima na expedição de
autorização para abertura de novos cursos de Direito perante ao MEC. De acordo com o
parágrafo 9º da Portaria Normativa nº40 (BRASIL, 2010), deverão ser avaliadas (1) a relevância
social; (2) um núcleo de professores responsável pelo PPP, sua aplicação e desenvolvimento.
Não será esse o objeto de pesquisa deste trabalho, fica, no entanto, a proposta de reflexão para
que, no futuro, as avaliações possam ser pensadas de maneira compartilhada. Tendo sido feita
essa breve diferenciação de papeis, o item seguinte trata especificamente da Avaliação do curso
de Direito.
1.5.1 – O Enade do curso de Direito
A prova de Direito do Enade é norteada pelas Diretrizes Curriculares Nacionais para os
cursos de Direito, constantes na Resolução CNE/CES nº9, de 29 de setembro de 2004 (BRASIL,
200423) que determina, em seu Art. 4º, as seguintes habilidades e competências para compor a
proposta de formação do profissional do curso de graduação em Direito:
I - leitura, compreensão e elaboração de textos, atos e documentos jurídicos
ou normativos, com a devida utilização das normas técnico-jurídicas;
II - interpretação e aplicação do Direito;
III - pesquisa e utilização da legislação, da jurisprudência, da doutrina e de
outras fontes do Direito;
IV - adequada atuação técnico-jurídica, em diferentes instâncias,
administrativas ou judiciais, com a devida utilização de processos, atos e
procedimentos;
V - correta utilização da terminologia jurídica ou da Ciência do Direito;
23 Disponível em: http://portal.mec.gov.br/cne/arquivos/pdf/rces09_04.pdf. Acesso em: abril de 2018.
52
VI - utilização de raciocínio jurídico, de argumentação, de persuasão e de
reflexão crítica;
VII - julgamento e tomada de decisões; e,
VIII - domínio de tecnologias e métodos para permanente compreensão e
aplicação do Direito.
No que se refere aos eixos de formação, o Art. 5º (BRASIL, 2004) determina que o
curso de graduação em Direito contemple, em seu PPP:
– Eixo de Formação Fundamental: possibilitar que o estudante estabeleça as relações do
direito com outras áreas do saber, por meio de conteúdos essenciais sobre Antropologia, Ciência
Política, Economia, Ética, Filosofia, História, Psicologia e Sociologia.
– Eixo de Formação Profissional: o estudo sistemático do conhecimento e da aplicação,
contextualizados segundo a evolução da Ciência do Direito e sua aplicação às mudanças sociais,
econômicas, políticas e culturais do Brasil e suas relações internacionais, incluindo-se
conteúdos essenciais sobre Direito Constitucional, Direito Administrativo, Direito Tributário,
Direito Penal, Direito Civil, Direito Empresarial, Direito do Trabalho, Direito Internacional e
Direito Processual.
– Eixo de Formação Prática: integração prática dos eixos de Formação Fundamental e
Formação Profissional, especialmente nas atividades relacionadas ao Estágio Curricular
Supervisionado, ao trabalho final de curso e às atividades complementares.
No entanto, tendo como base as habilidades e as competências constantes das DCNs dos
respectivos cursos avaliados, apesar do Enade ter a proposta de ser um acompanhamento ao
processo de aprendizagem e desempenho acadêmico, há também muitas críticas ao modelo que
se propõe.
Ressaltamos aqui alguns autores que apontam desafios a serem superados por esse tipo
de avaliação. Ainda que não seja um dos objetivos propostos e que, pelo contrário, queira se
eliminar esse tipo de atividade já constante, por exemplo no Provão, a simples divulgação do
Conceito Enade, juntamente com o pouco uso dos resultados de forma a trazer melhorias nas
propostas político-pedagógicas das IES, faz com que estas Instituições, especialmente as
melhores colocadas, se utilizem dos dados fornecidos pelo Sinaes para a criação do
ranqueamento de todos os cursos/IES.
Cunha (2002) e Sousa (2002) apontam que esse ranqueamento incentiva a
competitividade entre as IES, causando um fortalecimento dos mecanismos discriminatórios.
53
Silva e Ferraz (2018) apontam que o ranqueamento vai totalmente contra a proposta inicial do
Enade e faz com que, de acordo com Polidori et al (2011), se torne estático e normativo. Becker
(2010) aponta que esse tipo de ranqueamento muda o foco da ferramenta de avaliação do
conhecimento dos alunos (no caso, o Enade) para se tornar mais um instrumento comercial que
traz retornos financeiros às Instituições e ajuda na captação de novos estudantes ou na evasão
destes.
Canan e Eloy (2016), por exemplo, apontam que o Enade compara IES de tamanhos
diferentes e com situações socioeconômicas totalmente diferentes, o que faz com que as
reflexões acerca dos resultados nacionais sejam enviesadas, dificultando que cada Instituição
contribua com a melhoria da qualidade do Ensino Superior. Para Barriga (2008), por exemplo,
o Enade é uma prova de certificação e deixa a desejar no que diz respeito à formação em si.
Por fim, em um contraponto interessante, Stake (1997) esclarece que não existe um
único método de avaliação de programas educacionais que atenda a todas essas necessidades.
Um busca de informações diferentes, outros têm públicos distintos e, há, ainda, os que possuem
interesses diferenciados. Dessa forma, segue-se a análise daquele que é, por enquanto, o mais
completo e atual Programa de Avaliação dos cursos de Ensino Superior.
1.5.2 – A prova do Enade de Direito
Até o presente momento, o Curso de Direito passou pela avaliação do Enade nos anos
de: 2006, 2009, 2012 e 2015. Esta prova é composta de 8 questões de Formação Geral, Questões
Discursivas – que variaram de 04 e 06, nesses quatro anos, e de questões de Componente
Específico – que variaram de 26 e 28 questões.
As provas de 2006 e 2009 foram compostas, em cada ano, de 10 questões de Formação
Geral (8 objetivas e 2 discursivas) e 30 questões de Componente Específico (26 objetivas e 4
Discursivas). Já a prova de 2012 sofreu uma alteração nas questões de Componente Específico
e passou a ter 27 questões objetivas e apenas 3 discursivas. Por fim, a prova de 2015 foi
composta de 40 questões, sendo 5 discursivas, 8 de Formação Geral e 27 de Componente
Específico.
Só serão objeto desta pesquisa as questões objetivas de Componente Específico de todos
os anos. As competências constam em portarias previamente divulgadas pelo site do Inep, a
saber:
54
2006 – Portaria Inep nº 125 de 28 de julho de 2006 – Formação Geral e
Componente Específico (BRASIL, 2006).
2009 – Portaria Inep nº 129 de 24 de junho de 2009 – Formação Geral e
Componente Específico (BRASIL, 2009).
2012 – Portaria Inep nº 206, de 22 de junho de 2012 – Componente Específico
(BRASIL, 2012).
2015 – Portaria Inep nº 236, de 10 de junho de 2015 – Componente Específico
(BRASIL, 2015).
1.5.2.1 – Enade 2006
No ano de 2006, de acordo com a Portaria Inep nº 125 de 28 de julho de 2006 (BRASIL,
200624), Art. 4º, as características descritas para o Componente Específico da Prova do Enade
da área de Direito, foram:
a) avaliar o conhecimento dos conteúdos programáticos previstos na
Resolução CNE/CSE n° 9 que institui as Diretrizes Curriculares do Curso de
Graduação em Direito;
b) verificar o desenvolvimento, competências e habilidades necessárias ao
aprofundamento nos eixos da formação fundamental, formação profissional e
formação prática;
c) avaliar o nível de atualização dos estudantes com relação à realidade
brasileira e mundial.
Serão referenciais da prova do Componente Específico, conforme Art. 7°: ética, justiça,
democracia, cidadania, dignidade da pessoa humana, alteridade, multiculturalismo, pluralismo,
solidariedade, meio ambiente e direitos humanos, como princípios e valores que conformem
relação transdisciplinar dos seguintes conteúdos: a) Ciência Política, Economia, Filosofia,
História, Sociologia; b) Direito Constitucional, Direito Administrativo, Direito Tributário,
Direito Penal, Direito Civil, Direito Empresarial, Direito do Trabalho, Direito Internacional e
Direito Processual (BRASIL, 2006).
24 Disponível em: http://www.abmes.org.br/arquivos/legislacoes/Port_INEP_125_2006_07_28.pdf. Acesso em
abril de 2018.
55
Por fim, define-se que a prova do Enade 2006, no componente específico da área de
Direito, seria organizada em 30 questões, sendo 4 discursivas e 26 de múltipla escolha
(BRASIL, 2006, Art. 8º).
1.5.2.2 – Enade 2009
De acordo com a Portaria Inep nº 129 de 24 de junho de 2009 (BRASIL 200925), Art.4º,
são os mesmos critérios do ciclo anterior (2006) para a avaliação, a saber:
a) avaliar o conhecimento dos conteúdos programáticos previstos na
Resolução CNE/CSE n° 9 que institui as Diretrizes Curriculares do Curso de
Graduação em Direito;
b) verificar o desenvolvimento, competências e habilidades necessárias ao
aprofundamento nos eixos da formação fundamental, formação profissional e
formação prática;
c) avaliar o nível de atualização dos estudantes com relação à realidade
brasileira e mundial.
Os referenciais da prova do Componente Específico da prova Enade 2009 foram,
conforme Art. 7°: ética, justiça, democracia, cidadania, dignidade da pessoa humana, alteridade,
multiculturalismo, pluralismo, solidariedade, meio ambiente e direitos humanos, como
princípios e valores que conformem relação transdisciplinar dos seguintes conteúdos: a) Ciência
Política, Economia, Filosofia, História, Sociologia, Antropologia, Psicologia e Ética Social; b)
Direito Constitucional, Direito Administrativo, Direito Tributário, Direito Penal, Direito Civil,
Direito Empresarial, Direito do Trabalho, Direito Internacional e Direito Processual. Nota-se,
portanto, que Antropologia, Psicologia e Ética Profissionais são novos conteúdos em relação às
cobranças do primeiro ano deste Exame no curso de Direito.
Delimita-se, então, de acordo com o Art. 8º que esta prova de 2009 foi formada por 30
questões, sendo 3 discursivas e 27 de múltipla escolha, envolvendo situações-problema e
estudos de casos. Apresentando, então, uma pequena diferença em relação à mesma prova, na
avaliação do ciclo anterior (2006) que foi composta por 4 questões discursivas e 26 de múltipla
escolha.
25 Disponível em: http://download.inep.gov.br/download/Enade/2009/Portaria_Diretrizes_2009_Direito.pdf.
Acesso em: abril de 2018.
56
1.5.2.3 – Enade 2012
A partir de 2012, o MEC/ Inep, responsável pelo Enade, passou a publicar duas portarias
diferentes: uma para questões que tratam da Formação Geral e outra para a parte do
Componente Específico. No que diz respeito à parte de Componente Específico da prova de
2012 (BRASIL, 201226) ficaram determinados, em seu Art. 4º, os mesmos objetivos
anteriormente avaliados (provas Enade 2006 e 2009). A novidade foi uma mudança na
nomenclatura de Conteúdos para Objetos de Conhecimento. Além disso, assim como em 2009,
a prova de Componente Específico ficou com 30 questões, sendo 3 discursivas e 27 de múltipla
escolha, envolvendo situações-problema e estudos de casos.
1.5.2.4 – Enade 2015
Por fim, a última prova do Enade, realizada até a data de elaboração desta pesquisa foi
a de 2015, tendo a parte de Componente Específico regida pela Portaria Inep nº 236, de 10 de
junho de 2015 (BRASIL, 201527). Apesar da divisão de questões se manter em conformidade
com os últimos três ciclos (30 questões, sendo 3 discursivas e 27 objetivas), houve uma
alteração no que diz respeito aos subsídios considerados, passando-se, então, a considerar de
acordo com o Art. 4º as Diretrizes Curriculares Nacionais do Curso de graduação em Direito,
Resolução CNE/CES nº 9, de 29 de setembro de 2004 (BRASIL, 200428), as normativas
posteriores associadas e a legislação profissional.
Com isso, percebe-se que houve algumas mudanças em relação ao produto de avaliação
dos alunos: a prova. Mas, ainda assim, é possível comparar o desempenho dos estudantes de
Direito por meio dos seguintes cenários: (1) em cada ano – na obtenção do Conceito Enade, por
exemplo – e (2) entre todos os quatro anos – acerca do desempenho (ano a ano) frente aos
Conteúdos Programáticos (ou Componentes Específicos – como nomeia o Enade) tratados no
conjunto de avaliações.
26 Portaria nº 206, de 22 de junho de 2012. Disponível em: http://download.inep.gov.br/educacao_superior/Enade/
legislacao/2012/portarias_diretrizes_Enade_2012.pdf. Acesso em abril de 2018. 27 Portaria Inep nº 236, de 10 de junho de 2015. Disponível em: http://www.furb.br/web/upl/arquivos/2015061617
36200.Diretriz%20-%20Direito.pdf?20151110192154. Acesso em abril de 2018. 28 Resolução CNE/CES nº 9, de 29 de setembro de 2004. Disponível em: http://portal.mec.gov.br/cne/arquivos
/pdf/rces09_04.pdf. Acesso em abril de 2018.
57
Ou seja, o levantamento de dados em relação ao que fora mais e menos cobrado, se o
desempenho dos alunos da Universidade Alpha é tão bom (ou ruim) quanto o desempenho dos
alunos do Brasil, nas mesmas questões. Se há determinado Componente que foi cobrado com
maior ênfase (em todos os anos), se os Conteúdos que se repetem são alvo de bom ou mau
desempenho dos alunos da Universidade Alpha, entre outros.
Há muito o que ser pesquisado nos resultados e nas avaliações realizadas até aqui; por
isso, o próximo capítulo desta pesquisa desenvolve uma apresentação de parte deles, com o
intuito de agregar informação e conhecimento sobre o desempenho dos estudantes.
58
CAPÍTULO II – PERCURSO METODOLÓGICO
2.1 – Análise de documentos
Esta pesquisa foi desenvolvida basicamente, por meio da análise de dados secundários,
obtidos em relatórios do Instituto Nacional de Estudos e Pesquisas Educacionais Anísio
Teixeira (Inep), autarquia federal vinculada ao MEC. Para Godoy (1995), estes relatórios são
uma fonte de dados rica e confiável, que permite uma análise aprofundada do que se está
estudando.
Definiu-se como objeto de pesquisa todas as Provas do curso de Direito realizadas pelo
Enade até o ano de 2018. Assim, trata-se de uma pesquisa documental que, segundo Bardin
(2011), vale-se de uma metodologia que pode gerar resultados interessantes para análise.
A escolha pelo curso de Direito se deu por tratar-se de um dos primeiros cursos de nível
superior no Brasil e que apresenta alto número de novos cursos e estudantes na área. Além
disso, é um dos cursos da Universidade Alpha cuja procura é grande e permanente.
A coleta de dados foi realizada diretamente no site do Inep, de forma que foram
extraídos os principais relatórios (explicitados a seguir) de cada um dos quatro anos de
aplicação das Provas Enade para o curso de Direito – anos de 2006, 2009, 2012 e 2015. Por
meio da análise destes documentos (disponíveis publicamente) foram feitas as análises do
desempenho dos estudantes do curso de Direito da Universidade Alpha e um comparativo em
relação ao desempenho dos estudantes do Brasil nas mesmas provas.
Ao se considerar que a parte de Formação Geral é muito ampla e que não se restringe à
avaliação de habilidades e competências, pois não são disciplinas/objetos de conhecimento que
são tratadas e ensinadas em sala de aula, e sim temáticas fluidas (são alteradas a cada Exame),
optou-se por analisar apenas as questões de Componente Específico, objeto de conhecimento e
ensino do curso de Direito.
Dando continuidade às buscas por material de pesquisa, utilizamos as seguintes
informações29 disponíveis nos relatórios dos anos de 2006, 2009, 2012 e 2015, encontradas no
site do MEC:
29 Disponível em: http://portal.inep.gov.br/web/guest/inicio. Acesso em março/2018.
59
Relatório Síntese: envolve todos os cursos avaliados, contendo: a Análise Técnica
da Prova, a Percepção da Prova, a Distribuição dos Conceitos, as Características dos
Estudantes e Coordenadores e as Impressões sobre Atividades Acadêmicas e
Extracurriculares.
Relatório de Curso: contém o desempenho dos estudantes, nesse caso
especificamente do Curso de Direito, em relação aos conteúdos programáticos
previstos no documento das DCNs. São os resultados obtidos a partir da análise dos
dados dos estudantes deste curso, independente da IES.
Relatório da IES – Instituição de Educação Superior: contém os resultados tanto
do Enade, quanto do Questionário do Estudante respondido on-line, na página do
Inep, por concluintes de cada um dos cursos participantes do referido exame. Por meio
desse relatório, é possível fazer comparações com outras IES semelhantes (regiões do
país, categoria administrativa, por exemplo), possibilitando que políticas públicas
possam ser pensadas diante de resultados destas Instituições com características
aproximadas.
Provas e Gabaritos: trata-se dos exemplares dos cadernos de provas que foram
aplicadas e seus respectivos gabaritos.
Portarias/Resoluções referentes a cada uma das provas:
o Resolução CNE/CES nº 9, de 29 de setembro de 2004 (BRASIL, 2004).
o 2006 – Portaria Inep nº 125 de 28 de julho de 2006 – Componente Específico
(BRASIL, 2006).
o Portaria Normativa nº 40 de 12 de dezembro de 2010 (BRASIL, 2010).
o 2009 – Portaria Inep nº 129 de 24 de junho de 2009 – Componente Específico
(BRASIL, 2009).
o 2012 – Portaria Inep nº 206, de 22 de junho de 2012 – Componente Específico
(BRASIL, 2012).
o 2015 – Portaria Inep nº 236, de 10 de junho de 2015 – Componente Específico
(BRASIL, 2015).
2.1.1 – Análise de itens
Para ajudar na compreensão dos dados fornecidos posteriormente nesta pesquisa e como
uma contribuição teórica, apresentamos uma breve contextualização sobre a Análise de Itens.
60
Trata-se de um procedimento que confronta o desempenho do grupo que tirou as notas mais
altas em relação a cada questão apresentada na prova. O mesmo é feito com o grupo que obteve
baixo desempenho. Ou seja, após a prova, tem-se um gabarito oficial com todas as respostas
corretas. Esse gabarito é divulgado e, em relação ao que ele apresenta, faz-se uma comparação
das respostas escolhidas por todos os alunos. É comum o uso de softwares específicos para
fazer essa leitura de gabaritos e respostas corretas. Com isso, verifica-se quais são os alunos
que obtiveram o melhor desempenho, considerando a quantidade de respostas corretas em
relação ao gabarito oficial, e quais os alunos que obtiveram as notas/pontuação mais baixas.
Todos os sujeitos são divididos em três grupos: grupo superior, composto por 27% dos
sujeitos que tiveram o melhor desempenho; grupo inferior, composto por outros 27% dos
sujeitos, que tiveram o pior desempenho e, grupo intermediário corresponde aos 46% restantes,
portanto, os que tiveram desempenho mediado. Essa definição de 27% para cada grupo –
superior e inferior – ficou conhecida como ”Regra 27” (PASQUALI, 2013).
Em uma prova, a finalidade principal é, justamente, separar o grupo “intermediário”. Os
indivíduos muito bons continuarão muito bons e pertencentes ao grupo superior. Os
malpreparados continuarão pertencentes ao grupo inferior.
Os resultados desse processo, bem como a análise da porcentagem de escolha de cada
sujeito, é o que se chama de Análise de Itens.
A análise do funcionamento de cada questão em relação ao grupo de sujeitos
respondentes, possibilita: (1) medir a qualidade e o funcionamento da questão; (2) verificar
problemas teórico-técnicos da avaliação/questões; (3) traçar um perfil do aprendizado do grupo;
e (4) verificar o nível de dificuldade da questão em relação àquele grupo.
A elaboração de uma questão de múltipla escolha, que seleciona bem os sujeitos, está
fortemente ligada à capacidade de se criar distratores atrativos e eficientes. Cada alternativa
tem a função de ser efetiva e atraente a fim de garantir porcentagem de escolha dentre o grupo
ao qual a prova foi submetida. As alternativas erradas (os distratores) deverão ser escolhidas
pelo grupo inferior, assim, espera-se que a alternativa correta seja escolhida por alta quantidade
de pessoas que se destacaram no grupo superior.
Parte-se do pressuposto de que o indivíduo que acerta mais itens detém maior
capacidade cognitiva em relação ao indivíduo que erra mais. Disso, supõe-se que quem sabe
mais terá notas (escores) mais altas do que quem sabe menos. A quantidade de sujeitos que
61
escolhe cada alternativa é o que determina a eficiência (ou não) da questão como um todo e de
cada opção de resposta.
Apresenta-se, então, alguns dados importantes para a compreensão da posterior análise
das provas do Enade para o curso de Direito, a saber:
- O Índice de Discriminação (ID) é referente à Discriminação que a questão teve, ou
seja, se ela discriminou o sujeito que possui habilidades e proficiências distintas (e alcançou
resultados na aprendizagem) do sujeito que não sabe a matéria e/ou acertou a resposta ao acaso
(e não alcançou resultados na aprendizagem), colocando sujeitos de magnitudes aproximadas
dentro de um mesmo grupo.
De acordo com Vianna (1976), Índice de Discriminação é a diferença entre a % de acerto
do grupo superior (sujeitos que tiveram melhor desempenho na prova) e a % de acerto do grupo
inferior (sujeitos com pior desempenho na prova). De acordo com Pasquali (1996), ele sempre
tem que ser positivo, mas se for negativo significa que o grupo inferior acertou a questão e o
grupo superior não. A questão é discriminativa quando os estudantes com notas altas na prova
(grupo superior) escolheram a resposta correta com maior frequência do que os estudantes que
não tiveram bom desempenho na prova (GRONLUND, 1974).
De acordo com NBME (2016), é um valor que vai do -1.00, passa pelo zero e atinge, no
máximo, o +1.00. Quando é positivo e alto (próximo do +1.00) pode indicar que os sujeitos que
acertaram aquela questão tendem a ir bem no resto da avaliação, porque a questão discriminou
bem. Quando o número é negativo, ou muito próximo de zero, não há como relacionar que o
mal desempenho dos sujeitos (que, nesse caso, erraram a resposta correta) está ligado ao
desempenho da prova como um todo, assim como é feito quando o valor do Índice de
Discriminação, se aproxima do +1.00. Pode ter sido apenas uma questão tecnicamente
problemática, por exemplo, com duas respostas corretas. Por isso, não reflete o desempenho
dos alunos.
Para Vianna (1976), uma questão só tem Índice de Discriminação igual a +1.00 quando
todos os estudantes do grupo superior escolheram a resposta correta e nenhum estudante do
grupo inferior escolheu a resposta correta. Em contrapartida, quando muita gente acertou (tanto
do grupo superior quanto do grupo inferior) a questão tem Índice de Discriminação próximo do
zero, apontando para uma questão muito fácil e, portanto, não discriminatória. Quando esse
índice é negativo, trata-se, muito provavelmente, de uma questão defeituosa como, por
62
exemplo, ausência de informação relevante ou mais de uma resposta correta ou, ainda, uma
disciplina/objeto de conhecimento fora dos conhecimentos exigidos.
Uma questão que discrimina sujeitos que sabem e sujeitos que não sabem é aquela que
tem o Índice de Discriminação maior ou igual a 0.40. Os índices que ficam entre 0.30 e 0.39
são bons, mas estão sujeitos ao aprimoramento. De acordo com Rabelo (2013b), o Índice de
Discriminação pode ser classificado da seguinte forma:
≥ 40: Item muito bom.
Entre 30 e 40: item bom, mas sujeito ao aprimoramento.
Entre 20 e 30: item marginal (também considerado como médio por outros autores),
sujeito à reelaboração.
≤ 20: item deficiente (também considerado como fraco por outros autores), deve ser
rejeitado.
Alguns dos possíveis motivos pelos quais a questão pode não ter discriminado são, por
exemplo, a questão ter ficado fácil demais (todos acertaram) ou difícil demais (todos erraram);
sem alternativa correta ou com mais de uma alternativa correta; ou, também, por falta de
informação para solução.
- O Índice de Facilidade (IF) – para alguns também conhecido como Índice de
Dificuldade – é refletido na porcentagem do grupo total que acertou o item; incluindo-se o
grupo superior, o grupo inferior e, também, o grupo do meio (intermediários). Quanto maior a
porcentagem de acerto, mais fácil foi a questão. Índices de Dificuldades muito baixos, com
porcentagens pequenas, podem significar que a questão foi tão difícil que quase ninguém
acertou. Ou seja, Índices muito altos pressupõem questões muito fáceis; Índices muito baixos
pressupõem questões muito difíceis.
Outro dado importante de se observar é que, dentre as alternativas possíveis e
considerando o total de 100% das escolhas a serem distribuídos, nesse caso, em questões com
cinco alternativas, aquelas que apresentam uma porcentagem de escolha igual ou menor que
5% são alternativas pouco atraentes para o grupo escolher (tanto inferior quanto, especialmente,
superior). Assim, são alternativas não atraentes e descartadas facilmente, aumentando a
possibilidade de acerto ao acaso.
Ainda de acordo com NBME (2016), quando são muito fáceis ou muito difíceis as
questões não trazem muitas informações sobre as habilidades cognitivas daquele público
63
testado e, portanto, podem não servir como indicador de conhecimento do respectivo grupo.
Para esta pesquisa, optou-se por utilizar como referência de Índice de Facilidade a escala
apresentada em todos os Relatórios Sínteses do MEC/ Inep:
- Muito Fácil: ≥ 0,86
- Fácil: 0,61 a 0,85
- Médio: 0,41 a 0,60
- Difícil: 0,16 a 0,40
- Muito Difícil: ≤ 0,15
2.1.2 – Dados da prova do Enade do curso de Direito
Primeiramente, percebe-se que, em alguns anos, a prova fora aplicada para alunos
ingressantes e alunos concluintes. Após algumas edições (a partir de 2011), passou-se a avaliar
somente os alunos concluintes, o que também se aplica a esta pesquisa, a fim de possibilitar a
análise completa.
Para iniciar a pesquisa, identificamos a resposta correta de cada questão, analisando o
percentual de escolhas dos estudantes avaliados em cada uma das alternativas das questões
objetivas de Componente Específico, sendo estas compostas, em média, entre 26 e 28 questões
objetivas, nos quatro anos de Enade de Direito. As demais questões – para completar 40 – foram
Discursivas e/ou Objetivas, mas que compunham a parte de Formação Geral e, por isso, ambas
não serão objeto desse estudo.
Dentre a quantidade de questões objetivas possíveis, optou-se por escolher e usar como
análise de dados para essa pesquisa, primeiramente, as questões em que os alunos alcançaram
desempenho melhor e, posteriormente, as questões que não tiveram um bom desempenho,
respeitando a segmentação da Universidade Alpha e do Brasil. Feitas essas identificações em
todos os quatro anos de aplicação do Exame e a partir das provas e gabaritos disponíveis no
site, foram identificadas nas questões escolhidas:
- Marcação do Índice de Facilidade (ou Dificuldade), juntamente com o conceito respectivo
(muito fácil, fácil, médio, difícil ou muito difícil) da questão em relação a todos os avaliados –
dado nacional.
- Marcação do Índice de Discriminação, juntamente com o conceito respectivo (muito bom,
bom, médio ou fraco) da questão em relação a todos os avaliados – dado nacional.
64
- Marcação do Intervalo (máximo e mínimo) de Índice de Facilidade/Dificuldade da prova
inteira.
- Marcação do Intervalo (máximo e mínimo) de Índice de Discriminação da prova inteira.
- Identificação da quantidade de questões muito fácil, fácil, média, difícil ou muito difícil,
separadas por conceito, em relação ao Índice de Facilidade/Dificuldade.
- Identificação da quantidade de questões muito boa, boa, média ou fraca, em relação ao Índice
de Discriminação.
- Identificação de quantas e quais questões foram anuladas em cada ano (antes ou depois da
divulgação do gabarito).
Além das informações descritas, buscou-se, nos Relatórios Sínteses de cada ano, obter
informações como número de inscritos e número de alunos que compareceram, tanto em relação
aos alunos da Universidade Alpha, quanto em relação aos alunos do Brasil. Apenas com o
propósito de delinear o cenário geral no qual se insere o nosso objeto de análise (questões
objetivas de Componente Específico), apresentamos, a seguir, dados relativos também às
questões de Formação Geral.
65
Quadro 1 – Enade 2006: estatísticas gerais
Inscritos Concluintes Brasil 79.422
Inscritos Concluintes IES Alpha 477
Presentes Concluintes Brasil 30.695
Presentes Concluintes IES Alpha 56
FG CE FG+CE
Média da prova 46,9 40,2
Índice de Facilidade
(IF)
Muito Fácil 0 0 0
Fácil 3 2 5
Médio 1 11 12
Difícil 3 13 16
Muito Difícil 1 0 1
Índice de
Discriminação (ID)
Muito bom 6 8 14
Bom 1 9 10
Médio/Marginal 1 7 8
Fraco/Deficiente 0 2 2
Variação do IF 0,11-0,83 0,16-0,67 0,11-0,83
Variação do ID 0,41-0,52 0,07-0,52 0,07-0,46
Gabaritos Anulados 0 2 2
Fonte: elaboração da pesquisadora, com base nos dados disponibilizados no Relatório de Curso e no Relatório
Síntese de 2006, pelo MEC/INEP.
CE – Componente Específico; FG – Formação Geral; ID – Índice de Discriminação; IF – Índice de
Facilidade.
Quadro 2 – Enade 2009: estatísticas gerais
Inscritos Concluintes Brasil 90.035
Inscritos Concluintes IES Alpha 475
Presentes Concluintes Brasil 80.706
Presentes Concluintes IES Alpha 453
FG CE FG+CE
Média da prova 57,75 53,27
Índice de Facilidade
(IF)
Muito Fácil 1 0 1
Fácil 2 6 8
Médio 2 10 12
Difícil 2 6 8
Muito Difícil 1 2 3
Índice de
Discriminação (ID)
Muito bom 3 10 13
Bom 0 5 5
Médio/Marginal 4 3 7
Fraco/Deficiente 1 6 7
Variação do IF 0,10-0,85 0,14-0,81 0,10-0,85
Variação do ID 0,03-0,41 0,07-1,13 0,03-1,13
Gabaritos Anulados 4 5 9
Fonte: elaboração da pesquisadora, com base nos dados disponibilizados no Relatório de Curso e no Relatório
Síntese de 2009, pelo MEC/INEP.
CE – Componente Específico; FG – Formação Geral; ID – Índice de Discriminação; IF – Índice de Facilidade.
66
Quadro 3 – Enade 2012: estatísticas gerais
Inscritos Concluintes Brasil 123.211
Inscritos Concluintes IES Alpha 625
Presentes Concluintes Brasil 104.593
Presentes Concluintes IES Alpha 568
FG CE FG+CE
Média da prova 49,3 41,9
Índice de Facilidade
(IF)
Muito Fácil 0 0 0
Fácil 1 2 3
Médio 5 8 13
Difícil 2 13 15
Muito Difícil 0 3 3
Índice de
Discriminação (ID)
Muito bom 6 2 8
Bom 8 1 9
Médio/Marginal 1 10 11
Fraco/Deficiente 0 6 6
Variação do IF 0,30-0,62 0,08-0,81 0,08-0,81
Variação do ID 0,27-0,50 (-)0,02-0,42 (-)0,02-0,50
Gabaritos Anulados 1 6 7
Fonte: elaboração da pesquisadora, com base nos dados disponibilizados no Relatório de Curso e no Relatório
Síntese de 2012, pelo MEC/INEP.
CE – Componente Específico; FG – Formação Geral; ID – Índice de Discriminação; IF – Índice de Facilidade.
Quadro 4 – Enade 2015: estatísticas gerais
Inscritos Concluintes Brasil 124.924
Inscritos Concluintes IES Alpha 621
Presentes Concluintes Brasil 107.417
Presentes Concluintes IES Alpha 574
FG CE FG+CE
Média da prova 58,0 41,1
Índice de Facilidade
(IF)
Muito Fácil 0 0 0
Fácil 4 3 7
Médio 2 10 12
Difícil 2 12 14
Muito Difícil 0 2 2
Índice de
Discriminação (ID)
Muito bom 6 10 16
Bom 2 7 9
Médio/Marginal 0 6 6
Fraco/Deficiente 0 4 4
Variação do IF 0,34-0,77 0,00-0,63 0,00-0,77
Variação do ID 0,37-0,51 0,00-0,49 0,00-0,51
Gabaritos Anulados 1 3 4
Fonte: elaboração da pesquisadora, com base nos dados disponibilizados no Relatório de Curso e no Relatório
Síntese de 2015, pelo MEC/INEP.
CE – Componente Específico; FG – Formação Geral; ID – Índice de Discriminação; IF – Índice de Facilidade.
67
Além dos dados supracitados, foram realizadas, apenas, nas questões de Componente
Específico:
- Marcação da alternativa correta de cada questão.
- Marcação da porcentagem de escolha de todas as alternativas (correta e distratores30) em
relação ao desempenho dos alunos da Universidade Alpha.
- Marcação da porcentagem de escolha da alternativa correta em relação ao desempenho dos
alunos do Brasil.
Por fim, conforme o quadro 5, foram acrescentados:
1 - Levantamento da quantidade de vezes em que a alternativa correta apareceu em cada posição
A/B/C/D/E.
2 - Anotação do Conceito Enade de cada ano.
3 - Total de questões objetivas possíveis.
4 - Apontamento do número de questões que foram anuladas em cada ano, antes da divulgação
do gabarito.
5 - Apontamento do número de questões que foram anuladas em cada ano, depois da divulgação
do gabarito.
6 - Total de questões da Prova de Componente Específico, independente de anulação.
7 - Levantamento de quantas questões apresentaram alternativas inválidas, com menos de 5%
de escolha, por parte dos sujeitos respondentes da prova.
30 Distratores são todas as alternativas incorretas que compõem uma questão de múltipla escolha.
68
Qu
ad
ro 5
– I
nfo
rma
ções
co
mp
lem
enta
res
sob
re a
s p
rovas
PO
NT
OS
OB
SE
RV
AD
OS
2006
2009
20
12
20
15
1
Quai
s fo
ram
os
conce
ito
s E
nad
e,
de
cad
a
ano
, d
a U
niv
ersi
dad
e A
lpha?
5
3
3
3
2
To
tal
de
Ques
tões
Ob
jeti
vas
co
m g
abar
ito
s
dis
po
nív
eis
26
24
26
26
3
Quanti
dad
e d
e q
ues
tões
an
ula
das
ante
s d
a
div
ulg
ação
do
gab
arit
o
0
4
1
1
4
Ap
onta
mento
da
quan
tid
ade
de
ques
tões
(e
resp
ecti
vo
nú
mer
o)
anula
das
ap
ós
div
ulg
ação
do
gab
arit
o
2
(17
/22)
5
(20
/22
/23
/27
/37
)
6
(10
/13
/17
/23
/31
/32)
3
(17
/18
/27
)
5
To
tal
de
ques
tões
da
Pro
va
de
Co
mp
onente
Esp
ecíf
ico
, in
dep
end
ente
de
anula
ção
2
6
28
27
27
6
Quanta
s q
uest
ões
ob
jeti
vas
tiv
eram
, p
elo
men
os,
um
a al
tern
ativ
a co
m m
eno
s d
e 5
%
de
esco
lha
do
s al
uno
s, s
e to
rnan
do
po
uco
atra
tivas
17
de
24
vál
idas
1
3 d
e 1
9 v
álid
as
4 d
e 20
vál
idas
1
de
23
vál
idas
7
Quanta
s vez
es c
ada
gab
arit
o (
A/B
/C/D
/E)
se r
epet
iu e
m c
ada
pro
va
(*)
A
B
C
D
E
A
B
C
D
E
A
B
C
D
E
A
B
C
D
E
6
5
5
6
4
5
6
3
7
3
5
5
7
5
4
5
6
4
6
5
Fo
nte
: el
abo
raçã
o d
a p
esq
uis
ado
ra,
com
bas
e no
s d
ado
s d
isp
onib
iliz
ado
s no
s C
ader
no
s d
e Q
ues
tões,
Rel
ató
rio
de
Curs
o e
Rel
ató
rio
Sín
tese
de
cad
a an
o.
69
Apenas como uma explicação do quadro 5, apresentam-se algumas observações
importantes – indícios de funcionamento dos quatro anos de avaliação.
O Conceito Enade de 2006 foi o maior possível na escala: cinco (5). A partir de 2009,
atingiu o conceito três (3) e assim permaneceu até a última aplicação da Prova em 2015.
Importante retomar que o conceito menor do que três (3), em duas avaliações consecutivas,
gera consequências e investigações avaliativas mais profundas.
Em uma prova de avaliação como o Enade – que mede o desempenho do curso e não
dos alunos individualmente – quanto melhor o desempenho dos alunos, mais bem preparados
eles estão, melhor será a avaliação do curso e, consequentemente, maior a possibilidade do
conceito Enade ser alto, isso porque se deve considerar outras dimensões da avaliação –
infraestrutura, corpo docente e pedagógica – para que se chegar no conceito final.
No que diz respeito ao posicionamento em que a alternativa correta apareceu em cada
uma das Provas, convém notar que em nenhum dos anos houve um completo e equilibrado
balanceamento. Em 2006, a alternativa correta apareceu mais vezes na letra “A” e na letra
“D”, com seis repetições em cada uma. Em 2009, esteve mais vezes na letra “D”, com sete
repetições. Em 2012, a alternativa correta se repetiu mais na letra “C”, também com sete
repetições e, por último, em 2015, mais vezes, nas letras “B” e “D”, com seis repetições em
cada uma. Ou seja, a alternativa D parece ser a escolha mais frequente para apresentar a
resposta correta de cada questão. Isso pode interferir no desempenho dos alunos que, ao final
da prova e sem tempo de terminar de responder todas as questões, optam por escolher ao acaso
– ou “chutar” – a resposta correta das questões ainda não respondidas. Nos casos em que há
um balanceamento da posição da alternativa correta (A, B, C, D ou E), torna-se mais difícil
acertar a questão nesses moldes.
Ao analisar os relatórios disponíveis, foram identificados alguns possíveis motivos
para que algumas questões fossem anuladas antes mesmo da divulgação do gabarito. Ainda
que não seja possível afirmar tais motivos, pode-se aventar que é muito provável que se tratam
de questões que apresentaram alguns dos problemas elencados anteriormente para a anulação
de uma questão: por exemplo, ausência de alternativa correta, mais de uma alternativa correta,
questão sem dados necessários para a conclusão, entre outros. Nesses casos, o Inep já divulga
os gabaritos com a palavra “anulada” no lugar da alternativa correta, não apresentando,
portanto, a letra em que a alternativa certa se encontrava.
70
No item 04 (quadro 5), as questões apresentadas, apesar de não terem sido anuladas na
divulgação dos gabaritos, foram ineficientes e com índices inadequados, porque ficaram
difíceis demais para aquele público ou porque apresentaram algum erro técnico de medida e
não puderam medir o conhecimento/disciplina/objeto de conhecimento a que se propunha.
Não foi objeto desta dissertação fazer uma análise aprofundada dos motivos pelos
quais as questões foram anuladas, portanto, apenas é apontado que elas existiram, porque isso
interfere no desempenho da prova e dos alunos, sem manifestar possíveis motivos. Essas
questões foram descartadas como itens de avaliação, constando, nos Relatórios de Curso de
cada ano, o gabarito, mas não apresentando nenhum outro dado – como a porcentagem de
escolha da alternativa correta – para a análise.
Posteriormente, no Capítulo III, verificaremos, com um pouco mais de profundidade,
o funcionamento de algumas dessas questões, por meio do Índice de Discriminação e do Índice
de Facilidade. No entanto, faz-se importante uma pequena explicação sobre o alto número de
questões objetivas com, pelo menos, uma alternativa de menos de 5% de escolha – ou seja,
alternativa pouco plausível ou interessante.
Ao se elaborar uma questão de múltipla escolha, é necessário cuidar para que todas as
alternativas sejam consistentes e atrativas. De acordo com Gronlund (1974), é comum ao se
elaborar um distrator – a alternativa incorreta – que este esteja inconsciente em relação à raiz
– ao enunciado/suporte – da questão, especialmente em relação à forma do verbo ou ao artigo
ou, ainda, à forma gramatical, fornecendo assim indícios da incorreção.
De acordo com Almeida (1996), da Universidade do Minho (Portugal), “o número de
alternativas é variável, contudo procura-se que não seja inferior a quatro ou cinco, para reduzir
a probabilidade de acerto meramente ocasional num item a 25% ou 20%, respectivamente”.
Gronlund (1974, p. 36) explica que é “[...] quase sempre difícil obter cinco escolhas plausíveis
e não se aperfeiçoa um item acrescentando uma resposta obviamente errada simplesmente
para obter cinco alternativas”.
Conforme o Manual Construindo o Teste Escrito. Questões para ciências Básicas
Clínicas (2016, p. 21), “não há uma melhora da questão ao se adicionar opções que não têm
mérito” e, ainda, as questões mal formuladas podem dar dicas aos sujeitos mais experientes
na realização de provas, de forma a se chegar na alternativa correta, não por conhecimento e
capacidade cognitiva e, sim, por conhecimentos aprofundados sobre a técnica de elaboração
de itens.
71
Nota-se que se alguma alternativa for incorreta, mas absurda, ela não é escolhida nem
pelos sujeitos que não possuem as habilidades requeridas, tampouco pelos sujeitos melhores
preparados para a avaliação. Às vezes, por simples eliminação dos distratores ou, às vezes, até
por senso comum e não necessariamente por conhecimento técnico, é possível eliminar uma
alternativa menos plausível.
Considerando o que afirma Vianna (1982, p. 49) “É impossível elaborar, em curto
período, um número elevado de itens razoáveis” e assim, muitas provas, principalmente em
avaliações “[...] acabam sendo desenvolvidas sem a precisão necessária, acarretando seleções
prejudicadas e evidência de profissionais não preparados para a função”. Além disso, uma boa
questão depende, dentre outros atributos, de criatividade, senso crítico e prática que o
elaborador tem para, principalmente, construir as alternativas erradas (os distratores). O ideal
é que esses distratores sejam respostas plausíveis, porém que contenham erros objetivos de
raciocínio e/ou conteúdo. De acordo com Rabelo (2013b), um distrator sem plausibilidade
pode ser eliminado do item porque não atrai nem o mínimo significativo de sujeitos.
Há que se prestar atenção para que todas as alternativas, inclusive os distratores,
estejam contextualizadas de forma a requerer, dos sujeitos, habilidades e competências
necessárias para a solução da questão. Sem essa plausibilidade, essas características não são
medidas.
Como apontou o quadro 5, é bastante relevante notar que, em 2006, quando já havia
competências em tecnologia de elaboração de itens, das 24 questões objetivas válidas, 17
apresentaram pelo menos uma alternativa não plausível. As questões podem ter avaliado bem
os sujeitos, apresentando Índices de Facilidade e Índices de Discriminação, dentre outras
características, que comprovem o seu bom funcionamento em termos de avaliação, no entanto,
talvez pudessem ter feito esse mesmo papel com apenas quatro alternativas disponíveis, por
exemplo. É fato que ao longo das avaliações esse número foi diminuindo, de 17 questões em
2006 para 1 questão (dentre as 23 válidas) em 2015, o que nos faz acreditar que, por parte do
Inep/Mec, existe uma preocupação nesse sentido.
Dando continuidade aos levantamentos acerca do desempenho dos estudantes,
procedemos a identificação dos assuntos (Conteúdos Programáticos, Disciplinas, Objeto de
Conhecimento) tratados em cada uma das questões, em todos os anos. Nos relatórios
disponibilizados pelo Inep, encontra-se apenas a discriminação dos conteúdos abordados no
Componente Específico, dos anos de 2006 e 2015.
72
Por se tratar de uma informação pública, tentou-se, por meio do Portal de
Transparência, contatos (por e-mail e telefone) com o MEC/Inep e com outros pesquisadores
de assuntos correlatos, para obter esses dados oficiais, o que não foi possível. Dessa forma, o
que não estava disponível – Componentes Específicos de 2009 e 2012 – foi
desenvolvido/elaborado com base em três contribuições:
Documento do Enade Comentado (de todos os anos) – Organizado pela PUC-
RS.
Apontamentos da Professora Doutora Suely Ester Gitelman – professora de
Direito da PUC-SP e especialista na área de Direito do Trabalho.
Apontamentos da autora e da orientadora desta pesquisa.
Diante do levantamento de todas essas informações e da explanação teórica acerca do
surgimento dos testes, das Avaliações de Larga Escala, mais especificamente do Enade, e as
atuais considerações a respeito dos cursos de Direito existentes no Brasil, foi desenvolvida a
análise dos dados de cada prova, apresentados no Capítulo III.
73
CAPÍTULO III – ANÁLISE DOS DADOS
Este capítulo apresenta os principais resultados obtidos com a análise dos dados
selecionados.
3.1. – Análise dos objetos de conhecimentos abordados
Salientamos que, conforme apresentado no Capítulo II, uma parte das informações
utilizadas nessa pesquisa foi obtida no site do Inep (anos 2006 e 2015) e outra parte foi
elaborada pela autora e amparada em outras fontes (anos 2009 e 2012). De acordo com os
documentos oficiais já apresentados nesta pesquisa, as disciplinas/objetos de conhecimento
possíveis de serem cobradas na parte de Componente Específico eram:
2006 – Ciência Política, Economia, Filosofia, História, Sociologia. Direito Constitucional,
Direito Administrativo, Direito Tributário, Direito Penal, Direito Civil, Direito Empresarial,
Direito do Trabalho, Direito Internacional e Direito Processual (BRASIL, 2006).
2009 – Ciência Política, Economia, Filosofia, História, Sociologia, Antropologia, Psicologia,
Ética Profissional; Direito Constitucional, Direito Administrativo, Direito Tributário, Direito
Penal, Direito Civil, Direito Empresarial, Direito do Trabalho, Direito Internacional e Direito
Processual (BRASIL, 2009).
2012 – Antropologia, Ciência Política, Economia, Ética, Filosofia, História, Psicologia,
Sociologia; Direito Constitucional, Direito Administrativo, Direito Tributário, Direito Penal,
Direito Civil, Direito Empresarial, Direito do Trabalho, Direito Internacional e Direito
Processual (BRASIL, 2012).
2015 – Antropologia, Ciência Política, Economia, Ética, Filosofia, História, Psicologia,
Sociologia. Direito Constitucional, Direito Administrativo, Direito Tributário, Direito Penal,
Direito Civil, Direito Empresarial, Direito do Trabalho, Direito Internacional e Direito
Processual (BRASIL, 2012).
No quadro 6 são apresentados os Conteúdos – ou Objeto de Conhecimento – abordados
em cada uma das questões do Enade em 2006.
74
Quadro 6 – Conteúdos abordados nas questões do Componente Específico – Enade 2006
Nº das Questões 2006
11 Economia
Ciência Política
12 História
Sociologia Geral e Jurídica
13 Filosofia Geral e Jurídica
14 Sociologia Geral e Jurídica
15
Economia
Ciência Política
Sociologia Geral e Jurídica
História
Filosofia Geral e Jurídica
16 Direito Constitucional
17 Direito Administrativo
18 Direito Tributário
19 Direito Penal
20 Direito Penal
Direito Processual Penal
21 Direito do Trabalho
22 Direito Empresarial
23 Direito Internacional
24 Direito Processual
25 Direito Constitucional
Direito Administrativo
26 Direito Tributário
Direito Penal
27 Direito Civil
28 Direito Civil
Direito Processual Civil
29 Direito do Trabalho
Direito Processual do Trabalho
30 Direito Constitucional
Direito Internacional
31
Direito Civil
Direito Empresarial
Direito Penal
32 Direito Administrativo
Direito Penal
33
Economia
Direito Empresarial
Direito Administrativo
34 Sociologia Geral e Jurídica
Continua.
75
Direito Constitucional
Direito Internacional
35
História
Ciência Política
Direito Constitucional
36
Direito Penal
Direito Empresarial
Direito Internacional
Fonte: elaboração da pesquisadora, com base nos dados disponibilizados nos Cadernos de Questões e no
Relatório Síntese de 2006.
Ao analisar essas informações, percebemos, nas questões de Componente Específico
aplicadas em 2006, que o objeto de conhecimento mais abordado foi o Direito Penal (com 6
questões), seguido do Direito Constitucional (com 5 questões). Isso não significa que houve
6 questões puras de Direito Penal (ou Direito Constitucional), mas que a disciplina/objeto de
conhecimento esteve envolvida, de alguma forma, nos conhecimentos e nas habilidades
requerida destes estudantes que responderam à prova. Em uma mesma questão é possível
haver mais de um item de conhecimento cobrado.
As disciplinas/objeto de conhecimento menos cobradas em 2006 foram: Direito
Processual, Direito Processual Civil, Direito Processual do Trabalho e Direito Processual
Penal, cada um em apenas uma questão. Observamos que, no ano de 2006, houve a cobrança
de 17 conteúdos diferentes e a Antropologia não foi diretamente envolvida em nenhuma
questão.
No ano de 2009, os Conteúdos Específicos trabalhados nas questões foram:
Quadro 7 – Conteúdos abordados nas questões do Componente Específico – Enade 2009
Nº das Questões 2009
11
Economia
Filosofia
Sociologia
Psicologia
Direito Constitucional
Direito Penal
Direito Processual
12
Ciência Política
História
Sociologia
Direito Constitucional
Direito Civil
Continuação.
Continua.
76
13
Ciência Política
Economia
História
Sociologia
Ética Social
Direito Constitucional
Direito Civil
14
Ciência Política
Economia
Filosofia
Sociologia
Psicologia
Ética Social
Direito Constitucional
15
Sociologia
Psicologia
Ética Social
Direito Constitucional
Direito Civil
16
Ciência Política
Economia
História
Antropologia
Ética Social
Direito Constitucional
Direito Civil
17 História
Direito Constitucional
18
Ética Social
Direito Constitucional
Direito Administrativo
Direito Civil
19 Direito Tributário
20 Direito Penal
21
História
Sociologia
Ética Social
Direito Constitucional
Direito Civil
Direito Processual
22
Direito Penal
Direito Empresarial
Direito Processual
Continuação.
Continua.
77
23
Direito Constitucional
Direito do Trabalho
Direito Internacional
24
História
Ética Social
Direito Constitucional
Direito Civil
Direito Internacional
Direito Processual
25 Direito Constitucional
Direito Processual
26
Direito Constitucional
Direito Administrativo
Direito do Trabalho
27
Economia
Ética Social
Direito Constitucional
Direito Tributário
Direito Penal
Direito Processual
28
Ética Social
Direito Constitucional
Direito Penal
Direito Processual
29
Direito Penal
Direito Civil
Direito Processual
30
Ética Social
Direito Constitucional
Direito do Trabalho
Direito Processual
31
Direito Constitucional
Direito Civil
Direito Internacional
Direito Processual
32
Ética Social
Direito Penal
Direito Civil
Direito Empresarial
33
Direito Constitucional
Direito Administrativo
Direito Penal
Direito Processual
34 Economia
Continuação.
Continua.
78
História
Sociologia
Direito Constitucional
Direito Administrativo
Direito Empresarial
35
História
Direito Constitucional
Direito Processual
36 Direito Constitucional
Direito Empresarial
37 Direito Constitucional
Direito Empresarial
Direito Processual
Fonte: elaboração da pesquisadora, com base nos dados disponibilizados nos Cadernos de Questões e no
Relatório Síntese de 2009.
Identificou-se que o Conteúdo Programático mais abordado foi o Direito
Constitucional, em 22 questões; seguido do Direito Processual que foi o segundo conteúdo
mais abordado, em 13 questões, enquanto a Antropologia apareceu em uma questão e o Direito
Tributário e a Filosofia estiveram presentes nos conteúdos de duas questões.
Nesse ano, houve a cobrança de 16 conteúdos diferentes, sendo que todos os conteúdos
estavam disponíveis e foram contemplados de alguma forma. Esses conteúdos são: Ciência
Política, Economia, Filosofia, História, Sociologia, Antropologia, Psicologia e Ética Social,
Direito Constitucional, Direito Administrativo, Direito Tributário, Direito Penal, Direito
Civil, Direito Empresarial, Direito do Trabalho, Direito Internacional e Direito Processual.
Em relação ao Exame aplicado em 2012, terceiro ano da avaliação Enade no curso de
Direito, tem-se o seguinte panorama:
Quadro 8 – Conteúdos abordados nas questões do Componente Específico – Enade 2012
Nº das Questões 2012
9
Direito Internacional
Direito Processual
Direito Constitucional
10
Antropologia
Ética Social
Direito Civil
Direito Processual
Direito Constitucional
11 Psicologia
Continuação.
Continua.
79
Direito Constitucional
Direito Civil
Filosofia do Direito
12
Sociologia Geral e Jurídica
Direito Constitucional
Direito do Trabalho
Direito Internacional
Direito Processual Civil
13
Antropologia
Ética Social
Direito Civil
Direito Constitucional
14 Direito Processual
15 Direito Constitucional
Direito Administrativo
16 Direito do Trabalho
17 Direito Constitucional
Direito Civil
18 Direito do Trabalho
19
Ética Social
Direito Processual
Direito Civil
Direito Constitucional
20
Direito Fundamental
Direito Constitucional
Direito Administrativo
21 Direito Penal
Direito Processual Penal
22 Direito Empresarial
Direito Civil
23 Direito Tributário
Direito Processual Civil
24 Direito Processual Civil
Direito do Trabalho
25
Direito Administrativo
Direito Empresarial
Direito Processual
Direito Constitucional
26
Sociologia Geral e Jurídica
Direito Administrativo
Direito Processual
27
Direito Civil
Direito Processual
Direito Constitucional
Continuação.
Continua.
80
28 Direito do Trabalho
Direito Processual do Trabalho
29 Direito Tributário
30 Direito Constitucional
31 Direito Civil
Direito Processual Civil
32
Direito Penal
Direito Constitucional
Direito Administrativo
33 Direito Administrativo
Direito Penal
34 Direito Constitucional
35 Direito Penal
Direito Constitucional
Fonte: elaboração da pesquisadora, com base nos dados disponibilizados nos Cadernos de Questões e no
Relatório Síntese de 2012.
Nessa prova do Enade, o Conteúdo Programático mais abordado foi novamente Direito
Constitucional, envolvendo 15 questões, seguido de Direito Civil, em 8 questões, e Direito
Processual em 7 questões. Dentre um total de 18 disciplinas/objetos de conhecimento
cobradas no Exame em 2012, identificam-se menos tratadas: Direito Fundamental, Direito
Processual do Trabalho, Direito Processual Penal, Filosofia do Direito e Psicologia do Direito,
sendo estes conteúdos contemplados em apenas uma questão. Os conteúdos de Ciência
Política, Economia e História não foram diretamente envolvidos em nenhuma das 40 questões.
Na última avaliação, Enade 2015, os conteúdos mais abordados foram:
Quadro 9 – Conteúdos abordados nas questões do Componente Específico – Enade 2015
Nº das Questões 2015
9
Filosofia do Direito
História do Direito
Teoria Geral do Direito
10
Teoria do Estado
Ciência Política
Direito Econômico
Economia Política
11
Sociologia Jurídica
Antropologia Jurídica
Direito Constitucional
Direito Civil
12 Direito Constitucional
Direito Civil
13 Direito Civil
Continuação.
Continua.
81
Direito Processual Civil
14 Direito Civil
15 Direito Penal
Direito Humanos
16 Direito Civil
Direito Processual Civil
17 Direito Penal
18
Direito Penal
Direito Processual Penal
Direito Humanos
19 Direito Penal
Direito Processual Penal
20
Direito Administrativo
Direito Penal
Direito Processual Penal
21 Direito Administrativo
22 Direito do Trabalho
23 Direito do Trabalho
Direito Processual do Trabalho
24 Direito Penal
Direito do Trabalho
25 Direito Processual Civil
26 Direito Tributário
27 Direito Civil
Direito Empresarial
28
Direito Constitucional
Direito Empresarial
Direito Humanos
29 Direito Ambiental
Direito Administrativo
30 Direito Constitucional
31 Filosofia do Direito
História do Direito
32 Direito Civil
Direito Processual Civil
33
Filosofia do Direito
História do Direito
Direito Constitucional
34 Direito Constitucional
Direito Processual Constitucional
35
Sociologia Jurídica
Antropologia Jurídica
Direito Processual Civil
Fonte: elaboração da pesquisadora, com base nos dados disponibilizados nos Cadernos de Questões e no
Relatório Síntese de 2015.
Continuação.
82
Em relação ao Componente Específico de 2015, a prova do Enade teve 7 questões que
cobraram conhecimentos sobre Direito Civil, seguido por Direito Penal e Direito
Constitucional, ambos com 6 questões.
Nesse ano, houve a cobrança de 22 conteúdos e as disciplinas/objetos de conhecimento
menos cobradas foram: Ciência Política, Direito Ambiental, Direito Econômico, Direito
Processual Constitucional, Direito Processual do Trabalho, Direito Tributário, Economia
Política, Teoria do Estado e Teoria Geral do Direito, todos com apenas uma questão
contemplada. Nesse Exame, os conteúdos de Psicologia Jurídica, Ética Social e Direito
Internacional não foram diretamente envolvidos nas questões.
A síntese dos quatro anos de avaliação, apresentada no quadro a seguir, especifica a
quantidade de vezes em que os Conteúdos Programáticos disponíveis foram abordados nas
questões.
Quadro 10 – Lista de disciplinas/objetos de conhecimento cobradas e a frequência em que
aparecem em todos os anos de Enade do curso de Direito
Quantidade de questões em que a
disciplina/objeto de conhecimento foi
cobrada
Disciplinas/Objetos de conhecimento
1. 48 Direito Constitucional
2. 28 Direito Civil
3. 24 Direito Penal
4. 21 Direito Processual
5. 17 Direito Administrativo
6. 14 Ética Social
7. 14 História
8. 14 Sociologia Jurídica
9. 13 Direito do Trabalho
10. 13 Direito Empresarial
11. 10 Direito Processual Civil
12. 10 Economia Política
13. 9 Direito Internacional
14. 8 Ciência Política
15. 8 Filosofia Geral e Jurídica
16. 7 Direito Tributário
17. 5 Antropologia
18. 5 Direito Processual Penal
19. 4 Psicologia
20. 3 Direito Humanos
21. 3 Direito Processual do Trabalho
22. 2 Teoria do Estado
Continua.
83
23. 1 Direito Ambiental
24. 1 Direito Econômico
25. 1 Direito Fundamental
26. 1 Direito Processual Constitucional
Fonte: elaboração da pesquisadora, com base nos dados disponibilizados nos Cadernos de Questões e no
Relatório Síntese de cada ano.
Nos quatro anos de avaliação do Enade do Curso de Direito, reunindo 107 questões
objetivas na parte de Componente Específico, o objeto de conhecimento mais cobrado foi o
Direito Constitucional, totalizando 48 questões, seguido do Direito Civil, com 28 questões. E
as disciplinas/objetos de conhecimento menos cobradas foram: Direito Ambiental, Direito
Econômico, Direito Fundamental e Direito Processual Constitucional, com uma questão de
cada um, nos quatro anos de avaliação. As disciplinas/objetos de conhecimento Psicologia
Jurídica e Ética Social estiveram envolvidos em apenas dois anos (2009 e 2012), não sendo
alvo de cobranças nos demais anos. O único ano que cobrou todos os Conteúdos disponíveis
foi 2012.
Em 2006, além dos já citados, não houve cobrança de Antropologia; em 2012, não
houve questões sobre Ciência Política, Economia e História do Direito; em 2009, conforme
apresentamos, todos os conteúdos foram tratados em, ao menos, uma questão; e em 2015,
além dos já citados, também não foi incluída questão de Direito Internacional.
3.2 – A Análise do funcionamento técnico de questões do Componente Específico
Tendo obtido informações sobre o desempenho das questões e dos respectivos Índices
apresentados em relação aos estudantes que responderam às provas, partimos para a análise
do funcionamento técnico das questões.
A prova, nesses casos, é composta de diversas questões e cada questão pode ter um
funcionamento diferente diante do mesmo grupo a que se sujeitou a prova.
No que diz respeito ao Índice de Facilidade, as questões fáceis, muito fáceis ou muito
difíceis não conseguem fazer a discriminação adequada entre os sujeitos que detêm o
conhecimento e os sujeitos que não o possuem, como já vimos nos capítulos anteriores. E em
relação ao Índice de Discriminação, quanto menores os valores menos a questão funcionou
para selecionar os sujeitos que detêm o conhecimento esperado.
Continuação.
84
3.2.1 – Itens com melhor desempenho
Para analisar as questões que mediram as habilidades cognitivas dos alunos
respondentes às provas do Enade, esta pesquisa tomou como referência questões que reuniram
as seguintes características: Índices de Facilidade classificados em: Médio ou Difícil + Índices
de Discriminação classificados em: Bom ou Muito Bom. Ou seja, foram desprezadas as
questões com Índices de Facilidade Muito Fácil, Fácil ou Muito Difícil e as questões que
apresentaram Índices de Discriminação Marginal ou Deficiente. As questões que possuíam
um destes Índices dentro e outro fora do recorte estabelecido foram descartadas.
Contudo, era necessário reunir as duas condições concomitantes: por exemplo, se uma
questão teve Índice de Facilidade Médio e também teve Índice de Discriminação Marginal,
esta não foi incluída na análise de dados. A opção por esse recorte se deu no intuito de utilizar
as questões que tecnicamente apresentavam dados confiáveis para uma avaliação. Conforme
já fora apresentado, os Índices de Facilidade e de Discriminação apresentam conceitos e
valores que nos ajudaram a balizar a definição das questões a serem usadas.
Sendo assim, dentro dos limites estabelecidos para a análise das questões, há de se
destacar o seguinte: para esta pesquisa, foram usados os valores de Índice de Facilidade (IF)
(do Brasil e da IES), mas quando se apresentam os valores de Índice de Discriminação (ID),
esses são apresentados em relação ao grupo total de alunos (Brasil) submetidos ao Enade, que
inclui os alunos da Universidade Alpha.
A análise dos dados, especificamente nas questões que reuniram os limites
estabelecidos para os quatro anos de Enade do curso de Direito, é apresentada sempre em dois
quadros. No primeiro, informamos:
O número de inscritos e presentes (tanto da IES quanto do Brasil).
As disciplinas/objetos de conhecimento mais recorrente daquele ano.
A disciplina/objeto de conhecimento de melhor desempenho dos alunos da IES
Alpha, independente de IF e ID.
A disciplina/objeto de conhecimento de melhor desempenho dos alunos do
Brasil, independente de IF e ID.
No segundo quadro, apresentamos, por ano:
A disciplina/objeto de conhecimento tratada em cada questão.
85
O Índice de Facilidade (da Universidade Alpha) de cada questão.
O Índice de Discriminação (do Brasil) de cada questão.
A porcentagem de escolha da alternativa correta da IES Alpha e do Brasil.
A disciplinas/objeto de conhecimento mais recorrente na prova do ano em
questão.
O desempenho dos alunos da Universidade Alpha e do Brasil foi medido por meio da
porcentagem de escolha da alternativa correta. Em todas as questões foram identificadas
aquela alternativa em que essa porcentagem era a mais alta, desconsiderando as condições
técnicas da questão (ou seja, se teve IF ou ID dentro dos limites estabelecidos nesta pesquisa).
Quadro 11 – Disciplinas/objetos de conhecimento que são destaque nas questões do Enade 2006
Inscritos Presentes
Disciplina/objeto
de conhecimento
mais recorrente
Disciplina/objeto de
conhecimento da
questão com Melhor
desempenho
IES Alpha
(questão 28)
Disciplina/objeto
de conhecimento
da questão com
Melhor
desempenho do
Brasil
(questão 36)
BR IES
Alpha BR
IES
Alpha
79.422 477 30.695 56 Direito Penal Direito Civil e Direito
Processual Civil
Direito Penal,
Direito
Internacional e
Direito Empresarial
Fonte: elaboração da pesquisadora, com base nos dados disponibilizados nos Relatórios do MEC/ Inep.
No quadro 11, a questão de número 28, em que os alunos da Universidade Alpha
alcançaram o melhor desempenho, está incluída dentre as questões que selecionaram bem os
sujeitos. Ela teve Índice de Facilidade (IF) = 0,42 (Médio) e Índice de Discriminação (ID) =
0,39 (Bom), apontando, assim, para um bom preparo dos estudantes desta Instituição em
relação às disciplinas/objetos de conhecimento cobradas, conforme informado no quadro 12,
a seguir. Quanto ao desempenho dos sujeitos do Brasil, a questão 36 teve um IF alto, com
0,67 (Fácil), e ID = 0,40 (Muito Bom), portanto, não incluída no recorte estabelecido.
Aparentemente, foi uma questão fácil para o grupo que estava bem preparado para responder
essa prova; no entanto, conseguiu selecionar bem os alunos que detinham o conhecimento,
apresentando o ID Muito Bom.
No Exame aplicado em 2006, as questões que reuniram as condições de Índice de
Facilidade Médio ou Difícil + Índice de Discriminação Bom ou Muito bom estão destacadas
a seguir e foram dispostas de acordo com os Conceitos de IF e ID:
86
Quadro 12 – Desempenhos nas questões do Enade 2006
Nº da
questão
Componente(s)
Específico(s)
Relatório Síntese Relatório de Curso (*)
Índice de Facilidade
BR (**)
Índice de
Discriminação
BR
% de
acerto
IES
Alpha
% de
acerto BR
Classificação Valor Classificação Valor Valor Valor
12
História,
Sociologia Geral
e Jurídica
Médio 0,47 Bom 0,33 78,6 49,0
19 Direito Penal Médio 0,51 Bom 0,37 62,5 69,3
29
Direito do
Trabalho e Direito
Processual do
Trabalho
Médio 0,42 Bom 0,39 75,0 50,6
34
Sociologia Geral
e Jurídica, Direito
Constitucional e
Direito
Internacional
Médio 0,52 Bom 0,39 75,0 60,0
16 Direito
Constitucional Médio 0,48 Muito Bom 0,42 89,3 64,0
18 Direito Tributário Médio 0,47 Muito Bom 0,46 91,1 59,1
20
Direito Penal e
Direito Processual
Penal
Médio 0,47 Muito Bom 0,43 82,1 63,6
27 Direito Civil Médio 0,41 Muito Bom 0,44 80,4 55,4
28
Direito Civil e
Direito Processual
Civil
Médio 0,48 Muito Bom 0,42 94,6 63,6
31
Direito Civil,
Direito
Empresarial e
Direito Penal
Médio 0,57 Muito Bom 0,46 91,1 69,8
35
História, Ciência
Política e Direito
Constitucional
Médio 0,50 Muito Bom 0,42 82,1 57,2
21 Direito do
Trabalho Difícil 0,36 Bom 0,31 51,8 39,3
23 Direito
Internacional Difícil 0,25 Bom 0,32 51,8 25,6
33
Economia, Direito
Empresarial e
Direito
Administrativo
Difícil 0,24 Muito Bom 0,34 55,4 31,0
Fonte: elaboração da pesquisadora, com base nos dados disponibilizados nos Relatórios do MEC/ Inep.
(*) Em 2006 e 2009, as informações são referentes apenas ao desempenho dos alunos concluintes, desprezados
os desempenhos dos alunos ingressantes.
87
(**) Tecnicamente, a diferença entre a % de acerto BR e o IF BR é apenas a forma como se apresentam os dados.
Na % de acerto são dois números antes da vírgula e um depois, sem arredondamento. Já o IF se apresenta com
duas casas após a vírgula, arredondadas e antecedidas pelo 0 antes da vírgula.
Quadro 13 – Referências para ID e IF
Índice de Facilidade (IF)
Muito Fácil ≥ 0,86
Fácil 0,61 a 0,85
Médio 0,41 a 0,60
Difícil 0,16 a 0,40
Muito Difícil ≤ 0,15
Índice de Discriminação (ID)
Item muito bom ≥ 40
Item bom, mas sujeito ao aprimoramento Entre 30 e 40
Item marginal (também considerado como médio por outros autores), sujeito à
reelaboração Entre 20 e 30
Item deficiente (também considerado como fraco por outros autores), deve ser
rejeitado
≤ 20
Fonte: elaboração da pesquisadora, com base nos dados disponibilizados nos Relatórios do MEC/ Inep.
Das 26 questões objetivas possíveis, 4 reuniram IF Médio + ID Bom; 7 apresentaram
IF Médio e ID Muito Bom; 2 acumularam IF Difícil e ID Bom; e uma teve IF Difícil e ID
Muito Bom.
De acordo com os dados dos alunos da Universidade Alpha, em 2006, a
disciplina/objeto de conhecimento em que eles conseguiram os melhores desempenhos, com
alta porcentagem de acerto, foi contemplada nas questões com as características que
apresentamos, das quais destacamos: Direito Tributário, Direito Civil, Direito Processual
Civil, Direito Empresarial e Direito Penal, com destaque para Direito Civil que constou em
duas dessas três questões, além da questão 28, destacada anteriormente e que foi a de melhor
desempenho dos estudantes na prova como um todo, e também abordou o Direito Civil e o
Processual Civil como conteúdos de conhecimento.
Nesse mesmo aspecto, os alunos do Brasil, além de não terem atingido mais de 70%
em nenhuma das questões, pareceram ter um desempenho inferior ao desempenho dos alunos
da Universidade Alpha. O desempenho dos alunos do Brasil foi melhor em Direito Penal,
Direito Constitucional, Direito Civil e Direito Empresarial, destacando-se, então, que dentre
89
todas as questões objetivas, a disciplina/objeto de conhecimento mais cobrada nesse ano foi
referente ao Direito Penal.
A disciplina/objeto de conhecimento mais tratada foi Direito Penal, que está dentre as
disciplinas/objetos de conhecimentos cobradas nas três questões de melhor desempenho dos
alunos da Instituição. A questão 31 cobrou Direitos Civil, Empresarial e Penal e teve 91,1%
de acerto por parte destes alunos. Já as questões 18 e 28, que também se encontram dentre as
3 questões de melhor desempenho por parte dos alunos, trataram de Direito Tributário, Direito
Civil e Direito Processual Civil.
Em relação aos alunos do Brasil, as 3 questões de melhor desempenho foram: a questão
19, que tratou especialmente da disciplina/objeto de conhecimento mais cobrada da prova
(Direito Penal) e teve 69,3% de acerto por parte destes; a questão 16 que tratou de Direito
Constitucional e novamente a questão 31, (enquanto os alunos da Instituição obtiveram 91,1%
de acerto, os alunos do Brasil conseguiram média de 69,8%, conforme se verifica no quadro
12). Das 14 questões destacadas no quadro 12, o desempenho dos alunos da Universidade
Alpha superou o desempenho dos alunos do Brasil em 13 questões.
Os quadros 14 e 15 apresentam as informações analisadas a partir das
disciplinas/objetos de conhecimento, contempladas nas questões e do desempenho dos
estudantes no Exame aplicado em 2009.
Quadro 14 – Disciplinas/objetos de conhecimento que são destaque nas questões do Enade 2009
Inscritos Presentes
Disciplina/objeto
de conhecimento
mais recorrente
Disciplina/objeto de
conhecimento da
questão com Melhor
desempenho IES
Alpha
(questão 14)
Disciplina/objeto
de conhecimento
da questão com
Melhor
desempenho do
Brasil
(questão 14)
BR
IES
Alpha BR
IES
Alpha
90.035 475 80.706 453 Direito
Constitucional
Ciência Política,
Economia, Filosofia,
Sociologia, Psicologia
e Ética Social e Direito
Constitucional
Ciência Política,
Economia,
Filosofia,
Sociologia,
Psicologia e Ética
Social e Direito
Constitucional
Fonte: elaboração da pesquisadora, com base nos dados disponibilizados nos Relatórios do MEC/ Inep.
Nota-se que tanto os alunos da Universidade Alpha quanto os alunos do Brasil tiveram
seus respectivos melhores desempenhos na (mesma) questão 14. No entanto, por conta do alto
índice de escolha da alternativa correta, esta questão tornou-se uma questão fácil, em que todo
90
o grupo (ou a grande maioria) optou pela resposta correta, fazendo com que a questão não
discriminasse e não funcionasse tecnicamente e, portanto, não se inclua no recorte
estabelecido para análise.
Esta questão tratou de Ciência Política, Economia, Filosofia, Sociologia, Psicologia e
Ética Social e Direito Constitucional, sendo o seu IF = 0,81 (Fácil) e ID = 0,30 (Bom).
No quadro 15 estão descritas, dentre todas as questões aplicadas no Exame de 2009,
as que reuniram as condições de Índice de Facilidade Médio ou Difícil + Índice de
Discriminação Bom ou Muito Bom, dispostas de acordo com os Conceitos de IF e ID.
Quadro 15 – Desempenhos nas questões do Enade 2009
Nº da
questão
Componente(s)
Específico(s)
Relatório Síntese Relatório de Curso
(*)
Índice de Facilidade
BR (**)
Índice de
Discriminação
BR
% de
acerto
IES
Alpha
% de
acerto
BR
Classificação Valor Classificação Valor Valor Valor
12
Ciência Política,
História,
Sociologia,
Direito
Constitucional e
Direito Civil
Médio 0,40 Bom 0,38 61,1 43,3
15
Sociologia,
Psicologia, Ética
Social, Direito
Constitucional e
Direito Civil
Médio 0,56 Muito Bom 0,40 62,0 60,5
18
Ética Social,
Direito
Constitucional,
Direito
Administrativo e
Direito Civil
Médio 0,58 Muito Bom 1,13 62,5 64,7
21
História,
Sociologia, Ética
Social, Direito
Constitucional,
Direito Civil e
Direito Processual
Médio 0,59 Muito Bom 0,50 69,1 68,9
25
Direito
Constitucional e
Direito Processual
Médio 0,56 Muito Bom 0,43 64,7 63,5
28
Ética Social,
Direito
Constitucional,
Direito Penal e
Direito Processual
Médio 0,48 Muito Bom 0,38 63,1 56,3
35
História, Direito
Constitucional e
Direito Processual
Médio 0,52 Muito Bom 0,48 66,7
62,2
Continua.
91
36
Direito
Constitucional e
Direito Processual
Médio 0,53 Muito Bom 0,48 66,0 60,4
31
Direito
Constitucional,
Direito Civil,
Direito
Internacional e
Direito Processual
Difícil 0,38 Muito Bom 0,49 54,3 50,5
Fonte: elaboração da pesquisadora, com base nos dados disponibilizados nos Relatórios do MEC/ Inep.
(*) Em 2006 e 2009, as informações são referentes apenas ao desempenho dos alunos concluintes, desprezados
os desempenhos dos alunos ingressantes.
(**) Tecnicamente, a diferença entre a % de acerto BR e o IF BR é apenas a forma como se apresentam os dados.
Na % de acerto são dois números antes da vírgula e um depois, sem arredondamento. Já o IF se apresenta com
duas casas após a vírgula, arredondadas e antecedidas pelo 0 antes da vírgula.
Quadro 16 – Referências para ID e IF
Índice de Facilidade (IF)
Muito Fácil ≥ 0,86
Fácil 0,61 a 0,85
Médio 0,41 a 0,60
Difícil 0,16 a 0,40
Muito Difícil ≤ 0,15
Índice de Discriminação (ID)
Item muito bom ≥ 40
Item bom, mas sujeito ao aprimoramento Entre 30 e 40
Item marginal (também considerado como médio por outros autores), sujeito à
reelaboração Entre 20 e 30
Item deficiente (também considerado como fraco por outros autores), deve ser
rejeitado
≤ 20
Fonte: elaboração da pesquisadora, com base nos dados disponibilizados nos Relatórios do MEC/ Inep.
Dentre as questões com o recorte do IF + ID conforme descrito anteriormente, a
disciplina/objeto de conhecimento que mais se repetiu foi Direito Constitucional. E da análise
dos quadros 14 e 15, pode-se observar que os alunos da IES selecionada alcançaram
porcentagens de escolha mais medianas em relação ao Exame de 2006. Isso pode nos ajudar
a perceber que a prova de 2009 foi um pouco mais difícil que a do primeiro ano, os índices e
as porcentagens de escolha apontavam para uma facilidade maior na definição das alternativas
corretas.
Da mesma forma, observamos que as disciplinas/objetos de conhecimento de cada
questão (ou objeto de conhecimento) aumentaram consideravelmente – e quantitativamente –
Continuação.
92
apontando para uma interdisciplinaridade mais efetiva. Assim como os alunos da
Universidade Alpha, os alunos do Brasil obtiveram seu melhor desempenho na questão 21, a
qual abordava conteúdos de História, Sociologia, Ética Social, Direito Constitucional, Direito
Civil e Direito Processual, conforme apontou a porcentagem de escolha da questão, com IF =
a 0,59 (Médio) e ID = 0,50 (Muito Bom).
As questões em que os alunos da Universidade Alpha apresentaram os seus melhores
desempenhos (destacadas no quadro 15) trataram das seguintes disciplinas/objetos de
conhecimento: História, Sociologia, Ética Social, Direito Constitucional, Direito Civil e
Direito Processual. Destaca-se, então, que História foi cobrada em duas (de 3) questões e
Direito Constitucional e Direito Processual nas três questões destacadas.
Tendo em vista que, em 2009, a disciplina/objeto de conhecimento mais tratada foi
Direito Constitucional, o desempenho obtido não só da questão 14, como das 3 questões
destacadas (quadro 15), aponta para um bom preparo dos estudantes acerca da
disciplina/objeto de conhecimento.
No que tange à diferenciação do desempenho dos alunos da Universidade Alpha em
relação ao desempenho dos alunos do Brasil, destaca-se que, dentre as 9 questões (da seleção
para esta pesquisa), os alunos da IES tiveram melhor desempenho em 8 delas.
Para a análise referente ao Exame de 2012, os quadros 17 e 18 destacam as
informações referentes às disciplinas/objetos de conhecimento e ao desempenho dos alunos
da Universidade Alpha e do Brasil.
Quadro 17 – Disciplinas/objetos de conhecimento que são destaque nas questões do Enade 2012
Inscritos Presentes
Disciplina/objeto
de conhecimento
mais recorrente
Disciplina/objeto
de conhecimento
da questão com
Melhor
desempenho
IES Alpha
(questão 24)
Disciplina/objeto de
conhecimento da
questão com Melhor
desempenho do
Brasil
(questão 24)
BR IES
Alpha BR
IES
Alpha
123.211 625 104.593 568 Direito
Constitucional
Direito Processual
Civil e Direito do
Trabalho
Direito Processual
Civil e Direito do
Trabalho
Fonte: elaboração da pesquisadora, com base nos dados disponibilizados nos Relatórios do MEC/ Inep.
Em 2012, dentre o total de questões presentes na prova, tanto os alunos da
Universidade Alpha quanto os alunos de Direito do Brasil tiveram seus respectivos melhores
desempenhos na questão 24, que abordou o Direito Processual Civil e o Direito do Trabalho.
93
Esta questão apresentou IF = 0,81 (Fácil) e ID = 0,42 (Muito Bom). A maioria dos alunos
(81%) escolheu a resposta correta.
Diante de tais fatos, pode-se presumir que se trata de uma questão fácil para quem
estava preparado em relação às disciplinas/objetos de conhecimento cobradas, discriminando
pouco os demais alunos que não detinham o conhecimento cobrado. Por conta da característica
da questão (Fácil + Muito Bom), esta não se inclui dentre as questões que se destacaram de
forma mais pontual e dentro do recorte de análise mais detalhada, apresentada no quadro 18,
dispostas de acordo com os Conceitos de IF e ID.
Quadro 18 – Desempenho nas questões do Enade 2012
Nº da
questão
Componente(s)
Específico(s)
Relatório Síntese Relatório de Curso
(*)
Índice de Facilidade
BR (**)
Índice de
Discriminação
BR
% de
acerto
IES
Alpha
% de
acerto
BR
Classificação Valor Classificação Valor Valor Valor
11
Psicologia,
Direito
Constitucional,
Direito Civil,
Filosofia do
Direito
Médio 0,49 Bom 0,34 50,2 48,5
12
Sociologia
Geral e Jurídica,
Direito
Constitucional,
Direito do
Trabalho,
Direito
Internacional,
Direito
Processual Civil
Médio 0,41 Bom 0,32 48,4 40,6
15
Direito,
Constitucional,
Direito
Administrativo
Médio 0,49 Bom 0,36 63,7 49,1
16 Direito do
Trabalho Médio 0,57 Bom 0,38 59,5 57,2
19
Ética Social,
Direito
Processual,
Direito Civil,
Direito
Constitucional
Médio 0,45 Bom 0,38 54,9 45,0
21 Direito Penal,
Direito Médio 0,58 Bom 0,31
52,1 57,9
Continua.
94
Processual
Penal
35
Direito Penal,
Direito
Constitucional
Médio 0,44 Bom 0,34 43,7 43,6
34 Direito
Constitucional Difícil 0,30 Bom 0,32 36,4 29,9
Fonte: elaboração da pesquisadora, com base nos dados disponibilizados nos Relatórios do MEC/ Inep.
(*) Em 2012 e 2015, a diferença encontrada entre Índice de Facilidade (IF) e % de acerto (ambos do Brasil), se
deve ao fato do arredondamento necessário para a apresentação do dado de IF.
(**) Tecnicamente, a diferença entre a % de acerto BR e o IF BR é apenas a forma como se apresentam os dados.
Na % de acerto são dois números antes da vírgula e um depois, sem arredondamento. Já o IF se apresenta com
duas casas após a vírgula, arredondadas e antecedidas pelo 0 antes da vírgula.
Quadro 19 – Referências para ID e IF
Índice de Facilidade (IF)
Muito Fácil ≥ 0,86
Fácil 0,61 a 0,85
Médio 0,41 a 0,60
Difícil 0,16 a 0,40
Muito Difícil ≤ 0,15
Índice de Discriminação (ID)
Item muito bom ≥ 40
Item bom, mas sujeito ao aprimoramento Entre 30 e 40
Item marginal (também considerado como médio por outros autores), sujeito à
reelaboração Entre 20 e 30
Item deficiente (também considerado como fraco por outros autores), deve ser
rejeitado
≤ 20
Fonte: elaboração da pesquisadora, com base nos dados disponibilizados nos Relatórios do MEC/ Inep.
Observamos que em 2012, assim como em 2009, a prova esteve, aparentemente, mais
equilibrada no que diz respeito ao nível de dificuldade. Pelo recorte de questões desta
pesquisa, pode-se perceber que a porcentagem de acerto se mantém equilibrada, com um
destaque para a questão 15, que tratou de Direito Constitucional e Direito Administrativo e
teve um valor porcentagem alta de acerto (63,7%) por parte dos alunos da IES. No
desempenho de todos os alunos (do Brasil) que realizaram o Exame, destacou-se a questão
21, com 57,9% de escolha, cujos conteúdos abordados foram o Direito Penal e o Direito
Processual Penal.
Percebemos, então, que algumas questões selecionadas (quadro 18) apresentaram
condições técnicas adequadas para a avaliação, no entanto, tiveram índices baixos, conforme
Continuação.
95
se observa na questão 34, que abordou o Direito Constitucional e alcançou IF 0,30 (Difícil) e
ID = 0,32 (Bom), com 36,4% de escolha da alternativa correta pelos alunos da IES e 29,9%
pelos alunos de Direito do Brasil.
O conteúdo mais tratado no Exame aplicado em 2012 diz respeito ao Direito
Constitucional, que está dentre as disciplinas/objetos de conhecimento cobradas em duas
questões de melhor desempenho dos alunos da IES (em um total de 3 questões): a questão 15
tratou do Direito Constitucional e do Direito Administrativo e teve 63,7% de acerto; a questão
19 abordou Ética Social, Direitos Processual, Civil e Constitucional e teve 54,9% de acerto;
e a questão 16, teve 59,5% de acerto e tratou do Direito do Trabalho (quadro 18).
Assim como os alunos da Universidade Alpha, os alunos do Brasil também
conseguiram um bom desempenho na questão 15, com 49,1% de acerto, e na questão 16, com
57,2% de acerto, desempenhos estes um pouco menores em relação ao desempenho obtido
pelos alunos da IES. Outro melhor desempenho dos alunos do Brasil foi na questão 21 que
tratou do Direito Penal e Processual Penal e teve 57,9% de acerto. O número de questões com
índices mais baixos, nos leva a considerar que a prova estava mais difícil em relação aos anos
anteriores ou, então, que os sujeitos estavam menos preparados para as questões elaboradas.
A disciplina/objeto de conhecimento mais tratada foi o Direito Constitucional, assim
como no ano de 2006, quando foi contemplado em 6 das 8 questões escolhidas pelo melhor
desempenho dos alunos da IES. O desempenho destes alunos foi melhor que o desempenho
dos alunos do Brasil, isso em 7 das 8 questões incluídas na seleção desta pesquisa.
O último Exame do Enade a ser analisado refere-se à avaliação de 2015, cujos dados
estão apresentados nos quadros 20 e 21.
Quadro 20 – Disciplinas/objetos de conhecimento que são destaque nas questões do Enade 2015
Inscritos Presentes
Disciplina/objeto
de conhecimento
mais recorrente
Disciplina/objeto de
conhecimento da
questão com Melhor
desempenho
IES Alpha
(questão 9)
Disciplina/objeto de
conhecimento da
questão com
Melhor
desempenho do
Brasil
(questão 25)
BR IES
Alpha BR
IES
Alpha
124.924 621 107.417 574 Direito Civil
Filosofia e História do
Direito, Teoria Geral
do Direito
Direito Processual
Civil
Fonte: elaboração da pesquisadora, com base nos dados disponibilizados nos Relatórios do MEC/ Inep.
96
A questão 9 obteve a maior porcentagem de acerto por parte dos alunos da
Universidade Alpha, com IF = 0,45 (Médio) e ID = 0,49 (Muito Bom) e se encaixando,
portanto, dentro do recorte proposto neste trabalho, conforme poderá ser visto no quadro 21.
Esta questão tratou de Filosofia, História do Direito e Teoria Geral do Direito.
Outra questão em destaque é a questão 25, que tratou do Direito Processual Civil. A
porcentagem de escolha dela foi alta, com 70,9%, o que fez o IF se tornar alto demais, com
0,71, sendo classificada como uma questão Fácil. O seu ID foi igual a 0,43, o que é
considerado Muito Bom. Aparentemente, foi uma questão fácil para quem estava preparado
para realizar a prova; e difícil para os menos preparados, por isso o IF Alto e o ID Muito Bom,
portanto, não incluída dentre as questões analisadas no quadro 21.
No ano de 2015, as questões que reuniram as condições de Índice de Facilidade Médio
ou Difícil + Índice de Discriminação Bom ou Muito bom foram as seguintes, dispostas de
acordo com os Conceitos de IF e ID:
Quadro 21 – Desempenhos nas questões do Enade 2015
Nº da
questão
Componente(s)
Específico(s)
Relatório Síntese Relatório de
Curso (*)
Índice de Facilidade
BR (**)
Índice de
Discriminação
BR
% de
acerto
IES
Alpha
% de
acert
o BR
Classificação Valor Classificação Valor Valor Valor
23
Direito do Trabalho
e Direito Processual
do Trabalho
Médio 0,53 Bom 0,38 55,2 52,8
30 Direito
Constitucional Médio 0,48 Bom 0,39 52,4 48,3
9
Filosofia do
Direito, História do
Direito e Teoria
Geral do Direito
Médio 0,45 Muito Bom 0,49 63,9 45,3
10
Teoria do Estado,
Ciência Política,
Direito Econômico
e Economia Política
Médio 0,53 Muito Bom 0,43 56,1 52,8
12
Direito
Constitucional e
Direito Civil
Médio 0,45 Muito Bom 0,46 41,8 44,9
15 Direito Penal e
Direitos Humanos Médio 0,47 Muito Bom 0,42 43,0 46,5
20
Direito
Administrativo,
Direito Penal e
Direito Processual
Penal
Médio 0,44 Muito Bom 0,49
35,0
44,1
Continua.
97
29
Direito Ambiental e
Direito
Administrativo
Médio 0,44 Muito Bom 0,47 33,6 44,3
33
Filosofia do
Direito, História do
Direito e Direito
Constitucional
Médio 0,45 Muito Bom 0,45 42,0 44,6
35
Sociologia Jurídica
e Antropologia
Jurídica
Médio 0,44 Muito Bom 0,41 42,2 43,5
24 Direito Penal e
Direito do Trabalho Difícil 0,35 Bom 0,35 39,7 35,0
28
Direito
Constitucional,
Direito Empresarial
e Direitos Humanos
Difícil 0,21 Bom 0,31 22,1 20,9
31
Filosofia do Direito
e História do
Direito
Difícil 0,37 Bom 0,37 44,8 37,0
16
Direito Civil e
Direito Processual
Civil
Difícil 0,39 Bom 0,32 37,1 38,7
Fonte: elaboração da pesquisadora, com base nos dados disponibilizados nos Relatórios do MEC/ Inep.
(*) Em 2012 e 2015, a diferença encontrada entre Índice de Facilidade (IF) e % de acerto (ambos do Brasil), se
deve ao fato do arredondamento necessário para a apresentação do dado de IF.
(**) Tecnicamente, a diferença entre a % de acerto BR e o IF BR é apenas a forma como se apresentam os dados.
Na % de acerto são dois números antes da vírgula e um depois, sem arredondamento. Já o IF se apresenta com
duas casas após a vírgula, arredondadas e antecedidas pelo 0 antes da vírgula.
Quadro 22 – Referências para ID e IF
Índice de Facilidade (IF)
Muito Fácil ≥ 0,86
Fácil 0,61 a 0,85
Médio 0,41 a 0,60
Difícil 0,16 a 0,40
Muito Difícil ≤ 0,15
Índice de Discriminação (ID)
Item muito bom ≥ 40
Item bom, mas sujeito ao aprimoramento Entre 30 e 40
Item marginal (também considerado como médio por outros autores), sujeito à
reelaboração Entre 20 e 30
Item deficiente (também considerado como fraco por outros autores), deve ser
rejeitado
≤ 20
Fonte: elaboração da pesquisadora, com base nos dados disponibilizados nos Relatórios do MEC/ Inep.
Nota-se que o desempenho dos alunos da Universidade Alpha, dentre as questões
selecionadas conforme os parâmetros descritos anteriormente, tiveram mais facilidade para
Continuação.
98
responder à questão 9 (com 63,9%), cuja a disciplina/objeto de conhecimento foi Filosofia do
Direito, História do Direito e Teoria Geral do Direito.
Percebe-se, com isso, que as questões continuaram cobrando mais de uma
disciplina/objeto de conhecimento imbricada, pelos índices apresentados foi a prova mais
difícil dentre as já aplicadas: por exemplo, a questão 28 que abordou Direito Constitucional,
Direito Empresarial e Direitos Humanos teve IF = 0,21 (Difícil) e ID = 0,31 (Bom), com
22,1% de acerto dos alunos da IES escolhida e 20,9% dos alunos do Brasil.
Isso nos faz pressupor que foi uma questão difícil até para quem estava bem preparado,
fazendo a discriminação dos grupos de estudantes que detinham o conhecimento em relação
aos que não detinham. A disciplina/objeto de conhecimento mais tratada foi Direito Civil, que
não está dentre as disciplinas/objetos de conhecimento cobradas nas 3 questões de melhor
desempenho dos alunos da IES (23, 09 e 10) e também não está contemplado nas 3 questões
de melhor desempenho dos alunos do Brasil (23, 30 e 10), conforme apresentadas no quadro
21.
As questões 23, 09 e 10 cobraram conteúdos de Direito do Trabalho, Direito
Processual do Trabalho, Filosofia do Direito, História do Direito, Teoria Geral do Direito,
Teoria do Estado, Ciência Política, Direito Econômico e Economia Política. E as questões 23,
30 e 10 abordaram as seguintes disciplinas/objetos de conhecimento: Direito do Trabalho,
Direito Processual do Trabalho, Direito Constitucional, Teoria do Estado, Ciência Política,
Direito Econômico e Economia Política.
Em relação ao desempenho dos alunos do Brasil, pode-se notar que, na maioria das
questões (em nove questões dentre 14 possíveis) os alunos da IES selecionada foram melhores
em relação aos alunos do Brasil.
Apenas como exemplo, reproduzimos, a seguir, a questão nº2331 (2015), que abordou
Direito do Trabalho e Direito Processual do Trabalho, teve IF Médio (0,53) e ID Bom (0,38)
com 55,2% de acerto dos alunos da IES Alpha e 52,8% de acerto dos alunos do Brasil.
31 Disponível em http://download.inep.gov.br/educacao_superior/enade/provas/2015/08_direito.pdf . Acesso
em 20 jul. 2018
99
Figura 1 – Exemplo de questão da prova do Enade
Fonte: Caderno de questões de Direito – Enade 2015.
Assim, sintetizando as informações apresentadas em relação ao desempenho dos
alunos da Universidade Alpha e dos alunos do Brasil, nota-se que, em 2006, cujo conteúdo
mais cobrado foi Direito Penal, os alunos da Universidade Alpha tiveram seu melhor
desempenho na questão que cobrava Direito Civil e Processual Civil. Algo parecido ocorre
em 2012, cujo conteúdo mais cobrado foi Direito Constitucional e o melhor desempenho
destes alunos estava relacionado à questão que tratava de Direito Processual Civil e Direito
do Trabalho.
Em 2009, a disciplina/objeto de conhecimento mais cobrada foi Direito Constitucional
e o melhor desempenho dos alunos da Universidade selecionada foi em uma questão que
envolveu Ciência Política, Economia, Filosofia, Psicologia, Ética Social e, também, Direito
Constitucional.
Diferentemente dos anos anteriores, em 2015, quando a disciplina/objeto de
conhecimento principal foi Direito Civil (disciplina/objeto de conhecimento, por sinal, com
bom desempenho dos alunos em anos anteriores), o melhor desempenho obtido foi na questão
que correlacionou Filosofia do Direito, História do Direito e Teoria Geral do Estado.
100
No desempenho dos alunos do Brasil, em 2006, a questão de melhor desempenho
envolveu Direito Penal, Direito Empresarial e Direito Internacional; e, enfatizando o bom
preparo dos alunos nacionalmente, a disciplina/objeto de conhecimento mais cobrada foi
somente o Direito Penal. No ano de 2009, a disciplina/objeto de conhecimento mais cobrada
foi Direito Constitucional e a questão cujo desempenho dos alunos do Brasil foi melhor tratou
também de Direito Constitucional, Ciência Política, Economia, Filosofia do Direito,
Sociologia do Direito, Psicologia do Direito e Ética Social. Nos anos de 2012 e 2015, as
principais disciplinas/objetos de conhecimento foram Direito Constitucional e Direito Civil,
respectivamente, mas o melhor desempenho dos alunos do Brasil, nesses anos, nessa ordem,
foi Direito Processual Civil e Direito do Trabalho (2012) e Direito Processual Civil em 2015.
Considerando as informações apresentadas, respectivamente, nos quadros 11, 14, 17 e
20, o melhor desempenho dos alunos da IES foi em Direito Processual Civil e em Filosofia
do Direito, constantes, cada uma das disciplinas/objetos de conhecimento, em duas questões
(das 04 possíveis – uma de cada ano). O melhor desempenho dos alunos foi em Direito
Processual Civil, nos anos de 2006 e 2012, e Filosofia do Direito, nos anos de 2009 e 2015.
As disciplinas/objetos de conhecimento das demais questões (de melhor desempenho) foram:
Direito Civil, Ciência Política, Economia, Sociologia, Psicologia, Ética Social, Direito
Constitucional, Direito do Trabalho, História do Direito e Teoria Geral do Direito.
Em relação ao melhor desempenho dos alunos do Brasil, também foi em Direito
Processual Civil em 2 questões (das 4 possíveis – uma de cada ano). Mas, diferentemente dos
alunos da IES, esse bom desempenho ocorreu nos anos de 2012 e 2015. As disciplinas/objetos
de conhecimento das demais questões (de melhor desempenho) foram: Direito Penal, Direito
Empresarial, Direito Internacional, Ciência Política, Economia, Filosofia do Direito,
Sociologia do Direito, Psicologia do Direito, Ética Social, Direito Constitucional e Direito do
Trabalho.
Dentre as questões de melhor desempenho, nenhuma delas foi anulada, conforme
apresentado no quadro 05 no Capítulo II, conjecturando para o bom funcionamento da
avaliação.
101
3.2.2 – Itens com desempenho ineficiente
De uma mesma forma, foram escolhidas questões de bom desempenho para uma
análise especial e questões cujo desempenho dos alunos não foi tão eficiente e que,
aparentemente, não apresentaram problema em relação à tecnologia de elaboração de itens.
Assim, tais questões foram mantidas pelo MEC/Inep quando da divulgação do gabarito, muito
embora, após proceder à análise de funcionamento de cada uma, muitas delas foram anuladas.
Nesta pesquisa, houve uma seleção de questões, cujas características eram: Índice de
Facilidade Muito Fácil ou Muito Difícil + Índice de Discriminação Fraco; e, em termos
técnicos, essas são questões que não funcionaram para fazer a diferenciação/separação entre
sujeitos que detêm o conhecimento e sujeitos que não os detêm. Isso, conforme explicado
anteriormente, pode ocorrer por diversos motivos, dentre eles: os sujeitos não estarem bem
preparados para responder a esses tipos de demandas cognitivas, ora porque não tiveram
qualquer contato com essa disciplina/objeto de conhecimento, ora porque não assimilaram o
que fora ensinado em sala de aula.
Tendo em vista que tudo o que é cobrado nas provas do Enade está ligado à Ldben, às
DCNs e, neste caso, à formação do advogado, resguardadas as possibilidades de problemas
técnicos com as questões, para o desenvolvimento da análise consideramos as questões que
apresentaram Índices inadequados, a fim de verificar se estas reúnem disciplinas/objetos de
conhecimento similares ou se se trata de mero acaso.
Quadro 23 – Questões com Desempenho Ineficiente – Enade 2006
Nº da
questão
Componente(s)
Específico(s)
Relatório Síntese
Observação Índice de Facilidade
BR
Índice de Discriminação
BR
Classificação Valor Classificação Valor
- - - - - -
Sem
questões
ineficientes
dentro do
recorte
estabelecido
Fonte: elaboração da pesquisadora, com base nos dados disponibilizados nos Relatórios do MEC/ Inep.
Em relação à porcentagem de escolha da Universidade Alpha e de todos os outros
alunos de Direito do Brasil, envolvidos com o Enade, não são disponibilizadas as porcentagens
de escolhas das questões que foram anuladas.
102
Diante das características escolhidas não contemplarem questões nessas condições, de
acordo com o quadro 5 (Informações Complementares sobre a Prova), pode-se notar que duas
questões foram anuladas, 17 e 22, mas ambas apresentaram IF – Difícil e ID – Fraco, ficando
assim fora do recorte desse estudo.
Quadro 24 – Questões com Desempenho Ineficiente – Enade 2009
Nº da
questão
Componente(s)
Específico(s)
Relatório Síntese
Situação Índice de Facilidade
BR
Índice de
Discriminação
BR
Classificação Valor Classificação Valor
27
Economia e Ética
Social; Direito
Constitucional, Direito
Tributário, Direito
Penal e Direito
Processual.
Muito Difícil 0,14 Fraco 0,08 Questão
Anulada
37 Direito Constitucional,
Direito Empresarial e
Direito Processual.
Muito Difícil 0,14 Fraco 0,07 Questão
Anulada
Fonte: elaboração da pesquisadora com base nos dados disponibilizados nos Relatórios do MEC/ Inep.
O Direito Constitucional foi a disciplina/objeto de conhecimento mais cobrada em
2009 e também a disciplina/objeto de conhecimento de melhor desempenho dos alunos, tanto
da Universidade Alpha quanto dos alunos do Brasil. Considerando, ainda, que esse mesmo
objeto de conhecimento foi cobrado em ambas as questões apresentadas no quadro 24, pode-
se presumir que, de fato, tenham sido questões de cobranças mais profundas do que a média
de preparação dos alunos.
As questões 27 e 37 foram, posteriormente, anuladas pelo MEC/ Inep e, além delas, as
questões 20,22 e 23 também foram anuladas após divulgação do gabarito, todas elas com IF
– Difícil e ID – Fraco.
Quadro 25 – Questões com Desempenho Ineficiente – Enade 2012
Nº da
questão
Componente(s)
Específico(s)
Relatório Síntese
Situação Índice de Facilidade
BR
Índice de Discriminação
BR
Classificação Valor Classificação Valor
10
Antropologia, Ética
Social, Direito Civil,
Direito Processual,
Direito Constitucional
Muito Difícil 0,13 Fraco 0,09 Questão
Anulada
17 Direito Constitucional,
Direito Civil Muito Difícil 0,10 Fraco 0,02
Questão
Anulada
31 Direito Civil, Direito
Processual Civil Muito Difícil 0,08 Fraco 0,07
Questão
Anulada
Fonte: elaboração da pesquisadora, com base nos dados disponibilizados nos Relatórios do MEC/ Inep.
103
No ano de 2012, a disciplina/objeto de conhecimento mais cobrada foi novamente o
Direito Constitucional; e nesse caso, os alunos da Universidade Alpha obtiveram melhor
desempenho em Direito Processual Civil e Direito do Trabalho, assim como os alunos do
Brasil. Mesmo que o Direito Processual Civil guarde alguma relação com Direito Civil, não
foi suficiente para que os estudantes fossem bem nessas questões, cujas disciplinas/objetos de
conhecimento envolvem Direito Civil e/ou Processual Civil em todas elas. Isso pode
pressupor que as questões ficaram muito além do que podia ser cobrado ou do que fora
ensinado tanto na Universidade Alpha como no Brasil, podendo apontar para um erro de
medida.
As três questões foram anuladas após a divulgação do gabarito. Além delas, as
questões 13, 23 e 32 também foram, assim como nos anos anteriores, com IF – Difícil e ID –
Fraco.
Quadro 26 – Questões com Desempenho Ineficiente – Enade 2015
Nº da
questão
Componente(s)
Específico(s)
Relatório Síntese
Situação Índice de Facilidade
BR
Índice de Discriminação
BR
Classificação Valor Classificação Valor
17 Direito Penal Muito Difícil 0,07 Fraco 0,04 Questão
Anulada
26 Direito Tributário Muito Difícil 0,00 Fraco 0,00
Questão
Anulada antes
da divulgação
do gabarito
Fonte: elaboração da pesquisadora, com base nos dados disponibilizados nos Relatórios do MEC/ Inep.
Em 2015, a disciplina/objeto de conhecimento mais cobrada foi o Direito Civil, mas
os alunos da Universidade Alpha tiveram seu melhor desempenho em Filosofia do Direito,
História do Direito e Teoria Geral do Direito, e os alunos do Brasil desempenharam-se melhor
em Direito Civil.
O quadro 26 aponta para a dificuldade das questões de Direito Penal e Direito
Tributário, porcentagem de escolha da alternativa correta muito baixa (ou inexistente) e
Índices de Discriminação desconsideráveis.
A questão 17 tratou de Direito Penal, uma das disciplinas/objetos de conhecimento
mais cobrada no ano de 2015 (com 6 questões), e teve um alto índice de cobranças em anos
anteriores, conforme mostrou o quadro 10 do Capítulo II. O conteúdo de Direito Penal foi a
terceira disciplina mais cobrada, em todos os anos, o que pode apontar para uma
disciplina/objeto de conhecimento importante na formação de um advogado, no entanto,
104
possivelmente cobrada de forma muito específica ou profunda para alunos que estão
terminando a graduação.
Apesar de já ter sido anulada quando da divulgação do gabarito, fizemos um destaque
para a questão 26 (quadro 26: Conteúdos abordados nas questões do Componente Específico
– Enade 2015) que foi a única questão da prova que tratou de Direito Tributário, podendo
apontar para uma falta de preparado e/ou expectativa em relação à cobrança pura dessa
disciplina/objeto de conhecimento. Inclusive porque em todos os três anos anteriores, ocorreu
a cobrança desse conteúdo em apenas 2 questões de cada prova, totalizando 6 questões ao
todo. Importante salientar que ela foi anulada antes mesmo da divulgação do gabarito,
fazendo-se supor que tenha havido uma cobrança inadequada ou um problema técnico com a
questão.
Além dessas duas questões, 26 e 17, após a divulgação do gabarito, as questões 18 e
27, ambas com IF – Difícil e ID – Fraco, também foram anuladas.
Percebemos que, com o passar dos anos de aplicação da prova do Enade, o número de
questões “ineficientes” (mesmo após a divulgação do gabarito) apresentou aumento. Em 2006,
não houve registros; em 2009, houve 2 questões. Em 2012, o número aumentou para 3,
voltando a cair, em 2015 para 2.
Por decisão do MEC/Inep as questões que apresentaram o conjunto de características
(IF – Muito Fácil ou Muito Difícil + ID – Fraco) foram todas anuladas. Além destas e
conforme apresentado anteriormente, as questões cujas características reúnem IF – Difícil e
ID – Fraco apresentam grande tendência a serem anuladas, mas não foram alvo de estudo
desta pesquisa. No quadro 5 (Informações complementares sobre as provas) é possível
verificar outras questões que se enquadram nessa situação.
Ao realizar a análise dos temas que mais se repetiram, dentre as 7 questões
apresentadas nos quadros referentes às questões ineficientes, foram identificados: Direito
Constitucional, em 4 questões; seguido de Direito Processual, em 3 questões.
O ano de 2006 não teve questões dentro desse recorte. Em 2009, cuja principal
disciplina/objeto de conhecimento foi Direito Constitucional, as 2 questões apresentadas no
quadro 20 tratavam, de alguma forma, desse tema; em 2012, das 3 questões destacadas, 2
abordaram a principal disciplina/objeto de conhecimento do ano, que foi o Direito
Constitucional. Por fim, em 2015, Direito Civil foi a disciplina/objeto de conhecimento mais
105
cobrada nas questões, porém, não é um conteúdo tratado nas questões selecionadas no quadro
22.
Percebe-se, então, que as disciplinas/objetos de conhecimento das questões
apresentadas, e que foram todas anuladas, são divergentes entre si. Ao considerarmos que as
disciplinas/objetos de conhecimento principais de cada ano foram: 2006 – Direito Penal; 2009
– Direito Constitucional; 2012 – Direito Constitucional e 2015 – Direito Civil, pode-se
pressupor ao menos duas possibilidades: (1) essas questões foram muito difíceis para o público
a que se propunham (ou os sujeitos da prova não estavam cognitivamente preparados para
esse tipo de questão); (2) as questões apresentaram erros técnicos de medida, prejudicando a
avaliação, por exemplo, com duas respostas corretas, com erros materiais, ausência de
informação relevante, dentre outros. Não é possível afirmar quais teriam sido os motivos dos
erros de medidas dessas questões. Para isso, seria necessário obter maior quantidade de
informações, que não se encontram disponíveis.
106
RECOMENDAÇÕES FINAIS
As principais propostas de avaliação da Educação Superior no Brasil oscilaram entre
emancipação e regulação, desde o Programa de Avaliação Institucional das Universidades
Brasileiras (Paiub) até o Sistema Nacional de Avaliação do Ensino Superior (Sinaes), tal como
o conhecemos hoje.
De acordo com Lacerda e Ferri (2017), o Sinaes foi implantado com a intenção de
tentar equilibrar a avaliação emancipatória e formativa com a regulação controladora do
Estado.
Ser emancipatório ou regulatório não significa ser melhor ou pior. Entendemos que,
até para que se concretize uma avaliação de larga escala, a nível nacional, é necessária uma
parcela de regulação, porém, o uso que se faz dos resultados é que deve ser mais emancipatório
em relação às IES envolvidas, do que regulatório.
O que se pôde notar, com esta pesquisa é que até o presente momento, mesmo com o
investimento de alguns governos na Educação Superior, ainda prevalecem indícios de
regulação, do qual o Exame Nacional de Desempenho dos Estudantes (Enade) é um exemplo;
os resultados são usados de forma classificatória pelas próprias IES (especialmente as
melhores colocadas) para se promoverem e divulgarem seus cursos, com a participação da
mídia e a criação de rankings que nada agregam à educação, não têm subsidiado as IES no
processo de tomadas de decisões e, portanto, pouco contribuem para o aperfeiçoamento do
processo educacional da Instituição.
Essas observações nos conduziram ao desenvolvimento do presente estudo.
Procuramos analisar como poderia ser realizada a exploração dos resultados do Enade e
subsidiar o aperfeiçoamento do currículo de cursos de Educação Superior. Para tanto, fizemos
um levantamento do desempenho dos alunos do curso de Direito de uma Instituição de
Educação Superior (IES) de alto prestígio nas provas do Exame Nacional de Desempenho dos
Estudantes (Enade) dos anos de 2006, 2009, 2012 e 2015. Os resultados obtidos pelos alunos
do curso de Direito dessa IES, aqui chamada de Universidade Alpha, foram comparados com
os resultados obtidos pelos alunos desse mesmo curso em todo Brasil.
Verificamos assim, a plausibilidade dos distratores das questões selecionadas com o
objetivo de ressaltar a importância das questões das provas para avaliar a qualidade da prova,
antes de procurar analisar os resultados dos alunos. Com essa avaliação da qualidade, foi
107
possível analisar os itens ineficientes, e, também, separar os sujeitos que detêm o
conhecimento solicitado na prova, daqueles que não o possuem ou possuem em menor grau.
A partir daí foi possível realizar a análise da prova propriamente dita com base no
desempenho dos dois grupos de estudantes de Direito previamente selecionados: Universidade
Alpha e Brasil.
Identificamos os conteúdos curriculares de cada questão de Componente Específico e,
posteriormente, as questões nas quais os alunos do curso de Direito obtiveram os melhores
desempenhos e as questões nas quais tiveram os desempenhos mais baixos, nos quatro anos
de aplicação do Enade para o curso de Direito: 2006, 2009, 2012 e 2015. Esse levantamento
contribuiu para a discussão sobre o modo como as disciplinas/objetos de conhecimento
previstas nas matrizes das provas são respondidos por estudantes da IES Alpha e do Brasil.
Essa estratégia de análise permitiu, além de poder confrontar o currículo da IES Alpha
com as provas, realizar uma reflexão sobre as relações de ensino e desempenho solicitadas
como padrão pelo Inep/MEC.
Foi necessário também realizar uma análise dos Índices de Discriminação e dos Índices
de Facilidade/Dificuldade das questões mais acertadas e das questões mais erradas pelos
estudantes do curso de Direito da Universidade Alpha e pelo total de estudantes (de Direito)
de todas as IES que participaram da prova no Brasil. Estabelecemos um recorte para que essa
análise pudesse ser realizada: Índice de Facilidade com conceitos Médio ou Difícil + Índice
de Discriminação dentro dos conceitos Bom ou Muito Bom. Ou seja, foram desprezadas as
questões com Índices de Facilidade Muito Fácil, Fácil ou Muito Difícil e as questões que
apresentaram Índices de Discriminação Marginal ou Deficiente. As questões que possuíam
um dos Índices dentro do recorte e o outro Índice que não correspondia ao critério definido
para o recorte não foram utilizadas para esta pesquisa.
Essa comparação nos permitiu indicar tanto os itens mais fáceis e os itens mais difíceis
(Índice de Facilidade/Dificuldade) para cada um dos grupos previamente selecionados, quanto
a possibilidade dessa prova classificar igualmente os estudantes da IES Alpha e do Brasil
(Índice de Discriminação).
O melhor desempenho dos alunos da IES Alpha (ou seja, as questões em que tiveram
a maior porcentagem de acerto) se deu em questões que abordaram: (2006) Direito Civil e
Direito Processual Civil; (2009) Ciência Política, Economia, Filosofia, Sociologia, Psicologia,
108
Ética Social e Direito Constitucional; (2012) Direito Processual Civil e Direito do Trabalho;
(2015) Filosofia, História do Direito e Teoria Geral do Direito.
O melhor desempenho dos alunos do Brasil se deu em questões que abordaram: (2006)
Direito Penal, Direito Internacional e Direito Empresarial; (2009) Direito Processual Civil e
Direito do Trabalho; (2012) Ciência Política, Economia, Filosofia, Sociologia, Psicologia,
Ética Social e Direito Constitucional; (2015) Direito Processual Civil.
Em todos os anos de realização do Enade, os alunos da Universidade Alpha tiveram
melhores desempenhos do que os alunos do Brasil.
As análises permitem indagar sobre as possibilidades de uso dos resultados.
Entendemos que as IES (Curso de Direito) poderiam, com esse tipo de análise, ter uma visão
mais crítica sobre o currículo que desenvolvem, sobre o desempenho dos seus alunos e, até
mesmo, sobre a validade da matriz que vem sendo utilizada com a elaboração dessas provas
pelo Inep/MEC.
Da mesma forma que ainda é grande o número de questões anuladas e/ou com
problemas técnicos – o que pode prejudicar a avaliação de alguma forma e, por isso, é
necessário também que haja um olhar crítico para a capacidade técnica das questões em
conseguir medir conhecimento – não se pode negar que é possível perceber alguns pontos
orientadores para a elaboração ou o acompanhamento do projeto político pedagógico da IES.
Destacamos, por exemplo, que de acordo com o que vem sendo cobrado nas provas do
Enade para o curso de Direito, a disciplina/objeto de conhecimento mais importante para o
futuro profissional dessa área é o Direito Constitucional, cobrado em todos os anos e em
grande quantidade de questões, conforme apontamos no Capítulo 3 desta pesquisa. Por outro
lado, parecem não ter tanta importância na formação de um advogado algumas disciplinas
como Direito Ambiental, Direito Econômico ou Direito Fundamental que, desde 2006 foram
cobradas em apenas uma questão de cada uma das disciplinas, considerando a soma de todas
as avaliações do Enade realizadas.
Mas será que realmente não são importantes? São importantes, mas não são
prioritárias? Fazem parte do dia a dia de um advogado formado? Em que circunstâncias?
Deveriam estar sendo cobradas? Deve o coordenador do curso investir mais em Direito
Constitucional, tendo em vista que os alunos desta IES se saíram bem (de uma forma geral)
nas questões dessa disciplina? É o caso de estudar de acordo com o que é cobrado e, então, se
regular ao que propõe a avaliação? Ou esses dados podem servir para discussão junto ao corpo
109
docente para que seja possível ajustar o que se propõe em sala de aula versus o que se usa no
dia a dia do profissional que está no mercado de trabalho?
Outro dado a ser destacado é que, dentre as questões em que os alunos da IES Alpha
apresentaram o melhor desempenho, as únicas duas disciplinas que se repetiram (conforme
quadros 11, 14, 17 e 20) foram Direito Processual Civil (2006 e 2012) e Filosofia do Direito
(2009 e 2015). No entanto, essas duas disciplinas não se encontram dentre os assuntos mais
recorrentes de cada ano (2006, 2009, 2012 e 2015), respectivamente, Direito Penal, Direito
Constitucional, novamente Direito Constitucional e Direito Civil.
Como vimos no quadro 10, Direito Processual Civil é apenas a 11ª disciplina mais
cobrada e Filosofia (geral e jurídica ou do Direito) é a 15ª.
O que pretendemos afirmar é que essa perspectiva poderia assegurar a possibilidade
de diálogo de cada IES com o Inep/MEC para, com maior propriedade, discutir um currículo
que contemple necessidades básicas para o exercício da profissão e, ao mesmo tempo, ofereça
possibilidades de maior diversidade na formação.
Nesses termos, o estudo realizado reforça a importância da utilização dos dados de
avaliação para o processo de tomada de decisão, visando o aperfeiçoamento da qualidade da
educação oferecida. Participar desse processo sem uma análise de resultado é adiar um
protagonismo da IES em prol da melhoria do curso.
Afirmamos então, que a perspectiva de análise desse processo de Avaliação de provas
do Enade teve como propósito: contribuir para o processo de planejamento e aperfeiçoamento
da proposta pedagógica e da formação de alunos do curso de Direito da Universidade Alpha;
possibilitar que outras IES, com base nesse exemplo, possam também desenvolver o uso dos
resultados obtidos nas provas do Enade e, assim, proporcionar melhoria nos currículos dos
cursos de Direito.
110
REFERÊNCIAS BIBLIOGRÁFICAS
ABRANTES, J. A Ergonomia Cognitiva e as Inteligências Múltiplas. In: SIMPÓSIO DE
EXCELÊNCIA EM GESTÃO, 8., 2011, Resende. Anais. SEGET: Resende, 2011.
Disponível em: http://www.aedb.br/seget/arquivos/artigos11/55314676.pdf. Acesso em: 02
mar. 2017.
ALCHIERI, J.C.; CRUZ, R.M.. Avaliação Psicológica: Conceitos, Métodos e
Instrumentos. São Paulo: Casa do Psicólogo, 2003.
ALVES, I.. Os testes e a reorganização escolar. Bahia: Nova Graphica, 1930.
ANASTASI, A.. Testes Psicológicos. Trad. Dante Moreira Leite. São Paulo: Editora
Herder, 1965.
ARRUDA, J.A. de. Uso dos resultados da autoavaliação institucional pelos gestores da
Universidade de Brasília. 2016. 188 f., il. Dissertação (Mestrado Profissional em
Administração) – Faculdade de Economia, Administração e Contabilidade, Universidade de
Brasília, Brasília, 2016.
BARDIN, L. Análise de conteúdo. Edições 70 ed. Lisboa: [s.n.], 2011. Disponível em:
https://www.scielosp.org/article/csp/2011.v27n4/743-752/pt/. Acesso em: 1 maio 2018.
BARREYRO, G. B. Of evaluation, rankings and media. Avaliação: Revista da Avaliação
da Educação Superior (Campinas), v. 13, n. 3, p. 863–868, 2008.
BARRIGA, F.; BARRIGA, A.D. (2008), "El impacto institucional de los programas de
evaluación de los académicos en la educación superior", en A. Díaz Barriga, C. Barrón y F.
Díaz Barriga (coords.), Impacto de la evaluación en la educación superior mexicana. Un
estudio en las universidades públicas estatales, México, ISSUE-UNAM, pp. 165-221.
BECKER, F. da R. Avaliação educacional em larga escala: A experiência brasileira. Revista
Iberoamericana de Educación, v. 53, n. 1, p. 2, 2010.
BEZERRA JÚNIOR, A.V.. Análise das Provas do Exame da OAB e do ENADE dos
cursos de Direito do ano de 2012 à luz da taxonomia dos objetivos educacionais de
Bnajmin Bloom. Dissertação de Mestrado – Fortaleza, 2016.
BONAMINO, A.; SOUSA, S.Z.. Três gerações de avaliação da educação básica no Brasil:
interfaces com o currículo da/na escola. Educ. Pesqui., São Paulo, v. 38, n. 2, p. 373-
388, June 2012. Disponível em
<http://www.scielo.br/scielo.php?script=sci_arttext&pid=S1517-
97022012000200007&lng=en&nrm=iso>. Acessado em 11 Sept. 2017. Epub Feb 14,
2012. http://dx.doi.org/10.1590/S1517-97022012005000006.
BRASIL. Lei 10.861, de 14/4/2004. Institui o Sistema Nacional de Avaliação da Educação
Superior – SINAES e dá outras Providências. Diário Oficial da União, Brasília, DF, 15 abr.
2004. Disponível em: http://www.planalto.gov.br/ccivil_03/_ato2004-2006/2004/lei/
l10.861.htm.
111
BRASIL. Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (capes).
Ministério da Educação (MEC). Capes. 2016. Disponível em: <http://www.capes.gov.br/>.
Acesso em: 30 abr. 2018.
______. Portaria Normativa nº 40 de 12 de dezembro de 2010. Institui o e-MEC, sistema
eletrônico de fluxo de trabalho e gerenciamento de informações relativas aos processos de
regulação, avaliação e supervisão da educação superior no sistema federal de educação, e o
Cadastro e-MEC de Instituições e Cursos Superiores e consolida disposições sobre
indicadores de qualidade, banco de avaliadores (Basis) e o Exame Nacional de Desempenho
de Estudantes (Enade) e outras disposições. Disponível em: http://abmes.org.br/legislacoes/
detalhe/198 /portaria-normativa-n-40. Acesso em 25 de mar. 2018.
______. Instituto Nacional de Estudos e Pesquisas Educacionais Anísio Teixeira. Norma
Técnica n. 6. Brasília, DF: INEP, 2018.
______. Constituição (1988). Constituição da República Federativa do Brasil. Brasília,
DF: Senado Federal, 1988.
______. Lei nº. 4.024, de 20 de dezembro de 1961. Fixa as diretrizes e bases da Educação
Nacional. Diário Oficial da União, Brasília, DF, 27 dez. 1961.
______. Lei nº. 9.394, de 20 de dezembro de 1996. Estabelece as diretrizes e bases da
educação nacional. Diário Oficial [da] República Federativa do Brasil, Brasília, DF, 23 dez.
1996.
______. Lei nº 10.861, de 14 de abril de 2004. Institui o Sistema Nacional de Avaliação da
Educação Superior – SINAES e dá outras providências. Diário Oficial da União, Brasília,
DF, 15 abr. 2004a. Disponível em: <http://www.presidencia.gov.br>. Acesso em 25 de mar.
2018.
______. Estatuto da OAB: Lei nº 8.906, de 4 de julho de 1994. Dispõe sobre o Estatuto da
Advocacia e a Ordem dos Advogados do Brasil (OAB). Diário Oficial da União, Brasília,
DF, 5 de jul. de 1994. Seção 1, p. 1.
______. Portaria Inep nº 125 de 28 de julho de 2006 – Estabelece as características e
definições acerca da prova de Formação Geral e Componente Específico deste ano.
Publicada no DOU de 2 de agosto de 2006, Seção 1, pág. 26. Disponível em:
http://download.inep.gov.br/download/enade/2009/Portaria_Diretrizes_2009_Ciencias_Cont
abeis.pdf. Acesso em 25 de mar. 2018.
______. Portaria Inep nº 129 de 24 de junho de 2009. Trata das características e
definições acerca da prova de Formação Geral e Componente Específico de 2009.
Publicada no Diário Oficial de 25 de junho de 2009, Seção 1, págs. 23 e 24. Disponível em:
http://download.inep.gov.br/download/enade/2009/Portaria_Diretrizes_2009_Direito.pdf
Acesso em 20 de mar. 2018.
______. Portaria nº 207, de 22 de junho de 2012. Publicada no Diário Oficial de 25 de
junho de 2011, Seção 1, pág. 16. Trata das características e definições acerca da prova de
Formação Geral de 2012. Disponível em: http://download.inep.gov.br/educacao_superior
/enade/legislacao/2012/diretrizes/diretrizes_cursos_tec_formacao_geral/diretrizes_formacao
_geral_n_207.pdf . Acesso em 20 de mar. 2018.
112
______. Portaria nº 206, de 22 de junho de 2012. Publicada no Diário Oficial de 25 de
junho de 2011, Seção 1, pág. 16. Trata das características e definições acerca da prova de
Componente Específico de 2012. Disponível em:
http://download.inep.gov.br/educacao_superior/enade/legislacao/2012/diretrizes/diretrizes_a
reas_bacharelado/diretrizes_direito_n_206.pdf. Acesso em 20 de mar. 2018.
BRASIL. Portaria Inep nº 239, de 10 de junho de 2015. Publicada no Diário Oficial de 12
de junho de 2015, Seção 1, pág. 25. Trata das características e definições acerca da prova de
Formação Geral de 2015. Disponível em:
http://download.inep.gov.br/educacao_superior/enade/legislacao/2015/formacao_geral_porta
ria_inep_n239_10062015.pdf. Acesso em 20 de mar. 2018.
______. Portaria Inep nº 236, de 10 de junho de 2015. Publicada no Diário Oficial de 12 de
junho de 2015, Seção 1, pág. 24. Trata das características e definições acerca da prova de
Componente Específico de 2015. Disponível em:
http://www.furb.br/web/upl/arquivos/201506161736200.Diretriz%20-
%20Direito.pdf?20151110192154. Acesso em 20 de mar. 2018.
BRITO, M.R.F. de. O SINAES e o ENADE: da concepção à implantação. Avaliação
(Campinas), Sorocaba, v. 13, n. 3, p. 841-850, Nov. 2008. Disponível em: http://dx.doi.
org/10.1590/S1414-40772008000300014.
_____. SINAES and ENADE: From conception to implementation. Avaliação: Revista da
Avaliação da Educação Superior (Campinas), v. 13, n. 3, p. 841–850, nov. 2008.
CAMPOS, F.C. dos S. Elaboração da Prova do Enade no Modelo do Banco Nacional de
Itens. Dissertação de Mestrado, Juiz de Fora. 2013.
CAMPOS, R.H.de F.; GOUVEA, M.C.S.; GUIMARÃES, P.C.D. A recepção da obra de
Binet e dos testes psicométricos no Brasil: contrafaces de uma história. Revista Brasileira
de História da Educação, Maringá – PR, v.14, nº2, p.215-242, maio/ago 2014.
CANAN, S. R.; ELOY, V. T. Políticas de avaliação em larga escala: o ENADE interfere na
gestão dos cursos? Praxis Educativa, v. 11, n. 3, p. 621–640, 2016.
CENTOFANTI, R.. Os laboratórios de psicologia nas escolas normais de São Paulo: o
despertar da psicometria. Revista Psicologia da Educação, São Paulo, 1º semestre de 2016,
p. 31-52.
CORTELAZZO, A. L.; RIBEIRO, V. K. ENADE 2005 e 2008: desempenho dos
estudantes de biologia de instituições de Educação Superior estaduais e municipais de
São Paulo. Ciênc. educ. (Bauru), Bauru , v. 19, n. 2, 2013 . Disponível em:
http://www.scielo.br/scielo.php?script=sci_arttext&pid=S1516-73132013000200012
&lng=pt&nrm=iso . Acessado em 19 março 2018.
CRONBACH, L.J. (1963) - Course improvement through evduation. Teachers College
Records, 64. Columbia University.
CUNHA, L.A.. Nova reforma do ensino superior: a lógica reconstruída. Cadernos de
pesquisa, São Paulo, n. 101, p. 20-49, jul. 1997. Disponível em: < http://publicacoes.fcc
.org.br /ojs/index.php/cp/article/view/751>. Acesso em: 10 nov. 2015.
113
CUNHA, M.I.. Impactos das políticas de avaliação externa na configuração da docência. In:
ROSA, D.. E.G; SOUZA, V. C. (orgs). Políticas organizativas e curriculares, educação
inclusiva e formação de professores. Rio de Janeiro: DP&A. (2002).
DEVELLIS R., MIELENZ T, JACKSON E, CURREY S, CALLAHAn LF. Psychometric
properties of the Centers for Disease Control and Prevention Health-Related Quality of Life
(CDC HRQOL) items in adults with arthritis. Health Qual Life Outcomes. 2006.
DIAS SOBRINHO, J. Exames gerais, provão e avaliação educativa. Avaliação
(Campinas), Sorocaba, v. 04, n. 03, set. 1999. Disponível em
<http://educa.fcc.org.br/scielo.php?script=sci_arttext&pid=S1414-
40771999000500003&lng=pt&nrm=iso>. acessos em 17 mar. 2018.
______. RISTOFF, D.I. (Org.). Avaliação e compromisso público: a educação superior em
debate. Florianópolis: Insular, 2003.
______. Avaliação da educação superior regulação e emancipação. Avaliação
(Campinas), Sorocaba, v. 08, n. 02, jun. 2003. Disponível em
<http://educa.fcc.org.br/scielo.php?script=sci_arttext&pid=S1414-
40772003000200004&lng=pt&nrm=iso>. acessos em 18 mar. 2018.
______. Sobre a proposta do Sistema Nacional de Avaliação da Educação
Superior. Avaliação (Campinas), Sorocaba, v. 09, n. 01, mar. 2004. Disponível em
<http://educa.fcc.org.br/scielo.php?script=sci_arttext&pid=S1414-
40772004000100004&lng=pt&nrm=iso>. acessos em 17 mar. 2018.
______. Avaliação e transformações da educação superior brasileira (1995-2009): do provão
ao Sinaes. Avaliação (Campinas), Sorocaba , v. 15, n. 1, p. 195-224, 2010 . Available
from <http://www.scielo.br/scielo.php?script=sci_arttext&pid=S1414-
40772010000100011&lng=en&nrm=iso>. access
on 22 May 2018. http://dx.doi.org/10.1590/S1414-40772010000100011.
______. Educação superior: bem público, equidade e democratização.Avaliação
(Campinas), Sorocaba , v. 18, n. 1, p. 107-126, Mar. 2013 . Available from
<http://www.scielo.br/scielo.php?script=sci_arttext&pid=S1414-
40772013000100007&lng=en&nrm=iso>. access
on 22 May 2018. http://dx.doi.org/10.1590/S1414-40772013000100007.
DI DIO, R.A.T. A estrutura da Inteligência. São Paulo: Centro Regional de Pesquisas
Educacionais do Sudeste – CRPE, 1972.
ENADE Comentado 2015 – Direito. Orgs. Clarice Beatriz da Costa Söhngen e Fabrício
Dreyer de Ávila Pozzebon ISBN 978-85-397-0908-3 EDIPUCRS – 2016.
ENADE Comentado 2012 – Direito Clarice Beatriz da Costa Söhngen, Elton Somensi de
Oliveira, Fabrício Dreyer de Ávila Pozzebon. – (Organizadores) ISBN 978-85-397-0522-1
EDIPUCRS – 2014.
ENADE Comentado 2009 – Direito Clarice Beatriz da Costa Sohngen, Elton Somensi de
Oliveira e Fabrício Dreyer de Ávila Pozzebon (Organizadores) ISBN 978-85-397-0343-2
EDIPUCRS – 2013.
114
ENADE Comentado 2006 – Direito Elton Somensi de Oliveira e Elias Grossmann (Orgs.)
ISBN 978-85-7430-904-0 EDIPUCRS – 2009.
FELDMANN, T.; SOUZA, O. DE; HEINZLE, M. R. S. As posições-sujeito (Estado e
gestores) diante das avaliações em larga escala no Ensino Superior brasileiro. Praxis
Educativa, v. 11, n. 3, p. 605–620, 2016.
FERNANDES, D. (2005). Avaliação das Aprendizagens: Desafios às Teorias, Práticas e
Políticas. Cacém: Texto Editores.
______. Avaliar para aprender: fundamentos, práticas e políticas – São Paulo: Editora
Unesp, 2009.
FIRME, T.P.; LETICHEVSKY, A.C.. O Desenvolvimento da Capacidade de Avaliação no
Século XXI: enfrentando o desafio através da Meta-Avaliação. Revista Meta: Avaliação,
[S.l.], v. 2, n. 5, p. 180-195, may 2010. ISSN 2175-2753. Disponível em:
<http://revistas.cesgranrio.org.br/index.php/metaavaliacao/article/view/79>. Acesso em: 19
mar. 2018. doi:http://dx.doi.org/10.22347/2175-2753v2i5.79.
GENTIL, P.A.B.; BILCHE, A.P.L.; SAMOGIN, J.M.S. Ensino Jurídico e Exame da
OAB. In XVII Congresso Nacional do CONPEDI, 17., 2008, Brasília. Anais...
Florianópolis: Fundação Boiteux, 2008. Disponível em: Acesso em: 24 mar. 2018.
GODOY, A. S. Pesquisa Qualitativa - Tipos Fundamentais. Revista de Administração de
Empresas, v. 35, n. 3, p. 20–29, 1995.
GOERGEN, P. Educação superior entre formação e performance. Avaliação
(Campinas), Sorocaba , v. 13, n. 3, p. 809-815, Nov. 2008 . Available from
<http://www.scielo.br/scielo.php?script=sci_arttext&pid=S1414-
40772008000300010&lng=en&nrm=iso>. access
on 19 Mar. 2018. http://dx.doi.org/10.1590/S1414-40772008000300010.
GONÇALVES, L.F.A. A autoavaliação na Universidade de Brasília: entre a proposta do
Sinaes e os sinais da prática. 2016. 247 f., il. Dissertação (Mestrado em Educação) –
Universidade de Brasília, Brasília, 2016.
GRONLUND, N. A elaboração de testes de aproveitamento escolar. Trad.Erb Luís Lente
Cruz. São Paulo, EPU, 1974.
HADJI, C.. Avaliação Desmistificada/Charles Hadji; trad. Patrícia C. Ramos. Porto Alegre:
Artmed Editora, 2001.
INEP. SINAES: Sistema Nacional de Avaliação da Educação Superior: da concepção à
regulamentação. Brasília, DF, 2004.
LACERDA, L.L.V. de; FERRI, C.. Conceito preliminar de curso: conceito único para uma
realidade educacional múltipla. Est. Aval. Educ., São Paulo, v. 28, n. 69, set. 2017
. Disponível em <http://educa.fcc.org.br/scielo.php?script=sci_arttext&pid=S0103-
68312017000300748&lng=pt&nrm=iso>. acessos
em 30 abr. 2018. http://dx.doi.org/10.18222/eae.v28i69.3970.
115
LEITAO, T.; MORICONI, G.; ABRAO, M.; SILVA, D.. Uma análise acerca do boicote dos
estudantes aos exames de avaliação da educação superior. Rev. Bras. Educ., Rio de Janeiro
, v. 15, n. 43, p. 21-44, Apr. 2010 . Available from
<http://www.scielo.br/scielo.php?script=sci_arttext&pid=S1413-
24782010000100003&lng=en&nrm=iso>. access
on 15 May 2018. http://dx.doi.org/10.1590/S1413-24782010000100003.
LETICHEVSKY, A.C. et al . La Categoría precisión en la meta-evaluación: aspectos
prácticos y teóricos en un nuevo enfoque. Ensaio: aval.pol.públ.Educ., Rio de Janeiro , v.
13, n. 47, p. 255-268, Jan. 2005 . Available from
<http://www.scielo.br/scielo.php?script=sci_arttext&pid=S0104-
40362005000200008&lng=en&nrm=iso>. access
on 19 Mar. 2018. http://dx.doi.org/10.1590/S0104-40362005000200008.
LUCKESI, C.C.. Filosofia da Educação. São Paulo: Cortez, 1994. – (Coleção magistério 2°
grau. Série formação do professor).
LUDKE, H.. O que vale em avaliação. Revista Educação e Seleção, São Paulo, v.9, p.27-
36, jan./jun.1984. Disponível em
http://publicacoes.fcc.org.br/ojs/index.php/edusel/article/view/2563. Acessado em 23 fev.
2017.
MACIEL, W. O.; MATUMOTO, F. G. V. O papel das instituições de educação superior
diante das “provas” para o ingresso em categorias profissionais. Akrópólis, Umuarama,
v. 16, n. 2, p. 115-120, abr./jun. 2008.
Manual: Construindo o Teste Escrito. Questões Práticas para Ciências Básicas e Clínicas –
National Board PF Medical Examiners – NBME. 3750, Market Street. Philadelphia, PA
19104. Organizadores: Dr. Miguel A. Paniagua Drª Kimberly A. Swygert, Dez 2016.
MARTINS, C.B.. A Reforma Universitária de 1968 e a abertura para o Ensino Superior
Privado no Brasil. Educ. Soc., Campinas, v. 30, n. 106, p.15-35, jan./abr. 2009.
OLIVEIRA, A.L.S. de. Avaliação Psicométrica Da Medida Do Componente De
Formação Geral Da Prova Do Exame Nacional De Desempenho De Estudantes (Enade)
De 2010, 2011 E 2012. Dissertação de Mestrado, Florianópolis, 2017.
OLIVEIRA, J.F. de; FONSECA, M.; AMARAL, N.C.. Avaliação, desenvolvimento
institucional e qualidade do trabalho acadêmico. Educar, Curitiba, n. 28, p. 71-87, jul/dez.
2006. Disponível em: <http://www.scielo.br/pdf/ er/n28/a06n28.pdf>. Acesso em: 9 maio
2018.
OTRANTO, C.R.. A Reforma da Educação Superior do Governo Lula: da inspiração à
implantação. In: SILVA JUNIOR, João dos Reis; OLIVEIRA, João Ferreira de;
MANCEBO, Deise (Org.). Reforma Universitária: dimensões e perspectivas. Campinas:
Alínea, 2006. Cap. 3. p. 43-58.
PANIAGUA, M.A.; SWYGERT, K.A. (ed.). Manual Construindo o Teste Escrito.
Questões para ciências Básicas Clínicas. Philadelphia: National Board of Medical
Examiners, 2016.
116
PASQUALI, L. Psicometria: teoria dos testes na psicologia e na educação, Petrópolis,
RJ: Vozes, 2013.
PASQUALI, L. Psicometria. Revista da Escola de Enfermagem da USP, São Paulo, v. 43,
p. 992-999, dec. 2009. ISSN 1980-220X. Disponível em:
<https://www.revistas.usp.br/reeusp/article/view/40416>. Acesso em: 09 mai. 2017.
doi:http://dx.doi.org/10.1590/S0080-62342009000500002.
_____. Psicometria: teoria dos testes na psicologia e na educação, Petrópolis, RJ: Vozes,
2013.
_____. Teoria e métodos da medida em ciência do comportamento, Brasília: Laboratório
de pesquisa em avaliação e medida/ Instituto de Psicologia UNP: Inep, 1996.
_____. Psicometria: teoria e aplicações: a teoria clássica dos testes psicológicos. Brasília,
DF: Editora da Universidade de Brasília, 1997.
PERRENOUD, P. H. Avaliação: da excelência à regulação das aprendizagens – entre
duas lógicas. Tradução de Patrícia Chittoni Ramos. Porto Alegre: Artes Médicas Sul, 1999.
_____. La construcción del êxito y del fracaso escolar. Hacia un análisis del êxito, del
fracaso y de las desigualdades como realidades construídas por el sistema escolar. Madri,
Morata/Paideia. (1991).
_____. “Pour une approche pragmstique de l’évaluation formative”. Mesure et evaluation in
education, 13 (4), 1991 – p. 49-81.
_____. Sucesso na escola: só o currículo, nada mais que o currículo!.Caderno de
Pesquisa., São Paulo, n. 119, p. 09-27, 2003 . Disponível em
<http://www.scielo.br/scielo.php?script=sci_arttext&pid=S0100-
15742003000200001&lng=en&nrm=iso>. Acessado
em 11 Sept. 2017. http://dx.doi.org/10.1590/S0100-15742003000200001.
POLIDORI, M. M. et al. Políticas de Avaliação da Educação Superior Brasileira. Educação
& Realidade, v. 36, n. 1, p. 253–278, 2011.
PORTNEY, L.G.;WATKINS, M.P. (1993) Foundations of Clinical Research: Applications
to Practice. Appleton & Lange, Connecticut.
RABELO, M. L. (2013a) Avaliação Educacional: fundamentos, metodologia e
aplicações no contexto brasileiro. Rio de Janeiro: SBM, 2013.
_____. (2013b) Metodologia de Construção de itens para avaliação em larga escala.
Campinas/SP: UNICAMP/ IMECC, 108p Gronlund (1974).
RISTOFF, D. Avaliação de Programas Educacionais (2000)
http://periodicos.uniso.br/ojs/index.php/avaliacao/article/view/1124. Acesso em 9 maio
2018.
RISTOFF, D. LIMANA, A.; BRITO, M.R.F. de B.. (Org.). Enade: perspectiva de avaliação
dinâmica e análise de mudanças. Brasília: INEP, 2006. 222p. (Educação superior em debate,
v. 2).
117
RISTOFF, D.I. O Sinaes e seus desafios. Avaliação: Campinas, v. 9, n. 1, p. 179-183, mar.
2004. Disponível em: <http://periodicos.uniso.br/ojs/index.php?journal=
avaliacao&page=article&op=view&path[]=1262&path[]=1252>. Acesso em: 12 abr. 2018.
RODRIGUES, M. M.M. Proposta de Análise de Itens das Provas do Saeb sob a Perspectiva
Pedagógica e a Psicométrica. Estudos em Avaliação Educacional, v.17, n.34, p. 43-75. São
Paulo: FCC, 2006.
SCHWARTZMAN, S. O enigma do ENADE. 2005. Disponível
em: www.schwartzman.org.br/simon/enade.pdf. Acesso em: 23 dez. 2017.
SCRIVEN, M.. Methodolog of Evaluation. In: TYLER, Ralph .; GAGN , R.M.; SCRIVEN,
M.. Perspectives of curriculum evaluation. Chicago: Rand Mcnally, 1967. p. 1-58. (Rand
McNally education series; Monograph series on curriculum evaluation). Disponível em:
<http://www.comp.dit.ie/dgordon/Courses/ILT/ILT0005/TheMethodologyOfEvaluation.pdf
>. Acesso em: 20 nov. 2017.
SILVA, M.V.C. da; FERRAZ, R.R.N.. Aplicação do ENADE como ferramenta para
avaliação do desempenho discente em um curso de Pedagogia. Rev. Elet. Educ., São
Carlos, v. 12, n. 1, abr. 2018 . Disponível em
<http://educa.fcc.org.br/scielo.php?script=sci_arttext&pid=S1982-
71992018000100074&lng=pt&nrm=iso>. acessos
em 01 maio 2018. http://dx.doi.org/10.14244/198271991968.
SILVA, I.F.B.. Educação superior no Brasil e serviço social: uma análise crítico
interpretativa dos processos avaliativos a partir do ENADE. 2017. 116 f., il. Dissertação
(Mestrado em Política Social)— Instituto de Ciências Humanas, Universidade de Brasília,
Brasília, 2017.
SILVA, M.C. de V.M.. Histórias dos testes psicológicos: origens e transformações, São
Paulo: Vetor, 2011.
SOUSA, J.V. de. Avaliação institucional, estratégia de marketing e imagens projetadas pelas
IES: que relação é esta? In: OLIVEIRA, J.F.de; FONSECA, M. (Org.). Avaliação
Institucional: sinais e práticas. São Paulo: Xamã, 2008. p. 77-103.
SOUZA, C. P. Dimensões da avaliação educacional. Estudos em Avaliação Educacional,
2000, 22, 101-118.
STANICH, K.A.B.; SOUSA, C.P. de. Desdobramentos dos relatórios das avaliações em
larga escala. Est. Aval. Educ., São Paulo, v. 27, n. 64, abr. 2016 . Disponível em
<http://educa.fcc.org.br/scielo.php?script=sci_arttext&pid=S0103-
68312016000100188&lng=pt&nrm=iso>. acesso
em 30 abr. 2018. http://dx.doi.org/10.18222/eae.v27i64.3439.
STAKE R. Novos métodos para avaliação de programas educacionais. Universidade de
Brasília. Curso de Especialização em avaliação à distancia. Avaliação de Currículos e de
Programas. Brasília(DF) ;1997. v.3.
STAKE, R.E. Standards-based & responsive evaluation. Thousand Oaks, CA: Sage, 2004.
118
TEIXEIRA, A. (1997). Educação para a democracia. Rio de Janeiro: Ed.UFRJ. (Original
publicado em 1936).
_____. Educação e universidade. In.: FÁVERO, M.de L.A.; BRITTO, J.de M. (Org.).
Anísio Teixeira: educação e universidade. 2. ed. Rio de Janeiro: Editora UFRJ, 2010.
TYLER, R. Avaliando experiências de aprendizagem. In: GOLDBERG.M.A; SOUZA, C.P.
(Org.). Avaliação de programas educacionais: vicissitudes, controvérsias e desafios, São
Paulo: EPU, 1982.
VERHINE, R.E.; FREITAS, A.A. da S.M. de. A avaliação da educação superior::
modalidades e tendências no cenário internacional. Revista Ensino Superior Unicamp,
Campinas, v. 3, n. 7, p.16-39, Não é um mês valido! 2012. Disponível em:
<https://www.revistaensinosuperior.gr.unicamp.br/edicoes/ed07_outubro2012/ARTIGO_PR
INCIPAL.pdf>. Acesso em: 8 jan. 2018.
VERHINE, R. E.; DANTAS, L. M. V.; SOARES, J. F. S. (2006). Do Provão ao ENADE:
uma análise comparativa dos exames nacionais utilizados no Ensino superior Brasileiro.
Ensaio: aval. pol. públ. Educ., Rio de Janeiro, v.14, n.52, p. 291-310, jul./set. 2006.
VIANNA, H.M.. Avaliação Educacional – Teoria – Planejamento – Modelos. São Paulo:
IBRASA, 2000.
_____. Acesso à Universidade: uma reflexão ao longo do tempo. Revista Educação e
Seleção, São Paulo, v.18, p.129-141, 1984. Disponível em http
http://publicacoes.fcc.org.br/ojs/index.php/edusel/article/view/2638. Acessado em 26 mai.
2017.
_____. Testes em Educação. São Paulo: Ibrasa, 1982.
_____. Fundamentos de um programa de avaliação educacional. Brasília: Liber Livro,
2005ª.
_____. Avaliação de programas educacionais: duas questões. Estudos em Avaliação
Educacional, São Paulo: Fundação Carlos Chagas, v. 16, n. 32, p. 43-55, jul./dez. 2005b.
_____. Avaliação educacional: uma perspectiva histórica. Estudos em Avaliação
Educacional. [online]. 2014, vol.25, n.60, pp. 14-35. ISSN 0103-6831.
_____. Introdução à avaliação educacional. São Paulo: IBRASA, 1989.
_____. Testes em Educação. São Paulo: CESCEM, 1976.
_____. Pesquisa em Educação: a observação. Brasília: Plano Editora, 2003.
THORNDIKE, E.L., An introduction to the theory of mental and social measurements. New
York: Since Press. 1904.
WHITE, E, ARMSTRONG, BK, SARACCI, R, eds. Principles of Exposure Measurement
in Epidemiology: Collecting, Evaluating, and Improving Measures of Disease Risk
Factors. 2nd ed. New York: Oxford University Press; 2008:65-95.
119
WORTHEN B., SANDERS J., FITZPATRICK J. Avaliação de Programas: concepções e
práticas – Tradução Dinah de Abreu Azevedo – São Paulo: Editora Gente, 2004.
top related