ambiente virtual de aprendizagem integrado a um …€¦ · ambiente virtual de aprendizagem...
TRANSCRIPT
UNIVERSIDADE CANDIDO MENDES – UCAM PROGRAMA DE PÓS-GRADUAÇÃO EM PESQUISA OPERACIONAL E
INTELIGÊNCIA COMPUTACIONAL CURSO DE MESTRADO EM PESQUISA OPERACIONAL E INTELIGÊNCIA
COMPUTACIONAL
Cleber Lopes Correia
AMBIENTE VIRTUAL DE APRENDIZAGEM INTEGRADO A UM PERSONAGEM 3D
CAMPOS DOS GOYTACAZES, RJ Dezembro de 2013
UNIVERSIDADE CANDIDO MENDES – UCAM PROGRAMA DE PÓS-GRADUAÇÃO EM PESQUISA OPERACIONAL E
INTELIGÊNCIA COMPUTACIONAL CURSO DE MESTRADO EM PESQUISA OPERACIONAL E INTELIGÊNCIA
COMPUTACIONAL
Cleber Lopes Correia
AMBIENTE VIRTUAL DE APRENDIZAGEM INTEGRADO A UM PERSONAGEM 3D
Dissertação apresentada ao Programa de Pós-Graduação em Pesquisa Operacional e Inteligência Computacional, da Universidade Candido Mendes – Campos/RJ, para obtenção do grau de MESTRE EM PESQUISA OPERACIONAL E INTELIGÊNCIA COMPUTACIONAL.
Orientador: Prof. Fermín Alfredo Tang Montané, D.Sc. Coorientadora: Profa. Annabell D.R. Tamariz, D.Sc.
CAMPOS DOS GOYTACAZES, RJ Dezembro de 2013
CLEBER LOPES CORREIA
AMBIENTE VIRTUAL DE APRENDIZAGEM INTEGRADO A UM PERSONAGEM 3D
Dissertação apresentada ao Programa de Pós-Graduação em Pesquisa Operacional e Inteligência Computacional, da Universidade Candido Mendes – Campos/RJ, para obtenção do grau de MESTRE EM PESQUISA OPERACIONAL E INTELIGÊNCIA COMPUTACIONAL.
Aprovada em 15 de dezembro de2013.
BANCA EXAMINADORA
Prof. Fermín Alfredo Tang Montané, D.Sc. Universidade Cândido Mendes
Prof. Annabell del Real Tamariz, D.Sc. Universidade Estadual do Norte Fluminense
Prof. Italo de Oliveira Matias, D.Sc. Universidade Federal do Estado do Rio de Janeiro
Prof. Carlos Eduardo Costa Vieira, D.Sc. Pontifícia Universidade Católica do Rio de Janeiro
CAMPOS DOS GOYTACAZES , RJ 2013
À minha esposa Rose Fonseca pelo apoio e esforço e a minha família pelo carinho e amor.
AGRADECIMENTOS
Eu agradeço primeiro aos meus pais, Sylvio e Augusta, minha mulher , Rose pelo amor e apoio, a minha irmã Carolina pelo carinho e compreensão. À minha avó, Celeste, pela luz e conselhos e à uma pessoa que não está mas entre nós, porém é uma estrela que brilha muito no céu, iluminando os meus passos e decisões, o meu avô Joaquim. Também não posso esquecer do apoio da minha Doné, que reza todos os dias por mim. Além do grande companheirismo dos meus professores Tang e Annabell. Não posso esquecer do meu Deus Ogum, das minhas duas mentoras Cabocla Jurema e a Vovó Cambinda, que são espíritos de luz que iluminam a minha vida e todos os espíritos amigos que me ajudaram nessa missão.
“Você pode Encarar um erro como uma besteira a ser esquecida,
ou como um resultado que aponta uma nova direção".
Steve Jobs
RESUMO
AMBIENTE VIRTUAL DE APRENDIZAGEM INTEGRADO COM AGENTE ANIMADO 3D
A proposta base deste projeto foi criar um sistema AVA (Ambiente Virtual de Aprendizagem), composto por um agente animado (Avatar 3D) e um chatterbot (bate-papo). Nosso foco principal foi buscar comprovações, através dos testes aplicados, das possibilidades de melhora no resultado da performance do usuário durante ações e atividades descritas pelo sistema. Buscamos implantar um diferencial no agente animado, aplicando a forma tridimensional para iniciar o processo de busca da aproximação das reações e expressões humanas. O professor virtual, que interage com o usuário conforme suas perguntas ou respostas na forma textual e animações faciais foi baseado no modelo.Para compor essa relação, buscamos integrar o chatterbot ao sistema, que é o bate-papo entre o agente e o usuário, tornando o ambiente mais amigável e humanizado.Procuramos avaliar os testes aplicados com a ajuda da estatística, analisando tempo e acerto de cada teste. Utilizamos os recursos de distribuição de freqüências, média, Coeficiente de Variação e desvio padrão, e também teste Tukey. Assim iniciamos os estudos para buscar comprovações sobre quando a presença de um agente estimula a melhora da performance do usuário nos resultados do aprendizado.
PALAVRAS-CHAVE: Computação Afetiva; Ambiente Virtual de Aprendizagem (AVA); Avatar 3D; Chatterbot; Animação 3D.
ABSTRACT
VIRTUAL LEARNING ENVIRONMENT WITH INTEGRATED AGENT ANIMATED 3D
The basic proposal of this project was to create a system VLE (Virtual Learning Environment), consisting of an animated agent (Avatar 3D) and chatterbot (chat). Our main focus was to seek evidence through the tests, the possibilities of improvement in the results of user performance during actions and activities described by the system. We seek to establish a differential in the animated agent, applying the three-dimensional shape to start the search process of approximation of human expressions and reactions. The virtual teacher, that interacts with the user as your questions and answers in textual form and facial animations, has been based on the model. To compose this relationship, we seek to integrate the chatterbot system, which is the chat between the agent and the user, making the environment more friendly and humane. We sought to evaluate the tests applied with the help of statistics, analyzing time and accuracy of each test. We use the frequency distribution, mean, coefficient of variation and standard deviation, as well as Tukey. Thus began studies to seek evidence about when the presence of an agent stimulates the improvement of user performance on learning outcomes.
KEYWORDS: Affective Computing; Virtual Learning Environment (AVA); Avatar 3D; Chatterbot; 3D Animation.
LISTA DE FIGURAS
Figura 1: Interação entre o Usuário e o Sistema
24
Figura 2: Interface do Sistema Eliza
29
Figura 3: Interface Web do Alice
30
Figura 4: Interface do Ambiente da Adele
31
Figura 5: Interface do Ambiente do Vincent
32
Figura 6: Interface do Ambiente do Herman
32
Figura 7: Interface do Ambiente do Econ
33
Figura 8: Interface do Ambiente do Cal
33
Figura 9: Agente e Interface do Ambiente do AVA da UFSM
34
Figura 10: Interface do Ambiente do Steve
34
Figura 11: Interface do Ambiente do Cosmo
35
Figura 12: Interface do Ambiente do APA da PUCRS
35
Figura 13: Interface do Ambiente do Doris 3D
36
Figura 14: Interface do Ambiente do Cyberporty
36
Figura 15: Personagens do AVA da UFGA
37
Figura 16: Personagens do AVA da UFGD
38
Figura 17: Script C#
40
Figura 18: Script do Phyton
41
Figura 19: Script do A/ML
41
Figura 20: Wireframe do Login do AVA
43
Figura 21: Wireframe da Tela do Teste sem Avatar
43
Figura 22: Wireframe com Avatar 3D
44
Figura 23: Tela de Encerramento do Sistema AVA
44
Figura 24: Janela de Login
45
Figura 25: Janela de Opções de Teste
45
Figura 26: Janela de Questionário sem Avatar 3D
46
Figura 27: Janela de Questionário com Avatar 3D
46
Figura 28: Janela de Encerramento do Sistema
47
Figura 29: Fluxo de Navegação pelo Sistema
48
Figura 30: Interatividade do Chat (1) e Personagem (2)
48
Figura 31: Design realístico do Personagem
51
Figura 32: Modelo do Rosto
54
Figura 33: Modelo Facial resultado final
55
Figura 34: Gráfico com a Média de Tempo entre Experimentos
62
Figura 35: Gráfico dos Experimentos do Laboratório Lab 1
64
Figura 36: Gráfico dos Experimentos do Laboratório Lab 2
64
Figura 37: Gráfico dos Experimentos do Laboratório Lab 3
65
Figura 38: Gráfico dos Experimentos do Laboratório Lab 4
65
LISTA DE FIGURAS
Tabela 1: Representações Ilustrativas das Emoções Posistivas
52
Tabela 2: Representações Ilustrativas das Emoções Negativas
53
Tabela 3: Representações das Emoções Positivas
55
Tabela 4: Representações das Emoções Negativas
57
Tabela 5: Estatística Descritiva
62
Tabela 6: Teste de Tukey
63
Tabela 7: Agrupamentos dos Laboratórios
66
LISTA DE ABREVIATURA E SIGLAS EAD - Educação a Distância
CA - Computação Afetiva
IHC - Interação Humano - Maquina
IA - Inteligência Artificial
AIML - Artificial Intelligence Markup Language
CETAM EAD - Centro de Educação Tecnológica do Amazonas
ESPA - Experimento sem uso de personagem animado
EGE1 - Experimento com uso de personagem animado e grupo emocional 1
EGE2 - Experimento com uso de personagem animado e grupo emocional 2
EGE3 - Experimento com uso de personagem animado e grupo emocional 3
FAETERJ - Fundação de Apoio à Escola Técnica do Estado do Rio de Janeiro
XML - eXtensible Markup Language
SUMÁRIO
1: INTRODUÇÃO
15
1.1 CONTEXTUALIZAÇÃO DO PROBLEMA
16
1.2 OBJETIVOS
17
1.2.1 Objetivo Geral
17
1.2.2 Objetivos Específicos
17
1.3 RELEVÂNCIA
18
1.4 CONTRIBUIÇÕES
18
1.5 METODOLOGIA
19
1.6 ESTRUTURA DA DISSERTAÇÃO
20
2: PESQUISA BIBLIOGRÁFICA
22
2.1: COMPUTAÇÃO AFETIVA
22
2.1.1: Síntese de Emoções
23
2.1.2: IHC: Interação Humano-Computador
23
2.2: AVA: AMBIENTES VIRTUAIS DE APRENDIZAGEM
24
2.3: ANIMAÇÃO
24
2.3.1: Técnicas de Animação Computacional
25
2.4: PERSONAGENS 3D
26
2.5: CHATTERBOT
27
2.6: AGENTE PEDAGÓGICO ANIMADO
27
2.7: TRABALHOS RELACIONADOS
28
2.7.1: Diferença entre Chatterbot e Agente Pedagógico Animado
29
2.7.2: Exemplos de Chatterbots
29
2.7.3: Exemplos de Agentes Pedagógicos Animados
31
2.7.3.1: Exemplos de Agentes Pedagógicos Animados Bidimensional
31
2.7.3.2: Exemplos de Agentes Pedagógicos Animados Tridimensional
34
3: DESENVOLVIMENTO DO AMBIENTE VIRTUAL DE APRENDIZADO
39
3.1: AVA
40
3.2: TECNOLOGIAS APLICADAS
42
3.3: INTERFACE
42
3.3.1: Projeto da Interface: Wireframes
42
3.3.2: Projeto do AVA
45
3.3.3: Navegação
47
3.3.4: Interatividade
48
3.4: AVATAR 3D: PROFESSOR VIRTUAL
49
3.4.1: Arte Conceitual
50
3.4.1.1: Design Realístico do Professor Virtual
50
3.4.1.2: Design das Emoções
51
3.4.2: Modelagem Digital
53
3.4.3: Textura e Iluminação
54
3.4.4: Animação Facial
55
3.5: FORMAÇÃO DE GRUPOS EMOCIONAIS
58
4: EXPERIMENTO COMPUTACIONAL
59
4.1: DESCRIÇÃO DO CONJUNTO DE TESTES
59
4.2: RESULTADOS OBTIDOS
60
4.3: ANÁLISES ESTATÍSTICAS
61
4.3.1: Grupo de Dados: Tempo Médio por Experimento
61
4.3.2: Grupo de Dados: Acerto dos Experimentos por Laboratórios
63
4.4: INTERPRETAÇÃO DOS RESULTADOS
66
4.5 OPORTUNIDADES DE MELHORIAS
67
5: CONSIDERAÇÕES FINAIS
68
5.1: CONCLUSÕES
68
5.2: PROPOSTA DE TRABALHOS FUTUROS
69
6: REFERENCIAS BIBLIOGRÁFICAS
70
APÊNDICE A: LINGUAGEM DE PROGRAMAÇÃO: SCRIPT
74
APÊNDICE B: QUADRO 1: ALUNO
76
APÊNDICE C: QUADRO 2: QUESTÕES
79
1. INTRODUÇÃO A Educação a Distância (EAD) é um dos pilares da educação atual crescente
em todo o mundo, caracterizada por mediar tecnologias entre aluno e professor
separados por espaço ou tempo, porém presentes em um ambiente presencial de
ensino-aprendizagem. A EAD no Brasil vem crescendo e se destacando, conforme
os dados do censo da educação superior de 2010, que apontam o número de
6.379.299 alunos em 2.377 instituições de ensino superior, que ofereciam na época
29.507 cursos.
Segundo Araujo (2005), a EAD pode ser definida como "uma prática
educativa em que o processo ensino-aprendizagem é midiatizado pelas tecnologias
de comunicação e pelo professor, tutor ou orientador de aprendizagem.” Assim, os
ambientes virtuais de aprendizagem devem ser sistemas computacionais que dão
apoio ao processo de ensino a distância e que se convergem em diversas mídias,
linguagens e recursos.
No processo de estudo e desenvolvimento de novas formas para evoluir a
relação homem-máquina em experiências de EAD, cada vez mais pesquisadores
vêm considerando o que denominam "Computação Afetiva" (CA) como parceiro
tecnológico que é trabalhado junto a processos pedagógicos, a fim de enriquecer a
experiência de aprendizado a distância e evoluir a qualidade do ensino.
Segundo Picard (1997) a Computação Afetiva (CA) pode ser definida como a
computação que está relacionada com emoções, que surge de emoções ou
deliberadamente influencia emoções.
Apesar de ser uma área de tecnologia ligada à informática, para desenvolver
a CA é necessário buscar conhecimento nas áreas da Educação, Psicologia,
16
Sociologia e, principalmente, Inteligência Artificial, buscando montar um conjunto de
conhecimentos que unidos darão forma e ferramentas para compor um diálogo do
usuário com a máquina, passando esta a interagir de acordo com as atitudes e
resultados que são demonstrados neste relacionamento. Segundo Nunes (2010),
"acredita-se que permitindo que agentes artificiais expressem fisiológica e
verbalmente uma emoção, numa interação humano-computador, é possível induzir e
despertar emoções em humanos".
1.1 CONTEXTUALIZAÇÃO DO PROBLEMA A contextualização para esse trabalho veio da observação da relação entre
aluno e professor em plataformas de ensino, como no EAD. Partiu-se do princípio
que o professor deve ter como atributos competência em sua área de atuação e
facilidade em se fazer entender pelo aluno utilizando os recursos técnicos e
psicopedagógicos disponíveis. Porém, a docência nesses ambientes virtuais de
aprendizagem traz uma modalidade diferente para o acadêmico: a ausência física.
A forma de ensino e aprendizagem é diferente do mundo real, onde acontece uma
relação interpessoal entre aluno e professor. Jaques e Lehmann (2008) destacam
que “o sistema precisa se adaptar afetivamente ao aluno, reconhecendo as suas
emoções”.
No mundo virtual, o professor é um tutor, que constrói o conhecimento com
ferramentais audiovisuais; as salas de aulas são ambientes multimídias, o aluno
torna-se um usuário. Observando as plataformas de ensino, nota-se que elas
precisam ser mais afetivas para integrar o processo de ensino-aprendizado; o aluno
tem que estar motivado para utilizar a plataforma de ensino e o professor tutor
precisa ter uma relação emocional com o aluno.
Jaques (2008) afirma ainda que “para esses ambientes transmitirem emoção
precisam estar integrados com os agentes pedagógicos animados”. Estes agentes
pedagógicos são construídos através de determinados softwares, pensados para
integrar um papel pedagógico de facilitação e aperfeiçoamento da aprendizagem do
aluno - são representados nesse caso por um personagem animado com emoções
de acordo com a integração com o usuário.
17
A lacuna encontrada para a pesquisa desse projeto veio da busca de
humanizar o personagem animado. Os agentes animados encontrados na literatura
são avatares, que usam tecnologia de animação 2D, foto seqüência, entre outras.
Foram encontrado poucos casos do uso das tecnologias de animação 3D,
abordando a criação do Ambiente Virtual de Aprendizagem (AVA) e do Agente
Pedagógico Animado (APA).
1.2 OBJETIVOS 1.2.1. Objetivo Geral Como objetivo deste trabalho, existem alguns desafios em sequência: criar o
Ambiente Virtual de Aprendizagem (AVA), que é basicamente a mídia para o
aprendizado. O sucesso deste processo dependerá de uma série de fatores que
foram estudados para a construção desta ferramenta.
Acredito que as pesquisas em desenvolvimento sobre a implementação de
agentes pedagógicos animados ainda têm bastante campo para crescimento, por
isso o foco deste trabalho é a criação e desenvolvimento de um AVA que possui um
tutor animado (agente/personagem) também proposto e desenvolvido, de acordo
com as premissas da Computação Afetiva e de seus estudos sobre a influência no
comportamento do usuário quanto a estes agentes.
1.2.2 Objetivos Específicos O objetivo especifico é criar um ambiente virtual de aprendizado, integrado a
um personagem animado, redesenhado e baseado em um avatar 3D, além de criar
e integrar chatterbot (Chat - Bate-Papo) ao uso do mesmo. O personagem 3D possui
uma base emocional referenciado nos agentes pedagógicos animados pesquisados
para esse projeto.
O objetivo da criação do AVA é comprovar se o personagem 3D pode
melhorar a performance do usuário na realização de atividades propostas pelo
sistema. Para realizar essa análise, foi analisado um experimento com o uso do AVA
e do personagem para comprovar o fato citado anteriormente. O experimento será
18
realizado com quatro testes, dividido em duas partes: um teste sem o uso do avatar
e outros três com o uso do mesmo. A análise dos testes dos experimentos vai
comprovar ou não a melhora do desempenho do usuário.
1.3 RELEVÂNCIA
Em pesquisas na literatura sobre as plataformas EAD foram encontrados
alguns projetos com intenções similares à este, contudo com alguns diferenciais. Na
maioria deles, são utilizados agentes conversacionais ou chatterbots (robôs de
conversação), que são sistemas que buscam simular uma conversa através de troca
de mensagem de texto, ou voz, semelhante aos bate-papos virtuais.
Apresentam-se três gerações desta tecnologia do chatterbots, na primeira
geração se destacou o projeto ELIZA (1960), na segunda geração JULIA (1993) e na
terceira geração se destaca ALICE (1995).
Estas gerações apresentam uma interface robótica, limitada de usabilidade e
navegação, pouca interatividade, e os agentes demonstram uma capacidade
limitada à reações e emoções.
Estudos preliminares apresentam AVA com agentes afetivos e que
expressem um pouco de emoção, em formas de tutores ou guias de sistemas ou
interface de aplicativos, de modo geral, utilizando interfaces mais atrativas e afetivas
para o usuário; exemplos desses projetos são Steve, Cosmo, Herman e CyberPoty.
Esses ambientes virtuais de aprendizagem descrevem agentes com reações
e emoções, porém muitos deles são guias de sites, sistemas ou aplicativos, e não
são muito encontrados em ambientes EAD. Seus sistemas de expressões emociais
são muito primitivos e variam por interfaces gráficas 2D, foto-sequência e 3D.
1.4. CONTRIBUIÇÕES Com o presente crescimento dos ambientes EAD no Brasil e no mundo, e a
criação de novas ferramentas educacionais que estão surgindo a cada dia, percebi
que a tendência tecnológica é associar a modernidade das tecnologias à era da
personalização dos AVA e dos personagens animados.
19
Isto aliado a estudos efetivos de como um software pode se adequar às
necessidades de cada indivíduo, demostrando através de estudos de caso de áreas
similares e aplicando à educação, humanizando o ambiente, ampliando o processo
de animação do agente, melhorando as expressões humanas e afetivas, através de
técnicas de animação 3D e estendendo as melhoras com ferramentas de criação de
games para qualificar a interface gráfica.
O presente trabalho se justifica pois demostra que os ambientes virtuais de
aprendizagem, e seus agentes, ainda precisam evoluir para uma relação entre
homem e máquina que integre usuário a ambientes.
1.5 METODOLOGIA Esta pesquisa se baseia, fundamentalmente, na relação homem-computador,
quando passa a ser menos mecânica e robótica tornando-se mais humanizada
através dos estudos que aplicam a computação afetiva, buscando tornar a relação
entre os usuários e os sistemas mais emotiva. A proposta aqui é o desenvolvimento
de um Ambiente Virtual de Aprendizado (AVA) composto por um personagem
pedagógico animado 3D que será criado para interagir com o usuário do AVA,
estimulado por um protótipo baseado em experimentação computacional.
A tecnologia que utilizamos no desenvolvimento do ambiente virtual assim
como do personagem animado baseia-se em software de animação 3D (3D Max e
Maya), criação de games (Unity Pro) e linguagem de Programação Python 2.7, C# e
AIML. De forma resumida, podemos dizer que a programação AIML é uma
ferramenta de marcação especializada para aplicações em inteligência artificial, que
"humaniza" o chatterbot de forma a aproximar ao máximo a impressão de estar
falando com outro humano.
Baseando-se nestes parâmetros, a metodologia para esse trabalho
acadêmico vai ser dividida em três etapas: a primeira será a pesquisa bibliográfica; a
segunda será a criação e desenvolvimento da interface gráfica do ambiente virtual e
do personagem 3D e a terceira é a criação do experimento computacional e análise
de resultados.
A pesquisa bibliográfica abordou os seguintes temas: computação afetiva,
AVA (Ambientes Virtuais de Aprendizagem), animação, criação de personagem 3D,
20
chatterbot, agente pedagógico animado. A criação do AVA vai ser baseada no
experimento computacional. A criação do personagem 3D o caracterizou como um
professor virtual; a técnica de modelagem aplicada foi a box-model, baseada em box
tridimensional que é “deformado” até chegar à forma do modelo 3D, e o processo de
animação foi referenciado em animação comportamental - o animador descreve um
conjunto de regras para a maneira como um ou mais objetos da cena reagirão com o
ambiente.
A formulação do experimento computacional foi realizada no sistema do AVA,
gerando quatro testes para analisar o desempenho do usuário. Os testes foram
elaborados em forma de provas com 20 questões cada, sobre o assunto banco de
dados. O experimento foi feito com um grupo de 100 alunos da instituição Superior
de Ensino da Faculdade de Educação Tecnológica do Estado do Rio de Janeiro
Campus Paracambi (FAETERJ).
Esse experimento teve como objetivo medir a performance do usuário com o
auxilio do avatar na realização dos testes. A medição do desempenho nos testes vai
ser feita de forma estatística, analisando tempo e acerto de cada teste. A validação
dos dados foi feita usando estatística descritiva (média, coeficiente de variação,
desvio padrão) e comparação múltipla com teste tukey. Assim provamos que a
presença do personagem melhora a performance do usuário, através de estímulos
emocionais e textuais.
1.6 ESTRUTURA DA DISSERTAÇÃO A dissertação possui cinco capítulos: Capítulo 1: Introdução, Capítulo 2:
Pesquisa Bibliográfica, Capitulo 3: Desenvolvimento do Ambiente Virtual de
Aprendizado, Capítulo 4: Experimento Computacional e Capítulo 5: Conclusão.
Possui uma estrutura dividida em duas partes: os Capítulos 1 e 2 apresentam a
estrutura da dissertação e base de pesquisa bibliográfica, e os Capítulos 3, 4 e 5,
destacam a criação e desenvolvimento do experimento (AVA e Personagem
Pedagógico Animado) da dissertação.
O Capítulo 1 aborda a estrutura do projeto, destacando os pontos de
introdução, problemas relevantes da dissertação, objetivo, metodologia, etc. O
Capítulo 2 é o capitulo do estado da arte, sobre os temas relevantes à dissertação,
21
focando na pesquisa bibliográfica. O Capítulo 3 aborda a criação do AVA e do
personagem 3D.
O Capitulo 4 descreve o experimento computacional, apresentando o seu
conjunto de testes, resultados obtidos, interpretação dos resultados e oportunidades
de melhorias e o Capítulo 5 descreve a conclusão do trabalho e estudos futuros.
2 PESQUISA BIBLIOGRÁFICA Nesse capítulo são apresentadas as pesquisas bibliográficas realizadas, com
as definições de computação afetiva, AVA (Ambientes Virtuais de Aprendizagem),
animação, criação de personagem 3D, chatterbot , agente pedagógico animado e
trabalhos relacionados.
2.1 COMPUTAÇÃO AFETIVA A definição de computação afetiva se caracteriza no campo científico da
informática, descrevendo a integração humana junto à máquina (computador) em
uma relação emocional e afetiva. Conforme destaca Picard (1997), a Computação
Afetiva (CA) pode ser definida como a computação que está relacionada com
emoções, que surge de emoções ou deliberadamente influencia emoções. A CA é
uma área interdisciplinar que utiliza campos do conhecimento da Educação,
Psicologia, Sociologia, Inteligência Artificial (IA), dentre outros.
23
A pesquisa no campo da Computação Afetiva constrói ferramentas capazes de
relacionar o homem e o computador, a dialogar com o meio (computador) de
maneira humanizada e emocional, criando situações computacionais afetivas. Picard
(1999) e Santos (2009) afirmam que, se máquinas tivessem habilidades emocionais
seria possível construir robôs e objetos sintéticos capazes de emular a vida humana
e animal. Segundo Picard (1999), CA se divide em duas áreas de pesquisa
importante: Síntese de Emoções e Interação Humano-Computador (IHC).
1. Síntese de Emoções - Simulação de emoções em computadores e síntese de
emoções artificiais no mesmo.
2. Interação Humano-Computador (IHC) - se dedica ao projeto e construção de
interfaces para aplicações em dispositivos computacionais que considerem as
emoções e outros aspectos afetivos na comunicação com o usuário.
2.1.1 Síntese de Emoções A síntese de emoções é um campo da computação afetiva que pesquisa o
desenvolvimento de simulação emocional em computadores e grupos artificiais de
emoção para o mesmo. Segundo Picard (1997), alguns exemplos de trabalhos no
ramo de síntese de Emoções são: à proposição de arquiteturas cognitivas e afetivas
para agentes artificiais e a aplicação de técnicas de IA para simulação emocional.
2.1.2 IHC: Interação Humano-Computador A IHC também conhecida como interação homem-computador é o estudo da
relação de interação entre o ser humano e o computador. Essa área de estudo é
interdisciplinar e relaciona várias áreas da ciência, como ciência da computação,
artes, design, ergonomia, psicologia, sociologia, semiótica, lingüística e áreas afins.
Segundo Prates (2007) o estudo da IHC é discutido em várias áreas da
ciência por universidades e instituições de ensino. Os primeiros estudos sobre o
tema foram realizados no final da década de 70 e início dos anos 80 nos EUA. A
interação entre homem e computador acontece através da interface (software) do
usuário com o uso do computador; é uma integração entre software e hardware.
Essa integração é apresentada na Figura 1.
24
Figura 1: Interação entre usuário e sistema Fonte: Prates (2007)
2.2 AVA : AMBIENTES VIRTUAIS DE APRENDIZAGEM Os AVAs são plataformas de ensino que utilizam a Internet ou outros meios
de comunicação para integrar o conteúdo e permitir a interação entre aluno e
professor.
O processo educacional que envolve os ambientes virtuais de aprendizagem
depende da qualidade do processo educativo, depende do envolvimento do
aprendiz, da proposta pedagógica, dos materiais veiculados, da estrutura e
qualidade de professores, tutores, monitores e equipe técnica, assim como das
ferramentas e recursos tecnológicos utilizados no ambiente.
Segundo Machado (2010), na literatura os AVAs são frequentemente
chamados de Plataformas de Gestão da Aprendizagem, ou Plataformas de
ELearning, ou Learning Management Systems (LMS), dentre outras nomenclaturas.
A definição de Pereira, Schmitt e Dias (2010) descreve o AVA como uma
opção de mídia que está sendo utilizada para mediar o processo ensino-
aprendizagem a distância. Nos últimos anos, os AVAs estão sendo cada vez mais
utilizados no âmbito acadêmico e corporativo como uma opção tecnológica para
atender esta demanda educacional.
2.3 ANIMAÇÃO O conceito de animação é a formação da ilusão através da composição em
imagens sequenciais, formando o filme ou vídeo. Segundo Chong (2011) o princípio
básico da animação pode ser definido como “um processo que cria a ilusão de
25
movimento para um público por meio da apresentação de imagens seqüenciais em
rápida sucessão”. Cardoso (2011) destaca que o termo animação vem do latim
"animare", que tem o significado de dar vida, movimento, coragem.
Azevedo (2003) descrevem a animação como um processo de desenhar ou
esculpir, depois capturar os movimentos do mundo e, por último, retratar o espírito
da criatura ou cena a ser animada.
A animação é um processo de representação gráfica (desenho, fotografia,
etc) sequencial que forma o movimento de cena 2D ou 3D, que cria o filme ou vídeo
referenciado anteriormente, em forma estática.
2.3.1 Técnicas de Animação Computacional Azevedo (2003) destaca as técnicas de animação possíveis de serem feitas
pelo processo computacional:
Animação por quadro-chave (keyframe) - Processo pelo qual a animação é
criada posicionando os objetos nos quadros chaves. Os quadros
intermediários são gerados por interpolação.
Animação por Script - Os sistemas scripting são as formas mais antigas de
controle de movimento e usam linguagem interpretável pelo sistema.
Animação Procedural - É diferente da animação por Script por utilizar
linguagem de programação compilável e por procedimentos. Inclui as
linguagens orientadas a objetos.
Animação Representacional - Técnica que permite um objeto mudar de
forma, se movimentar e andar durante a animação.
Animação Estocástica - forma de animações por sistemas de partículas, que
constituem formas como chuva, fogo, etc.
26
Animação Pose-to-Pose - é caracterizado com uma técnica de animação em
quadros por sequências, que forma a animação.
Animação Comportamental - A animação comportamental ou por
comportamento é aquela em que o animador descreve um conjunto de regras
para a maneira como um ou mais objetos da cena reagirão com o ambiente.
2.4 PERSONAGEM 3D O personagem 3D é um processo a parte na animação tridimensional; o
personagem tem um ciclo de construção para o modelo. Calciolari (2011) e Azevedo
(2005) descrevem que o processo de desenvolvimento começa pela arte conceitual,
modelagem, textura e iluminação, rigging, cabelos e pêlos, animação e render.
Arte Conceitual - A arte conceitual chamada em inglês de concept arts, é a
criação artística e conceitual da forma do futuro personagem, estudando as
formas de anatomia e óssea do modelo conceitual, desenvolvendo um
documento em forma de ilustração, destacando a forma corporal.
Modelagem Digital - A modelagem digital é o processo de construção
tridimensional que idealiza o modelo 3D do personagem a partir do modelo de
imagens bidimensionais. As ferramentas usadas são softwares de
modelagem e escultural digital, como 3D Max, Maya, entre outros.
Textura e Iluminação - Com a composição do modelo pronto, é hora de
personalizar o modelo 3D do personagem, compondo a textura do corpo,
olhos, cabelo e figurino. A iluminação é a técnica que torna possível o
realismo para o personagem.
Rigging - é a montagem do esqueleto de animação que é composto por
ossos (bones) e pelas articulações (joint) que compõem a estrutura de
deformação da malha do modelo.
27
Cabelos e Pêlos - é composição para a geração realista de personagens
humanos ou animais, sendo usado de acordo com cada modelo.
Animação de Personagem - pode ocorrer de forma corporal e facial.
Render - O render é a etapa final do projeto de construção do personagem
3D. O processo de renderização é realizado com um equipamento chamado
renderfam, que é a junção de vários computadores que tornam possível o
processamento das cenas tridimensionais. O processo do render pode
ocorrer em horas ou dias, dependendo da complexidade do projeto 3D.
2.5 CHATTERBOT Os chatterbots são programas de computador desenvolvidos para simular
uma conversação inteligente com um ou mais usuários através da troca de
mensagens de texto, semelhante às salas de bate-papos virtuais; são ambientes
desenvolvidos com o intuito de tornar mais familiar a interação entre o homem e a
máquina.
Laven (1993) destaca que os chatterbots podem manipular uma série de
funções e as versões mais recentes são capazes de ir além das simples caixas de
diálogo. Alguns sistemas possuem animações, usam imagens de pessoas reais.
Outros possuem gestos e expressões para acompanhar certas palavras.
Leonhardt et al. (2006) destacam que o chatterbots é um programa que
procura simular uma conversação inteligente, com o objetivo de levar o interlocutor a
pensar que está falando com outro ser humano. Essa é a possibilidade de se dar a
uma máquina habilidade para interagir com o ser humano, através da compreensão
e simulação do seu comportamento.
2.6 AGENTE PEDAGÓGICO ANIMADO
Um agente pedagógico animado é descrito por Reategui (2006), como um
agente de interface, integrado ao desenvolvimento de sistemas ou aplicativos que
procurem aprimorar a relação entre o homem e a máquina (computador).
28
Quando inseridos em AVAs, estes personagens passam a ser chamados de
agentes pedagógicos, focados em acompanhar o trabalho dos alunos, monitorar o
desenvolvimento das tarefas, identificar dificuldades, trazer dicas, auxiliar na
resolução de problemas, entre outros. Prola (2003) destaca que os agentes
pedagógicos animados são considerados personagens vivos que coabitam o
ambiente de ensino criando uma rica interação na aprendizagem face-a-face com o
aluno. Essa interação explora a comunicação, criando um ambiente de feedback
interativo e dinâmico. Reategui (2006) afirma:
Os agentes pedagógicos animados podem cumprir um papel comunicativo muito importante. Ao assumir uma personalidade interessante e gerar empatia nos alunos, o agente animado introduz um componente afetivo que pode facilitar o processo de aprendizagem.
Prola (2003) identifica que o agente pedagógico animado pode fornecer
feedback não verbal ou feedback verbal para influenciar o aluno. O feedback não
verbal ocorre através de expressões faciais, gestos (linguagem corporal), enquanto
que o feedback verbal se dá através de mensagens.
Hayes-Roth (1998) destaca as características básicas de um agente
pedagógico:
1. Um repertório de comportamentos amplo e diversificado para cobrir todas as
situações que ele poderá encontrar;
2. Diferentes maneiras de executar um determinado comportamento a fim de
que pareça ter qualidades humanas;
3. Comportamentos do ambiente que não distraiam os observadores, mas
mantenham os personagens vivos durante os eventos.
1.
2.7 TRABALHOS RELACIONADOS
Os projetos relacionados ao tema deste projeto estão divididos em dois
grupos: os Chatterbots e os agentes animados bidimensional e tridimensional. Os
projetos similares encontrados são voltados para sistemas, ambientes Web e AVAs,
todos apresentam personagem animado como interlocutor da relação homem
máquina, construindo uma relação afetiva.
29
Também apresentam a evolução das tecnologias aplicadas ao mesmo,
demonstrando a experiência de interação entre o personagem, o ambiente e os
usuários. A forma de apresentação dos trabalhos relacionados estão divididas pelas
gerações dos Chatterbots (primeira, segunda e terceira) e agentes animados.
2.7.1 Diferença entre Chatterbot e Agente Pedagógico Animado Segundo Prola (2003) o chatterbot e o agente pedagógico animado são
agentes conversacionais, porém a sua capacidade de comunicação ou feedback são
diferenciados de forma verbal e não verbal.O chatterbot tem a capacidade de se
comunicar de forma verbal (forma textual) e o agente pedagógico animado tem a
capacidade de comunicação verbal e não verbal (expressões faciais, gestos,
linguagem corporal, etc).
Além disso, o chatterbot pode existir de maneira independente como um único
sistema; já o agente pedagógico animado precisa estar integrado ao AVA para
existir.
2.7.2 Exemplos de Chatterbots
Segundo Barros (2006) o termo “chatterbot” foi cunhado por Michael Mauldin
(1994) e surgiu da junção das palavras chatter, que significa “a pessoa que
conversa”, e bot, abreviatura de “robot” (robô). Apesar de o termo ser relativamente
novo, o desenvolvimento deste tipo de aplicação data de meados da década de
1960. Eliza foi um dos primeiros chatterbots, e hoje é considerada a “mãe” de todos
os chatterbots. A Figura 2 apresenta a interface do sistema Eliza.
Figura 2: Interface do Sistema Eliza Fonte: Barros (2006)
30
O objetivo desse pequeno programa alemão, de apenas 204 linhas de código é
responder as perguntas elaboradas por um ser humano em linguagem natural dando
a impressão de que o bate papo está ocorrendo entre duas pessoas, e não entre
uma pessoa e um computador. Os fundamentos básicos do Eliza são:
1. identificar palavras-chave;
2. encontrar um contexto mínimo;
3. fazer transformações no texto, se necessário;
4. gerar respostas na ausência de palavras-chave;
5. concluir o bate-papo através de “Scripts”.
A partir de 1990, apesar do bom desempenho de Eliza, os cientistas se
encontravam insatisfeitos com os resultados obtidos com as técnicas de casamento
de padrão. Por essa insatisfação, esses pesquisadores começaram a desenvolver
chatterbots usando outras técnicas mais sofisticadas. Um exemplo de chatterbot
dessa geração que conseguiu bons resultados é Julia, escrito por Michael Mauldin
no “Center for Machine Transalation da Canergie-Mellon University.
A mais atual baseia-se em linguagens de marcação de texto. A melhor
representação de linguagem dessa geração é a AIML (Artificial Intelligence Markup
Language) uma linguagem baseada em XML e específica para implementação de
chatterbots e ferramentas de conversação Barros (2006).
A terceira geração de chatterbots é caracterizada pelo sistema Alice, criado
na universidade Lehigh por Richard S. Wallace em 1995. A Figura 3 apresenta a
interface do sistema Alice.
Figura 3 – Interface da Web do Alice
Fonte: Página do site alice1
1 Alicebot, Disponível em <http://www.alicebot.org.> Acessado em 09-12-2012.
31
2.7.3 Exemplos de Agentes Pedagógicos Animados
Nesta seção serão apresentados os agentes pedagógicos animados 2D, que
são Adele, Vincent, Herman, ECom, Cal e APA da UFSM. Os agentes Pedagógicos
3D são Steve, Cosmo, APA da PUCRS, Doris 3D, CyberPoty, APA da UFERSA e
APA da UFGD.
2.7.3.1 Agentes Pedagógicos Animados Bidimensional
Adele - Adele (Agent for Distance Education – Light Edition) é um agente
pedagógico animado com expressões humanas e projetado para ajudar
estudantes do curso de Medicina, na resolução de problemas associada à
disponibilização de material para estudo. Na Figura 4, é apresentada a
interface do ambiente.
Figura 4: Interface do ambiente da Adele
Fonte: Bocca (2003)
Vincent é um agente pedagógico animado para sistemas de ensino-
aprendizagem baseados na Web, ele é um agente autônomo e age sem a
interferência humana ou de outros agentes e não depende do ambiente em
que está embutido. A Figura 5 demonstra a interface com o agente Vicent.
32
Figura 5: Interface do Ambiente do Vincent
Fonte: Bocca (2003)
Herman (o inseto) - Herman (IntelliMedia Project - Universidade da Carolina
do Norte) é um agente pedagógico que habita um ambiente de aprendizado
baseado em domínios de botânica e fisiologia, desenvolvido pela mesma
organização do COSMO. Sua função é auxiliar os usuários a resolver
problemas como desenvolvimento de uma planta ou montagem correta das
suas várias partes. Dado um conjunto de condições ambientais, os usuários
podem graficamente montar plantas que podem sobreviver em ambientes
específicos. A Figura 6 destaca a interface do sistema Herman.
Figura 6: Interface do Ambiente do Herman Fonte: Bocca (2003)
33
ECom - é um software educacional voltado para crianças da primeira e
segunda série do ensino médio, para capacitar o aluno na disciplina Ciências
Biológicas; o conteúdo abordado é “cadeia alimentar”. A função desse
sistema é monitorar as ações de aprendizado dos estudantes durante
atividades propostas pelo uso do mesmo, sendo composto por um agente
pedagógico animado, que é gerenciado pelo professor-tutor. A Figura 7
descreve o agente e a interface do sistema.
Figura 7 - Interface do Ambiente do Econ
Fonte: Rodrigues e Carvalho (2005)
Cal - é um agente pedagógico animado que interage afetivamente com o
aluno auxiliando-o tanto na aprendizagem do AVA, quanto no processo de
ensino-aprendizagem do conteúdo didático. A Figura 8 mostra o agente do
Cal e a interface do sistema.
Figura 8: Interface do Ambiente do Cal
Fonte: Silva e Bernardi (2009)
34
APA da UFSM - é um agente integrado ao EAD da UFSM, que serve para
orientar os alunos dentro do ambiente de ensino-aprendizado da instituição,
utilizando a comunicação de forma textual e animada. A Figura 9 apresenta o
agente e a interface do AVA da UFSM.
Figura 9: Agente e Interface do Ambiente do AVA da UFSM Fonte: Santos (2009)
2.7.3.2 Agentes Pedagógicos Animados Tridimensionais
Steve - O projeto Steve (Soar Training Expert for Virtual Environment) foi
desenvolvido na Universidade do Sul da Califórnia (University of Southern
California – USC), no Behavioral Tecnologies Laboratory, e é um agente
pedagógico autônomo e animado, inserido em um sistema tutor inteligente
construído para auxiliar usuários em cursos de treinamento navais. A Figura
10 destaca a interface do ambiente Steve.
Figura 10: Interface do ambiente Steve Fonte: Bocca (2003)
35
Cosmo - Desenvolvido pela Multimedia Laboratory Departament of
Computer Science North Carolina State University, Cosmo é um agente que
habita um ambiente de aprendizado sobre o roteamento de pacotes no
domínio da Internet, cuja função é demonstrar e aconselhar os usuários em
tempo real. A Figura 11 demonstra a interface do ambiente Cosmo.
Figura 11: Interface do Ambiente do Cosmo
Fonte: Bocca (2003)
APA da PUCRS - o sistema é baseado num bate-papo composto por um
agente conversacional, que interage com o usuário de forma textual e voz. O
sistema reage aos estímulos dos usuários conforme conversa pelo chat. A
Figura 12 destaca a interface do ambiente do APA da PUCRS.
Figura 12: Interface do Ambiente do APA da PUCRS
Fonte: Moraes e Wilkens (2008)
36
Doris 3D - é um sistema educacional voltado para a disciplina de geografia,
para capacitar alunos do ensino médio. É composto por um agente
pedagógico animado chamado Doris 3D, sendo o seu diferencial a base
emocional, auxiliando os estudantes durantes as atividades da disciplinas. A
Figura 13 descreve o personagem e a interface do sistema.
Figura 13: Interface do Ambiente do Doris 3D Fonte: Frozza, Silva, Lux, Cruz e Borin (2009)
CyberPoty - O CyberPoty é um chatterbot criado pelo Centro de Educação
Tecnológica do Amazonas (CETAM EAD), disponível no portal da instituição
para tirar dúvidas dos alunos (usuários). Sua interação ocorre por meio de um
avatar em 3D, que se movimenta e fala com o usuário. Permite ao usuário
ouvir sua voz e visualizar seus movimentos durante a interação. A Figura 14
apresenta a interface do sistema CyberPoty.
Figura 14 - Interface do Ambiente do CyberPoty
Fonte: site do projeto CyberPoty2
2 Cyberpoty, disponível em <http://ead.cetam.am.gov.br/portal/index.php.> Acessado em 10-12-2012.
37
APA da UFERSA - é um agente pedagógico animado integrado a um AVA,
para a resolução de problemas computacionais. O AVA é utilizado na
capacitação dos alunos para a resoluções de problemas de casos, medindo a
capacidade de aprendizados dos estudantes durante o curso. O personagem
interage de forma corporal e facial, indicando acerto ou erro. A Figura 15
destaca os personagem do AVA da UFERSA.
Figura 15 - Personagens do AVA da UFERSA Fonte: Fontes,et al (2012)
APA da UFGD - é um agente pedagógico animado integrado a um AVA,
Moodle, uma plataforma open source, que visa melhorar a relação do usuário
com o sistema. São dois personagens nessa plataforma de ensino, um
masculino e outro feminino, que interagem de forma textual e corporal com os
estudantes. A Figura 16 destaca os agentes do AVA UFGD.
38
Figura 16 - personagens do AVA da UFGD
Fonte: Silva, Couto e Odakura (2012)
3. DESENVOLVIMENTO DO AMBIENTE VIRTUAL DE APRENDIZADO A construção do ambiente virtual de aprendizado foi baseada para criar um
sistema para um experimento, que possa medir a influência do personagem
animado sobre o usuário, visando a possível melhora da performance do mesmo
durante atividades propostas.
O personagem animado foi criado como um modelo tridimensional,
caracterizado como um avatar de um professor virtual. Esse avatar 3D é descrito
como um agente pedagógico animado, que tem como referência principal auxiliar as
ações do usuário durante o uso do sistema. O personagem animado ainda é
composto por uma base emocional, expressada através de animações faciais,
induzidas pela fase do modelo 3D.
O sistema do AVA é composto com quatro experimentos, que são divididos
em duas partes: um experimento foi sem o avatar e os outros três com o uso do
mesmo.
Os grupos emocionais são compostos de 22 emoções divididos em três grupos:
um grupo emocional vai possuir 8 emoções e os outros dois vão possuir 7 emoções
cada uma. A divisão dos grupos emocionais está descrita abaixo:
Grupo Emocional 1 - alegria, angústia, esperança, medo, satisfação,
decepção, alívio e insatisfação;
Grupo Emocional 2 - confirmação, feliz, infeliz, exuberante, pena, orgulho e
vergonha;
Grupo Emocional 3 - admiração, reprovação, amor, ódio, bonificação, gratidão
e raiva.
40
Os experimentos computacionais vão ser melhor explicados no Capítulo 4. O
sistema do AVA ainda é composto por um chatterbot (Chat - bate-papo), que orienta
e tira dúvidas das atividades e ações do usuário em tempo real.
3.1 AVA A elaboração do sistema do AVA foi baseada na formulação dos testes do
experimento. Os testes são divididos em duas partes: o teste sem o avatar e com o
avatar; o que distingue os testes é o uso do avatar com base emocional, divididos
em três testes individuais.
A formulação desses três testes tem como intuito indicar o melhor grupo de
emoções e quais as emoções que se destacaram mais junto aos usuários. A
integração dos grupos emocionais com o sistema foi desenvolvida em linguagem
C#. A interface do sistema foi desenvolvida na engine Unity Pro 4.0. Cada emoção
está associada a uma animação facial do personagem. O script base do C# é
descrito na Figura 17.
Process p = new Process (); p.StartInfo.RedirectStandardError = false; p.StartInfo.CreateNoWindow = true; p.StartInfo.FileName = "cmd"; p.StartInfo.WorkingDirectory ="C:\\Users\\Raposo\\EclipseWorkspace\\Interpretador\\src\\aiml"; p.StartInfo.Arguments = "/c python __init__.py \"" + input + "\""; p.StartInfo.RedirectStandardOutput = true; p.StartInfo.UseShellExecute = false; p.Start (); var temp = ""; StreamReader stdout = p.StandardOutput; while (!stdout.EndOfStream) temp = stdout.ReadLine (); output += state.name + ":" + input + "\n Professor:" + temp + "\n"; input = " "; p.WaitForExit ();
Figura 17 - Script C#
O interpretador AIML roda em um processo separado que executa o script
python através do prompt de comando do Windows e a entrada é passada através
do parâmetro do script. Quando encerrada a execução do script python, a linha de
input é limpa e a de output é emendada com o texto de entrada do aluno, precedido
por seu nome e a saída padrão do script python.
41
O interpretador emocional é baseado em um modelo estatístico, que atribui
probabilidades diferentes a cada emoção dependendo do grupo emocional
selecionado, e leva como parâmetros o desempenho que o usuário tem durante o
questionário e a conversação; as animações do boneco são executadas através de
um script phyton executado no programa Autodesk Maya, que permite adicionar as
outras faces (BlendShapes) com emoções do personagem como metadata (guarda
o modelo de animação) no arquivo importado na Unity Engine, no formato FBX, e
depois interpretado por um script em C#. A Figura 18 demonstra o script do phyton.
k = Kernel() k.loadBrain("AliceBrain.brn") k.setTextEncoding("UTF-8") printk.respond(sys.argv[1]);
Figura 18 - Script do Phyton
O script python inicializa o objeto kernel que é o objeto principal do
interpretador; logo depois carrega as definições do AIML que estão salvas em um
formato compactado e então imprime na tela a resposta do interpretador ao
parâmetro passado ao script.
O chatterbot também é integrado ao sistema, servindo para auxiliar o usuário
durante os testes. A integração do chatterbot com o sistema é dado pelo python que
é chamado através do prompt de comando e recebe como argumento o texto de
entrada do usuário, imprimindo na tela a resposta interpretada.
O cérebro utilizado no interpretador AIML foi retirado do projeto ALICE BOT,
com algumas pequenas modificações de vocabulário. O script base do AIML
(Artificial Intelligence Markup Language) é apresentado na Figura 19.
<category> <pattern>CONECTAR</pattern> <template> <random> <li>Oi! É umprazertervocêaqui</li> <li>Olá</li> <li>E ai?</li> <li>Oi! :)</li> </random> </template> </category> <category>
Figura 19 - Script do AIML
42
3.2 TECNOLOGIAS APLICADAS As tecnologias utilizadas no desenvolvimento do AVA passam pela criação do
personagem do avatar até o processo de programação do sistema. A criação do
personagem 3D foi desenvolvida no software 3D Max 2010 e o modelo emocional no
Maya 2010; os programas são da empresa Autodesk.
A interface gráfica do AVA foi construída no software Photoshop CS5 da
empresa Adobe e Unity 3D Pro 4.0 da empresa Unity Technologies. A linguagem de
programação utilizada foi Python 2.7, C# e AIML, e o compilador usado foi Eclipse
Standard 4.3.
3.3 INTERFACE A interface do AVA foi pensada para a orientação dos experimentos com o
avatar e sem ele. Foi relacionada a navegação entre as telas do sistema, passando
pela tela inicial de login até a tela de encerramento do questionário, focando no
processo de interatividade do avatar com o usuário.
3.3.1 Projeto da Interface: Wireframes A construção das telas tem como intuito demonstrar o processo de navegação
ao usuário junto aos experimentos computacionais. As telas indicam o esqueleto do
sistema também chamado de wireframe. O primeiro wireframe apresenta a tela de
login. O usuário loga com o seu nome ou apelido, escolhe o teste a ser realizado e
depois confirma, como demonstrado na Figura 20.
43
Figura 20 - Wireframe do Login do AVA
O segundo wireframe demonstra a tela de teste sem o avatar, que é
composta pelo chatterbot, que é a forma de simulação de conversa via texto entre o
usuário e o sistema. O outro ponto importante dessa tela é a janela com a posição
da questão e suas opções de resposta, sendo monitorada pelo cronômetro. A Figura
21 apresenta o wireframe da tela do teste sem o avatar.
Figura 21 - Wireframe da tela do teste Sem Avatar
44
O terceiro wireframe destaca a tela com o uso do avatar, que também é
composto pela simulação do chatterbot e pela janela da questão com as opções de
resposta. A Figura 22 apresenta a tela com o avatar.
Figura 22 - Wireframe da interface com o Avatar 3D
À medida que o usuário responde a uma questão, uma nova janela do tipo
questionário-resposta é apresentada com uma nova questão selecionada do banco
de questões. A navegação prossegue até que o usuário responda as 20 questões do
questionário.
Neste ponto, apresenta-se a janela de encerramento que apresenta o número
de acertos obtidos. A Figura 23 demonstra a tela de encerramento do sistema.
Figura 23 - Tela de encerramento do sistema AVA.
45
3.3.2 Interface do AVA A interface do AVA demonstra o fluxo de telas que o usuário vai passar para
poder acessar os teste e realizar o experimento proposto. A primeira tela é a login, o
usuário digita o seu nome ou apelido, se identificando no sistema. A Figura 24
apresenta a tela de login do sistema.
Figura 24 - Janela de Login
Nessa mesma tela o usuário escolhe o teste que deseja fazer no menu de
opções. As opções dos testes são: sem avatar, grupo emocional 1, grupo emocional
2 e grupo emocional 3. Depois o usuário confirma teclando no login, assim passando
para tela seguinte. A Figura 25 demonstra o menu com as opções propostas.
Figura 25 – Janela de Opções de Teste
Depois que o usuário opta pelo teste que pretende fazer, passa para a tela
seguinte, que já é composta pelo chatterbot do professor virtual, pela primeira
46
questão do questionário e um cronômetro para medir o tempo do teste. Há telas
com e sem o avatar. O teste sem o avatar tem um retângulo cinza para diferenciar
os testes. A Figura 26 descreve a tela do teste sem o avatar.
Figura 26 – Janela de questionário sem avatar 3D
Quando o usuário opta pelo teste com o avatar, a interface segue os mesmos
princípios que a anterior, porém o que muda é a entrada do avatar (personagem
animado) na interface. As diferenças desses testes são os grupos emocionais, que
estão embutidos no agente pedagógico animado. A Figura 27 destaca a janela com
o questionário com avatar 3D.
Figura 27 – Janela de questionário com avatar 3D
47
Conforme citado anteriormente, o usuário responde as perguntas propostas
pelo banco de questões, gerando uma janela para cada questão. Os usuários
respondem 20 questões, chegando a última tela, que apresenta os resultados e
indica o fim do encerramento do sistema. A Figura 28 descreve a última tela do
sistema.
Figura 28 - Tela de encerramento do sistema.
3.3.3 Navegação O AVA compreende quatro tipos de janelas: 1) login, 2) opções de teste, 3)
questionário-resposta e 4) resultado. Dependendo da quantidade de questões no
teste, a janela questionário-resposta será repetida, alterando-se o enunciado da
questão e o conjunto de alternativas correspondentes.
As respostas do aluno são monitoradas registrando-se o tempo de resposta e
o resultado correto ou incorreto. O sistema ao final dos testes gera um ranking com
a performance dos alunos.
A navegação começa quando o usuário faz o login e escolhe o tipo de teste.
Em seguida é apresentada uma janela do tipo questionário-resposta com a primeira
questão. O aluno somente poderá passar para a próxima questão (janela) se
responder a questão da janela correta.
Durante o teste, o aluno pode tirar dúvidas sobre a questão com o professor
virtual, através da caixa de mensagens (chat). Esta opção não foi desenvolvida no
trabalho, apenas deixada como opção para extensões futuras.
A Figura 29 apresenta o fluxo de navegação do sistema.
48
Figura 29 - Fluxo de Navegação pelo Sistema.
3.3.4 Interatividade Existem duas formas de interação entre o aluno e o ambiente virtual de
aprendizado. A primeira forma de interação, denominada chatterbot, consiste na
troca de informações entre o aluno e o professor virtual através de mensagens
textuais em uma caixa de diálogo.
Esta forma de interação permite que o aluno consiga respostas para possíveis
dúvidas sobre uma questão específica do questionário. A segunda forma de
interação acontece após o aluno responder a uma questão específica do
questionário.
Dependendo da resposta do aluno, o avatar 3D apresenta uma animação que
corresponderá a uma emoção positiva para o caso de acerto ou uma emoção
negativa para o caso de erro. A Figura 30 destaca ambas as formas de interação na
janela de questionário.
Figura 30 - Interatividade Chat (1) e Personagem (2)
49
3.4 AVATAR 3D: PROFESSOR VIRTUAL A criação do personagem partiu da necessidade do desenvolvimento de um
modelo tridimensional que se comportasse como um avatar, que fosse usado dentro
do AVA e que pudesse interagir com o usuário do sistema.
As referências mais próximas na criação do modelo tridimensional do
personagem foram inspiradas em Alice, um chatterbot desenvolvido por Richard
Wallace (2002), a partir de 1995. Estudamos também Adele, que é um AVA
composto por um agente pedagógico animado, que auxilia os estudantes do curso
de medicina.
O APA da UFSM, é um agente 2D integrado ao AVA, que serve para orientar
os alunos, interagindo de forma animada e textual. O APA da PUCRS é um modelo
3D, que se comunica de forma textual e animação facial.
O CyberPoty que é um chatterbot criado pelo Centro de Educação
Tecnológica do Amazonas (CETAM EAD), disponível no portal da instituição para
tirar dúvidas dos alunos (usuários). Sua interação ocorre por meio de um avatar em
3D, que se movimenta e fala com o usuário. Permite ao usuário ouvir sua voz e
visualizar seus movimentos durante a interação. O APA da UFGD é um modelo 3D,
os personagens interagem de forma textual e animação corporal e facial.
A apresentação do personagem vai seguir os exemplos dos chatterbots Alice,
Adele, CyberPoty e APA da UFSM, PUCRS e UFGD, focando na apresentação do
avatar com foco no busto do personagem. Com isso o processo de animação, neste
trabalho, será todo facial.
O comportamento emocional do personagem foi relacionado aos agentes
animados: Vincent, Herman, ECom, Cal, Steve, Cosmo, Doris 3D e APA da
UFERSA, que gerou o agrupamento de 22 emoções, sendo divididos em dois
grupos emocionais: positivos e negativos.
Grupo emocional positivo - alegria, esperança, satisfação, alívio,
confirmação, feliz, exuberante, orgulho, admiração, amor, e gratidão.
Grupo emocional negativo - angústia, medo, decepção, insatisfação, infeliz,
pena, vergonha, reprovação, ódio, remorso e raiva.
50
3.4.1 Arte conceitual A arte conceito do personagem 3D foi caracterizado com o perfil de um
professor na faixa dos 30 anos, que lecione em ensino superior, focando num perfil
de cursos tecnológicos. A aparência foi construída com roupa social, composta de
blusa branca, calça preta e gravata preta, além dos óculos. A arte conceitual está
dividida em design realístico e design das emoções.
3.4.1.1 Design Realístico do Professor Virtual
O design realístico descreve a forma de apresentação do professor em três
ilustrações, que apresentam a forma de ações e movimentos da arte conceitual do
personagem. Isso demonstra algumas das possibilidades realistas do professor
virtual na Figura 31.
51
Figura 31 - Design realístico do personagem
3.4.1.2 Design das Emoções O Design das emoções apresenta a forma ilustrativa de cada emoção
associada ao professor virtual, sendo caracterizada nos grupos emocionais positivos
e negativos citados anteriormente nesse capítulo. A Tabela 1 apresenta o grupo
emocional positivo.
52
Tabela 1. Representações ilustrativas das emoções positivas.
Alegria
Esperança
Satisfação
Alívio
Confirmação
Feliz
Exuberante
Orgulho
Admiração
Amor
Gratidão
A Tabela 2 apresenta o grupo emocional Negativo.
53
Tabela 2. Representações ilustrativas das emoções negativas
Angústia
Medo
Decepção
Insatisfação
Infeliz
Pena
Vergonha
Reprovação
Ódio
Remorso
Raiva
3.4.2 Modelagem Digital A modelagem digital é um processo artístico, que tem como objetivo
desenvolver (ou construir, ou gerar) o modelo tridimensional da referência do Model-
54
Sheets (referências do modelo proposto), transformando num objeto 3D. O software
utilizado para a produção desse modelo foi o 3D MAX 2010.
A modelagem facial - construção do rosto - foi o foco deste trabalho,
trabalhando as expressões como parte importante do protótipo para atingir o
resultado esperado.
A técnica de modelagem aplicada a esse processo foi o box -model, que está
conceituada com o início da modelagem a partir de um box primitivo, assim
chamado pela interface do programa. A técnica box-model é baseada em esculpir
um objeto 3D a partir de um box, sendo esculpido até chegar ao objeto proposto,
que é o busto do avatar.
A modelagem do personagem ficou restrita ao busto, indicando que os óculos
foram criados a parte e depois colocados no personagem. A Figura 32 apresenta o
modelo do busto do avatar.
Figura 32 - Modelo do Rosto
3.4.3 Textura e Iluminação
Os estudos de textura e testes de iluminação são etapas importantes na
construção do personagem. Os estudos de materiais definiram cor de pele, olhos,
cabelo, óculos e camisa. Os testes de iluminação trouxeram o realismo ao modelo
que é demonstrado na Figura 33.
55
Figura 33 - Modelo Facial Resultado Final
3.4.4 Animação Facial
O professor virtual só terá o uso da animação facial, porque a estrutura do
AVA proposto neste protótipo restringe o espaço para apresentação do personagem.
A interação entre o AVA e o usuário é ativamente representada pelo personagem
animado 3D, que é representado pelo avatar tridimensional. No ambiente do AVA,
só haverá a aparência do busto do personagem, focando nas animações faciais que
serão caracterizadas através das emoções propostas no design destas.
A formulação desse modelo é aplicado a 22 emoções que geraram 22
animações, caracterizada em cada ação e movimento facial do personagem, que
vai ser estimulado pela interação do AVA com o usuário. As 22 emoções vão ser
separadas em dois grupos: positivos e negativos. Os testes de animação facial com
as emoções positivas são apresentados na Tabela 3.
Tabela 3: Representação das emoções positivas
Alegria
Esperança
Satisfação
56
Alívio
Confirmação
Feliz
Exuberante
Orgulho
Admiração
Amor
Gratidão
Os testes de animação facial com as emoções negativas vão ser
demonstrados no Tabela 4.
57
Tabela 4. Representação das emoções negativas
Angústia
Medo
Decepção
Insatisfação
Infeliz
Pena
Vergonha
Reprovação
Ódio
Decepção
Raiva
58
3.5 FORMAÇÃO DE GRUPOS EMOCIONAIS
O mapeamento de cada grupo emocional está dividido em grupo 1, grupo 2 e
grupo 3. Cada emoção está associada ao seu id de registro no sistema. As divisões
de cada grupo emocional ficaram divididas da seguinte forma: o grupo 1 ficou com
oito emoções, o grupo 2 e 3 ficaram com sete emoções.
A classificação das emoções é dividida em duas bases emocionais, positiva e
negativa. O grupo 1 possui quatro emoções positivas e quatro negativas, os grupos
2 e 3, possuem quatro positivas e três negativas.
O primeiro grupo compreende as seguintes emoções: alegria, angústia,
esperança, medo, satisfação, decepção, alívio e insatisfação.
O segundo grupo compreende as seguintes emoções: confirmação, feliz,
infeliz, exuberante, pena, orgulho e vergonha.
O terceiro grupo compreende as seguintes emoções: admiração, reprovação,
amor, ódio, bonificação, gratidão e raiva.
4 EXPERIMENTO COMPUTACIONAL O experimento computacional apresentou o seu conjunto de testes,
resultados obtidos, interpretação dos resultados e oportunidades de melhorias.
4.1 DESCRIÇÃO DO CONJUNTO DE TESTES Com o objetivo de medir a influência do personagem animado sobre o aluno
visando a possível melhora de performance do mesmo na resolução de questões
propostas foram realizados experimentos computacionais no AVA proposto.
Os experimentos foram realizados na instituição Superior de Ensino da
Faculdade de Educação Tecnológica do Estado do Rio de Janeiro (FAETERJ)
Campus Paracambi, no dia 06 de dezembro de 2012, com os alunos da graduação
tecnológica de Sistema da Informação. O curso conta com 380 alunos. Os testes
foram realizados na disciplina Sistema de Planejamento de Bancos (SPB), com um
grupo de 100 alunos, na faixa etária de 20 a 25 anos. Os alunos foram divididos em
quatro laboratórios de informática, em grupos de 25 alunos.
60
Foram realizados quatro experimentos denotados como: ESPA, EGE1, EGE2
e EGE3. A descrição dos experimentos é a seguinte:
EGE1 - Experimento com uso de personagem animado e grupo emocional 1;
EGE2 - Experimento com uso de personagem animado e grupo emocional 2;
EGE3 - Experimento com uso de personagem animado e grupo emocional 3;
ESPA - Experimento sem uso de personagem animado.
Em todos os experimentos o sistema registra o tempo requerido na resolução
do questionário pelo aluno assim como o número de acertos. Os experimentos foram
realizados em quatro laboratórios de informática denominados:
Lab1 - Laboratório 1
Lab2 - Laboratório 2
Lab3 - Laboratório 3
Lab4 - Laboratório 4
O conteúdo da disciplina SPB foi adotado como referência para elaborar as
questões que foram incluídas no sistema AVA durante a realização dos
experimentos. O sistema AVA foi configurado de maneira a incluir um total de 20
questões em cada experimento, escolhidas de maneira aleatória.
Cada experimento foi realizado no tempo de 20 minutos, com intervalo de 5
minutos entre eles. Os testes foram todos realizados ao mesmo tempo em cada
laboratório, com o auxílio de um estagiário. Os testes duraram 1h40.
A especificação técnica dos computadores para os testes foi a seguinte:
Processador Intel Core 5, Memória - 4Gbs,Placa de Vídeo PC Express 512Mbs, HD
- 250Gbs, Leitor de CD e DVD e Monitor de 22 polegadas.
4.2 RESULTADOS OBTIDOS
Como resultado dos experimentos foi gerado um arquivo compreendendo
informações referentes ao tempo total gasto pelo aluno na resolução do
questionário e ao número de acertos em cada um dos quatro experimentos. As
tabelas com os resultados estão em anexo. Esses dados foram agrupados de
maneira conveniente calculando-se os seguintes grupos de dados:
61
I. Tempo Médio por Experimento;
II. Acerto dos experimentos por laboratórios.
4.3 ANÁLISES ESTATÍSTICAS Os dados agrupados na seção anterior foram analisados mediante técnicas
estatísticas. Com este propósito foram utilizados os softwares Excel da Microsoft e
BioStat 5.3 do Instituto Mamirauá. A metodologia aplicada foi estatística descritiva
(média, coeficiente de variação, desvio padrão) e comparação múltipla com teste
Tukey.
Os dados avaliados foram tempo e acerto do questionário empregado em
cada experimento. A análise estatística vai seguir a ordem referenciada na seção
anterior, que compreende a ordem do grupo de dados (tempo médio por
experimento e Acerto dos experimentos por laboratórios).
4.3.1 Grupo de Dados : Tempo Médio por Experimento O primeiro grupo de dados analisados foi o tempo médio pelos experimentos3
ESPA, EGE1, EGE2 e EGE3. A média geral entre os quatro testes destacou que o
experimento ESPA possui um tempo médio maior que os outros.
Podemos notar que sem a presença do Avatar o tempo médio aumenta
significativamente. A Figura 35 apresenta essa diferença entre os experimentos
ESPA e EGE1, EGE2 EGE3.
3 O agrupamento dos dados de tempo médio para análise do experimento se encontra no Apêndice
B.
62
Figura 34 - Gráfico com a média de tempo entre os experimentos.
Seguindo a avaliação do grupo de dados, foi realizada uma segunda análise,
integrando média, coeficiente de variação e desvio padrão. Analisando os dados da
Estatística Descritiva, podemos notar que entre os 4 grupos estudados o ESPA
apresenta uma maior média de tempo para a execução das tarefas, o mesmo
acontece com o Coeficiente de Variação de 12,29% e Desvio Padrão de 1, 833. A
Tabela 5 destaca essa diferença entre os ESPA e os outros três experimentos.
Tabela 5. Estatística Descritiva
Dados Qualitativos EGE1 EGE2 EGE3 ESPA
Amostra 100 100 100 100 Média 12,449 13,955 13,508 14,921 C. de Variação 7,3% 6,92% 3,6% 12,29% Desvio Padrão 0,909 0,966 0,486 1,833
Para concluir a análise desse grupo de dados foi realizado o teste de Tukey
comparando o experimento ESPA com EGE1, EGE2 e EGE3. Primeiro foi realizada
Média de Tempo
63
a análise com ANOVA. Considerando um nível de significância de 1%, rejeitamos a
hipótese de igualdade entre os grupos.
Podemos concluir que existe diferença significativa entre os experimentos. A
diferença de maior relevância é entre o experimento ESPA e os EGE1 e EGE3. Isso
é apresentado na Tabela 6 com o teste da Tukey.
Tabela 6: Teste de Tukey
FONTES DE VARIAÇÃO GL SQ QM
Tratamentos 3 315.614 105.205
Erro 396 530.567 1.340 F = 78.5217 (p) = < 0.0001
Tukey Diferença Q (p)
Médias (ESPA a EGE3) = 1.4123 12.2012 < 0.01 Médias (ESPA a EGE2) = 0.9655 8.3409 < 0.01 Médias (ESPA a EGE1)= 2.4715 21.3518 < 0.01
4.3.2 Grupo de Dados: Acerto dos experimentos por laboratórios O segundo grupo de dados avaliados foi o número de acertos por
experimento, sendo observado cada laboratório individualmente. O experimento4 foi
realizado em quatro laboratórios de informática, sendo classificados como: Lab1,
Lab2, Lab3 e Lab4. Os grupos de dados analisados, gerou a média geral de acertos
de cada teste (EGE1,EGE2 EGE3 e ESPA) por laboratório.
O primeiro laboratório analisado foi o Lab1, demonstrou que o experimento
EGE2 é o que possui maior número de acertos (29,2), e o experimento ESPA é o
que apresentou menor numero de acertos(14,1). A Figura 35 destaca a análise do
Laboratório Lab1.
4 O agrupamento dos dados de acertos para análise do experimento se encontra no
Apêndice C.
64
Figura 35 - Gráfico dos experimentos do Laboratório Lab1
A análise do Lab2 destaca que o experimento EGE2 é o que apresenta maior
número de acerto (25,2), em relação aos outros. O experimento ESPA é o que
apresentou o menor numero de acerto (19,6). A Figura 36 demonstra os resultados
dos experimentos do Laboratório Lab2.
Figura 36 - Gráfico dos experimentos do Laboratório Lab2
Seguindo a análise do Lab3 destacou que o experimento EGE2 foi que
apresentou o maior número de acerto (32) e ESPA é o que apresentou menor
65
número de acertos (22). A Figura 37 apresenta os resultados dos experimentos do
Laboratório Lab3.
Figura 37 - Gráfico dos experimentos do Laboratório Lab3
A análise do Lab4 enfatizou que o experimento EGE2 teve o maior número de
acertos (27,6) e o experimento que possui o menor número de acerto foi o ESPA
(15,2). A Figura 38 descreve os resultados dos experimentos do Lab4.
Figura 38 - Gráfico dos experimentos do Laboratório Lab4
66
Comparando os resultados de acertos dos quatro experimentos por
laboratório, podemos descrever que os experimentos EGE1, EGE2 e EGE3,
apresentaram um resultado maior de acertos que o experimento ESPA. A Tabela 7
destaca o resultado dos experimentos por laboratórios.
Tabela 7. Agrupamentos dos Laboratórios.
EGE1 EGE2 EGE3 ESPA
Lab1 23,9 29,2 25,8 14,1
Lab2 25,1 25,2 24,1 19,6
Lab3 26 32 29,6 22
Lab4 24,1 27,6 24,6 15,2
4.4 INTERPRETAÇÃO DOS RESULTADOS Podemos concluir que os experimentos EGE1, EGE2 e EGE3 demonstram
resultados melhores em relação ao tempo e acerto, do que o experimento ESPA.
Isso destaca que os experimentos que utilizaram o agente pedagógico animado,
tiveram um desempenho melhor que sem o uso do mesmo.
Os resultados encontrados nesse experimento enfatizam que o APA melhorou
a performance dos alunos durante os testes, gerando uma melhora no tempo e nos
acertos dos estudantes. Houve uma evolução significativa dos testes com o avatar
em relação ao teste sem o avatar.
A análise qualitativa dos dados ofereceu uma afirmativa da melhora do
desempenho do usuário em relação ao uso do agente animado, provando que o
personagem 3D melhorou o desempenho dos alunos durante os experimentos
computacionais.
Porém, não podemos afirmar que a relação homem-máquina foi afetada pelo
uso do agente animado, mas podemos destacar que o ambiente com o uso do
67
agente animado pode deixar o ambiente mais agradável e humanizado, melhorando
a relação entre sistema e usuário.
4.5 OPORTUNIDADES DE MELHORIAS As oportunidades de melhorias serão focadas na animação facial do
Personagem 3D e no chatterbot. A animação facial do personagem poderá ficar
mais suave em relação às ações dos usuários, gerando uma animação mais
humanizada. Outro ponto importante será utilizar animação corporal, porque o
personagem apresenta essa possibilidade.
O chatterbot foi um item do AVA que apresentou alguns problemas, não
respondendo de maneira adequada às perguntas dos usuários durante os testes.
Acreditamos que uma forma de melhoria será aumentar o banco de dados de
resposta.
5 CONSIDERAÇÕES FINAIS
5.1 CONCLUSÕES A proposta desse projeto foi simular um sistema chamado AVA (Ambiente
Virtual de Aprendizagem) composto por um agente animado (Avatar 3D) e um
chatterbot (Bate-Papo). O principal objetivo para o desenvolvimento desse projeto
foi comprovar se o agente animado melhorava a performance do usuário durante
ações e atividades descritas pelo sistema.
O diferencial desse agente animado foi a construção em forma tridimensional,
gerando o personagem do professor virtual, que interagia com o usuário de forma
textual e animações faciais.
Para compor essa relação foi integrado o chatterbot, que é o bate-papo, entre
o agente e o usuário, ainda recebendo estímulos faciais do personagem, que
estimulam a relação, tornando o ambiente mais amigável e humanizado.
Para comprovar o objetivo desse projeto, o sistema foi criado com todas as
características anteriores e para validar o questionamento do projeto foi realizado
um experimento para testar o uso do agente. Foram realizados quatro experimentos
denotados como: ESPA, EGE1, EGE2 e EGE3.
A conclusão da análise dos experimentos realizados pelos alunos, destaca
que os testes que tiveram o uso do avatar (EGE1, EGE2 e EGE3) conseguiram
concluir os testes mais rápido e tiveram mais acertos do que sem a presença do
mesmo.
69
Podemos afirmar através dos experimentos que o APA melhorou a
performance do aluno em relação ao tempo de realização do teste e ao número de
acertos, demonstrando que o personagem influência de forma positiva o usuário do
sistema.
Concluímos que o uso APA melhora a relação homem - máquina, tornando a
relação com o usuário e o ambiente do mais agradável e humanizado,
transformando a relação entre sistema e usuário.
5.2 PROPOSTAS PARA ESTUDOS FUTUROS Para estudos futuros, acreditamos em três pontos principais que podem ser
explorados: o primeiro seria melhorar o chatterbot, considerando principalmente o
bate-papo entre usuário e agente; sua forma de comunicação, além de ser textual
poderia passar a ser também verbal, acoplando um banco de dados com gravações
de voz, gerando mais capacidade de resposta. Isso tornaria o sistema mais versátil,
aumentando a capacidade de interação com os usuários.
O segundo ponto seria a capacidade de integrar inteligência artificial ao
agente, tornando o agente capaz de tomar decisões sozinho, sem o auxílio de pré-
definições e com menos restrições.
O terceiro ponto seria aumentar as possibilidades de animação do
personagem 3D; nesse projeto só foi trabalhada a animação facial, restringindo a
área do modelo no seu busto. Expandindo o processo de animação para o corpo
todo, aumentamos as possibilidades para a animação corporal, destacando
inúmeras possibilidades para o uso da interpretação do personagem, que é um
modelo híbrido podendo ser usado em outros ambientes.
Esta é uma área onde acreditamos que ainda cabem muitos experimentos,
por isso ainda pretendemos dar continuidade aos estudos e testes, focando na
melhoria do protótipo construído para esta pesquisa.
6 REFERÊNCIAS BIBLIOGRÁFICAS AGÊNCIA BRASIL. Educação a distância já tem 15% das matrículas no ensino superior. Disponível em <http://noticias.terra.com.br/educacao/noticias/ 0OI5458892-EI8266,00-Educacao + a + distancia + ja + tem + das + matriculas + no + ensino + superior.html> Acesso em 20 jul.2012. ARTIIFICIAL LINGISTIC INTERNET COMPUTE ENTITY (ALICE). Disponível em <http://www.alicebot.org> Acessado em 09 dez 2012. AZEVEDO, Eduardo ; CONCI, Aura. Computação gráfica: teoria e prática. Rio de Janeiro: Campus, 2003. ______. Desenvolvimento de jogos 3D e aplicações em realidade virtual. Rio de Janeiro: Campus, 2005. BARROS, Filipe Cherene Viana. Chattinho: desenvolvimento de um Chatterbot para ensino de Orientação a Objetos. 2008, 50 f Mongrafia (Ciências da Computação) Universidade Cândido Mendes, Campus dos Goytacazes, RJ 2009 BERGUE, Luciane Xerxenevsky. Analise das potencialidades do uso de ferramenta de simulação computacional em operações logísticas: estudo de caso em um armazém geral. 2000 80 f. Dissertação (Engenharia de Produção). Universidade Federal do Rio Grande do Sul, Porto Alegre, RS, 2001. BOCCA, Everton Weber. Modelagem e Implementação da Interface para Apresentação de Comportamentos Animados e Emotivos de um Agente Pedagógico Animado.2003, 80 f Dissertação. (Ciência da Computação). Universidade Federal do Rio Grande do Sul, Porto Alegre, RS, 2003.
71
CALCIOLARI, Fabio. 3ds Max 2012: modelagem, render, efeitos e animação. São Paulo: ERICA, 2011. CARDOSO, Eric Maciel. Animação de modelos de profundidade para aplicação em jogos. 2001, 50 f. Monografia. (Ciência da Computação ) - Universidade Estadual Mato Grosso do Sul, Mato Grosso do Sul, 2012. CARVALHO, Sergio; CAMPOS, Weber. Estatística básica simplificada. Rio de Janeiro: Campus, 2008 CHONG, Andrew. Animação digital. Porto Alegre: Bookman, 2011. CYBERPOTY. Disponível em: <http://ead.cetam.am.gov.br/portal/index.php>. Acesso em 10. dez .2012. CAFÉ PONTO COM LEITE. EAD em crescimento no mundo e no Brasil. Disponível em: <http://cafezinhocomleite.ning.com/profiles/blogs/ead-em-crescimento-no-undo-e>. Acesso em: 20.jul.2013.
FONTES, Laysa Mabel et al. Um agente pedagógico animado de apoio à aprendizagem baseada em problema. Revista Iberoamericana de Tecnologias de Aprendizagem, Vigo, Espanha v. 7, n. 4., 2012. FROZZA, Rejane et al. Dóriz 3D: agente pedagógico baseado em emoções. In: XX Simpósio Brasileiro de Informática na Educação, 20, 2009, Santa Cruz do Sul. Anais.... Santa Cruz do Sul: Universidade De Santa Cruz do Sul, Santa Cruz do Sul, 2010. HAYES-ROTH, B; DOYLE, P. Animate characters. In: ______.Autonomous Agents and Multi-Agent Systems. Hingham, MA, EUA: Kluwer Academic Publishers, 1998. JAQUES, Patrícia Augustin. Avaliando um modelo Afetivo de aluno baseado em uma abordagem cognitiva. In: XIX Simpósio Brasileiro de Informática na Educação, 20, 2008, São Leopoldo. Anais... São Lopoldo-RS: SBIE, 2009. LEONHARDT, Michele Denise ET al. Elektra: um chatterbot para uso em ambiente educacional. Revista Renote, Porto Alegre, v.1, n.1, 2006.
72
MACHADO, Glaucio José Couri. Educação e ciberespaço: estudos, propostas e oesafios. Olinda, PE: Virtus, 2010. MORAES, Márcia Cristina, WILKENSN, Rodrigo Souza. Um agente conversacional emocional. 2008, 50 f. Monografia. (Ciência da Computação). - Pontifícia Universidade Católica do Rio Grande do Sul, Rio Grande do Sul, 2008. NUNES, Maria Augusta. Computação Afetiva e sua influência na personalização de ambientes educacionais: gerando equipes compatíveis para uso em AVAs na EaD. São Cristovão-SE: Universidade Federal de Sergipe, 2010. PEREIRA, Alice Theresinha Cybis et al. Ambientes virtuais de aprendizagem. ambientes virtuais de aprendizagem: em diferentes contextos. Rio de Janeiro: Ciência Moderna, 2007. PICARD, R. Affective computing for HCI. Masachusetts, US: Mit Press, 1999. _____. Affective computing. Cambridge, US: MIT Press, 1997. PRATES, Raquel Oliveira, BARBOSA, Simone Diniz Junqueira. Introdução à teoria e prática da interação humano computador fundamentada na engenharia semiótica. In: JORNADAS DE ATUALIZAÇÃO EM INFORMÁTICA, 2007, Rio de Janeiro. Relatório final.... Rio de Janeiro: Universidade Federal do Rio de Janeiro, 2008. PROLA, Maria Teresa Medronha. Modelagem de um agente pedagógico Animado para um ambiente colaborativo: considerando fatores sociais relevantes. 2003, 80 f. Dissertação. (Ciência da Computação) - Universidade Federal do Rio Grande do Sul, Porto Alegre, 2003. REATEGUI, E.; MORAES, M. Agentes Pedagógicos Animados: Concepção, Desenvolvimento e Aplicação. In: Revista Renote, Porto Alegre, V.4, n. 2, dez, 2006.
SANTOS, Leila Maria Araújo. A inserção de um agente conversacional animado em um ambiente virtual de aprendizagem a partir da teoria de carga cognitiva. Revista Informática na Educação: Teoria e Prática. Porto Alegre, v. 12, n. 2, Jul-Dez, 2009. SILVA, Tarcila Gesteira da Silva, BERNARDI, Giliane. Desenvolvimento de um objeto de aprendizagem apoiado por um agente pedagógico animado capaz de
73
interagir afetivamente com o aluno. Revista Nuevas Idas em Informática Educativa, Santiago, Chile, v.5, n.4, dez, 2003.
SILVA, Jun Hong, COUTO, Letícia Simioni. Aparência de um agente pedagógico animado para um ambiente virtual de aprendizagem. In: SIMPÓSIO BRASILEIRO DE INFORMÁTICA NA EDUCAÇÃO, 20, 2009, Santa Cruz do Sul. Anais... Santa Cruz do Sul: Universidade de Santa Cruz do Sul, 2010
APÊNDICE A: LINGUAGEM DE PROGRAMAÇÃO: SCRIPT defexportBlendShapes(): models = om.MSelectionList() for model in cmds.ls(transforms=True): models.add(model) modelsWithBlendShapeDeformers = {} dagPath = om.MDagPath() iter = om.MItSelectionList(models) while not iter.isDone(): iter.getDagPath(dagPath) model = om.MDagPath(dagPath) try: dagPath.extendToShape() dg = om.MItDependencyGraph(dagPath.node(), om.MFn.kBlendShape, om.MItDependencyGraph.kUpstream) while not dg.isDone(): if not modelsWithBlendShapeDeformers.has_key(model): modelsWithBlendShapeDeformers[model] = [] modelsWithBlendShapeDeformers[model].append(dg.currentItem()) dg.next() except: pass iter.next() for model in modelsWithBlendShapeDeformers.keys(): cmds.select(model.partialPathName()) mel.eval('doBakeNonDefHistory( 1, {"prePost" });') cmds.select(cl=True) forblendNode in modelsWithBlendShapeDeformers[model]: fn = om.MFnDependencyNode(blendNode) aliases = cmds.aliasAttr(fn.name(), q=True) for alias in aliases: if not re.match('weight\[[0-9]+\]', alias): continue dest = '%s.%s'%(fn.name(), alias) source = cmds.listConnections(dest, p=True) if source: cmds.disconnectAttr(source[0], dest) cmds.setAttr(dest, 0.0) taggedBaseMesh = cmds.duplicate(model.partialPathName())[0] taggedBaseMesh
75
= cmds.rename(taggedBaseMesh, model.partialPathName()+'__blendShapeIndexMap') customAttrs = cmds.listAttr(taggedBaseMesh, ud=True) if (customAttrs): forattr in customAttrs: try: cmds.deleteAttr(taggedBaseMesh, at=attr) except: pass cmds.addAttr(taggedBaseMesh, ln='isBlendShapeMapFor', dt='string') cmds.setAttr('%s.isBlendShapeMapFor'%taggedBaseMesh, model.partialPathName(), type='string') dagPath = om.MDagPath() sel = om.MSelectionList() sel.add(taggedBaseMesh) sel.getDagPath(0, dagPath) dagPath.extendToShape() tagMesh(dagPath) seamlessBaseMesh = cmds.duplicate(taggedBaseMesh)[0] seamlessBaseMesh = cmds.rename(seamlessBaseMesh, model.partialPathName()+'__seamlessBaseMesh') forattr in cmds.listAttr(seamlessBaseMesh, ud=True): try: cmds.deleteAttr(seamlessBaseMesh, at=attr) except: pass makeSeamless(seamlessBaseMesh) cmds.addAttr(seamlessBaseMesh, ln='isSeamlessBaseMeshFor', dt='string') cmds.setAttr('%s.isSeamlessBaseMeshFor'%seamlessBaseMesh, taggedBaseMesh, type='string') cmds.parent(seamlessBaseMesh, taggedBaseMesh) forblendNode in modelsWithBlendShapeDeformers[model]: fn = om.MFnDependencyNode(blendNode) aliases = cmds.aliasAttr(fn.name(), q=True) for alias in aliases: ifre.match('weight\[[0-9]+\]', alias): continue cmds.setAttr('%s.%s'%(fn.name(), alias), 1.0) taggedTarget = cmds.duplicate(model.partialPathName())[0] attrs = cmds.listAttr(taggedTarget, ud=True) if (attrs): forattr in attrs: try: cmds.deleteAttr(taggedTarget, at=attr) except: pass taggedTarget = cmds.rename(taggedTarget, '%s__blendShapeTarget__%s'%(model.partialPathName(), alias)) makeSeamless(taggedTarget) cmds.setAttr('%s.%s'%(fn.name(), alias), 0.0) dagPath = om.MDagPath() sel = om.MSelectionList() sel.add(taggedTarget) sel.getDagPath(0, dagPath) dagPath.extendToShape() tagMesh(dagPath) cmds.addAttr(taggedTarget, ln='isBlendShapeTargetFor', dt='string') cmds.setAttr('%s.isBlendShapeTargetFor'%taggedTarget, taggedBaseMesh, type='string') cmds.parent(taggedTarget, taggedBaseMesh) cmds.parent(taggedBaseMesh, model.partialPathName())
APÊNDICE B: QUADRO 1: ALUNO
Aluno Grupo 1 Grupo 2 Grupo 3 Sem
Avatar
aluno 01 11,9141 13,79935 13,71728 14,93006
aluno 02 11,86859 12,88124 13,36832 14,24376
aluno 03 11,81174 15,70105 13,50373 15,03582
aluno 04 13,29198 12,192 13,63934 14,21459
aluno 05 12,32615 13,49421 12,73728 15,42311
aluno 06 12,7686 13,97785 13,85073 14,54207
aluno 07 11,52524 13,66647 13,68897 17,23169
aluno 08 12,77361 13,88244 12,15162 16,39911
aluno 09 12,12142 14,74944 13,3379 13,62035
aluno 10 11,96113 14,59328 13,03334 14,50401
aluno 11 13,15241 14,03404 13,49758 15,92943
aluno 12 14,01736 12,86216 13,08703 16,44036
aluno 13 12,94828 13,64858 13,6921 15,3927
aluno 14 12,11924 14,2356 14,22062 15,89536
aluno 15 12,22931 12,50219 12,98553 15,5937
aluno 16 12,82311 14,25354 14,21199 14,45698
aluno 17 13,41132 13,8757 13,47933 12,60898
aluno 18 12,45888 13,71116 13,82843 13,76544
aluno 19 13,22323 14,75027 13,24808 16,51374
aluno 20 12,82795 15,0467 13,22549 11,24207
aluno 21 13,13125 13,50611 13,37982 15,01665
aluno 22 13,48411 14,28342 14,15422 15,46742
aluno 23 12,12519 15,07786 13,67401 18,60201
aluno 24 12,36235 14,73264 13,03868 15,23639
aluno 25 11,98043 14,80668 13,81041 14,39481
aluno 26 14,28357 13,86771 14,0097 15,28645
aluno 27 12,58371 13,20753 13,1036 17,75654
77
aluno 28 12,31013 13,99307 12,81629 10,32199
aluno 29 12,6459 14,92466 13,51859 11,82917
aluno 30 12,7108 13,57936 13,42157 13,18429
aluno 31 14,12303 14,18322 13,39729 14,85423
aluno 32 11,62031 13,07353 13,1233 14,17937
aluno 33 11,89095 13,77345 13,04923 17,37477
aluno 34 11,21672 12,92604 12,77689 14,18489
aluno 35 13,31619 15,33433 13,8109 15,4977
aluno 36 12,73232 13,99055 13,90236 16,00408
aluno 37 11,99473 15,35246 13,55125 13,58128
aluno 38 12,06468 12,89187 13,24451 15,68959
aluno 39 13,2904 13,05964 12,85364 14,17202
aluno 40 13,96174 16,00354 13,24941 17,39076
aluno 41 10,47168 13,59037 14,18304 13,18172
aluno 42 12,47226 13,42478 12,6518 16,41036
aluno 43 12,01882 15,08377 13,61728 13,38002
aluno 44 11,10896 14,74043 13,10856 18,32701
aluno 45 12,7047 14,5954 13,41499 13,2098
aluno 46 13,19985 12,54954 13,56984 13,09552
aluno 47 10,92229 14,88106 12,97162 13,73609
aluno 48 12,67393 12,668 13,16932 14,55281
aluno 49 12,63649 11,99089 13,01214 13,61017
aluno 50 12,84996 15,28541 12,97601 15,96123
aluno 51 10,94835 12,82409 13,82385 16,4375
aluno 52 11,97345 14,39535 12,82775 16,29393
aluno 53 13,80101 14,99928 13,9847 16,37306
aluno 54 12,81504 13,00954 14,00581 16,29999
aluno 55 10,75957 14,45587 13,98937 13,52013
aluno 56 13,32913 14,16709 12,8536 14,92028
aluno 57 11,33452 14,31564 13,02395 13,56322
aluno 58 14,18191 13,67253 13,66466 14,96373
aluno 59 13,12623 14,88658 13,60413 13,34137
aluno 60 10,47161 14,12947 13,53556 16,64156
aluno 61 11,79283 14,48635 13,85014 13,21541
aluno 62 11,36301 13,60368 12,649 13,16281
aluno 63 11,95128 14,52002 13,38075 13,46117
aluno 64 11,51507 13,15218 13,01611 16,93878
aluno 65 12,65154 14,1399 13,53581 16,33116
aluno 66 11,61455 13,49283 13,67384 15,89845
aluno 67 13,32419 12,96171 13,4146 16,04384
aluno 68 13,80879 13,19073 13,38572 16,11709
aluno 69 12,92212 14,42016 14,39869 12,17593
aluno 70 11,48294 14,6362 14,13949 12,54158
aluno 71 12,2375 15,56727 13,94965 14,54555
78
aluno 72 13,32558 12,74223 13,71101 15,95068
aluno 73 12,32496 14,20544 13,68776 14,86216
aluno 74 11,71916 14,12914 13,03072 14,21417
aluno 75 11,40023 14,21305 13,34103 14,59482
aluno 76 12,40156 12,38849 14,11365 14,79957
aluno 77 11,6031 14,82475 13,13726 10,99116
aluno 78 12,88156 14,62656 13,46492 13,81804
aluno 79 12,3245 14,90919 13,98496 16,26116
aluno 80 11,61327 13,24553 13,57256 12,56973
aluno 81 13,70443 14,96304 13,51101 13,8725
aluno 82 12,81163 13,77987 13,78493 18,12748
aluno 83 13,4663 12,11658 13,62854 14,56807
aluno 84 14,9619 12,65991 13,61362 17,45539
aluno 85 11,7084 12,87223 13,51801 13,33554
aluno 86 12,08433 14,55936 14,2314 14,21893
aluno 87 13,36668 15,14863 12,93858 12,94358
aluno 88 12,14441 11,93031 13,45514 20,80101
aluno 89 13,9838 16,12431 13,45501 11,9212
aluno 90 11,54663 13,48219 14,07527 13,09646
aluno 91 13,27565 15,20555 13,21348 15,14404
aluno 92 10,36106 12,11333 14,20436 14,53721
aluno 93 12,27177 12,62878 13,89474 15,8865
aluno 94 11,19572 14,04196 13,79245 16,62563
aluno 95 12,62878 13,98832 14,41804 13,9618
aluno 96 12,69683 13,96015 13,55602 14,75564
aluno 97 11,9901 15,00131 13,19606 12,80378
aluno 98 11,7539 13,07535 13,10794 18,27601
aluno 99 12,91847 12,73586 13,91173 15,72809
aluno 100 12,62878 15,62879 15,55602 19,72809
APÊNDICE C: QUADRO 2: QUESTÕES Lab1
Grupo 1 Grupo 2 Grupo 3 Sem avatar
Questão 1 17 22 15 14
Questão 2 17 27 15 13
Questão 3 17 25 15 14
Questão 4 28 31 28 14
Questão 5 31 28 31 14
Questão 6 39 31 33 13
Questão 7 41 33 39 16
Questão 8 34 39 35 14
Questão 9 29 16 16 14
Questão 10 27 28 17 14
Questão 11 17 19 16 9
Questão 12 18 31 36 13
Questão 13 17 36 28 13
Questão 14 18 39 35 25
Questão 15 38 34 35 12
Questão 16 17 35 23 23
Questão 17 18 26 25 11
Questão 18 18 28 17 7
Questão 19 18 29 16 13
Questão 20 18 27 41 15
80
Lab2
Grupo 1 Grupo 2 Grupo 3 Sem avatar
Questão 1 33 28 32 15
Questão 2 28 21 23 18
Questão 3 28 25 22 21
Questão 4 39 34 28 11
Questão 5 24 27 21 19
Questão 6 15 33 17 15
Questão 7 18 22 19 21
Questão 8 32 21 23 25
Questão 9 17 15 21 31
Questão 10 14 23 28 21
Questão 11 27 32 29 26
Questão 12 29 38 31 22
Questão 13 31 41 37 22
Questão 14 25 23 21 18
Questão 15 33 18 15 13
Questão 16 36 32 18 25
Questão 17 21 17 21 12
Questão 18 32 14 22 23
Questão 19 12 27 33 16
Questão 20 8 12 21 18
Lab3
Grupo 1 Grupo 2 Grupo 3 Sem avatar
Questão 1 32 23 32 18
Questão 2 23 32 21 26
Questão 3 22 35 34 37
Questão 4 28 21 20 18
Questão 5 21 36 37 12
Questão 6 17 29 35 11
Questão 7 19 33 21 19
Questão 8 23 36 32 21
Questão 9 21 39 38 33
Questão 10 28 41 21 34
Questão 11 29 32 37 23
Questão 12 31 22 27 21
Questão 13 37 21 31 29
Questão 14 21 27 37 22
Questão 15 45 41 28 27
Questão 16 18 37 38 21
Questão 17 21 36 24 9
81
Questão 18 22 32 25 17
Questão 19 33 25 22 18
Questão 20 28 42 29 23
Lab4
Grupo 1 Grupo 2 Grupo 3 Sem avatar
Questão 1 32 15 22 15
Questão 2 23 15 28 16
Questão 3 22 29 21 16
Questão 4 28 31 17 15
Questão 5 21 33 19 16
Questão 6 17 39 23 15
Questão 7 19 35 21 15
Questão 8 23 16 28 14
Questão 9 21 17 29 14
Questão 10 28 26 31 15
Questão 11 29 36 37 16
Questão 12 31 28 21 16
Questão 13 37 41 15 14
Questão 14 21 35 18 15
Questão 15 15 28 21 16
Questão 16 18 25 22 14
Questão 17 21 17 33 16
Questão 18 22 16 21 16
Questão 19 33 41 23 15
Questão 20 21 29 36 15