navegaÇÃo assistida de robÔs baseada em … · mitiu interagir com o mundo, o que é importante...

6
NAVEGAÇÃO ASSISTIDA DE ROBÔS BASEADA EM RECONHECIMENTO E SÍNTESE DE FALA CAETANO M. RANIERI Instituto de Ciências Matemática e de Computação, Universidade de São Paulo Avenida Trabalhador São-carlense, 400 – Centro, 13566-590 - São Carlos - SP E-MAILS: [email protected] SILAS F. R ALVES, IVAN N. SILVA Departamento de Engenharia Elétrica, Escola de Engenharia de São Carlos, Universidade de São Paulo Avenida Trabalhador São-carlense, 400 – Centro, 13566-590 - São Carlos - SP E-MAILS: [email protected], [email protected] HUMBERTO FERASOLI-FILHO Departamento de Computação, Faculdade de Ciências, Universidade Estadual Paulista Av. Eng. Luiz Edmundo Carrijo Coube, 14-01, Vargem Limpa, 17033-360 - Bauru, SP E-MAILS: [email protected] Abstract Interactive robots can help people with or without disabilities. In this sense, research has been made in order to help children with motor disabilities to explore the world around them, which is important for their cognitive development. However, most of these initiatives lack on natural and intuitive interfaces, or are prohibitively expensive to be adopted in a larger scale. This paper describes an experimental environment to use speech recognition and synthesis to improve human-robot interaction (HRI) with children. The proposed system main goal is to perform activities with physically disabled children, however it can be used with other children. Thus, robots that are attractive, small-sized and relatively low-cost are used to implement such envi- ronment. The system recognizes a set of simple speech commands, which allows human-assisted navigation. Keywords human-robot interaction, speech interaction, assistive technologies, social robots, mobile robotics. Resumo Robôs interativos podem ajudar as pessoas com ou sem deficiência. Neste sentido, tem-se pesquisado, no intuito de ajudar crianças com deficiência motora a explorar o mundo ao seu redor, o que é importante para o seu desenvolvimento cogni- tivo. No entanto, a maioria dessas iniciativas não possui em interfaces naturais e intuitivas, ou são proibitivamente caras para se- rem adotadas em larga escala. Este artigo descreve um ambiente experimental que utiliza o reconhecimento e síntese de fala para melhorar a interação humano-robô (HRI) com as crianças. O principal objetivo do sistema proposto é a realização de atividades com crianças com deficiência física, no entanto, ele pode ser usado com outras crianças. Assim, os robôs que são atraentes, de pequeno porte e de custo relativamente baixo são utilizados para implementar tal ambiente. O sistema reconhece um conjunto de comandos de fala simples, que permitem a navegação humana assistida. Palavras-chave interação homem-robô, interação por fala, tecnologias assistivas, robôs sociais, robótica móvel 1 Introdução O desenvolvimento de robôs socialmente interativos têm diferentes motivações. Estes robôs podem ajudar pacientes com certos tipos de deficiência, proporcio- nando meios de terapia para o autismo (Werry and Dautenhahn, 1999) ou deficiências motoras graves (Ranieri et al., 2012). Por outro lado, eles também podem ajudar as pessoas sem deficiência a realizar tarefas. Neste último, a literatura aponta para diferen- tes aplicações de acordo com a idade do público: para as crianças, estes robôs podem servir como tuto- res ou brinquedos interativos, para os adultos, como assistentes pessoais, e para os idosos, como compa- nhia ou auxiliares na realização de atividades diárias (Malfaz and Salichs, 2004). Uma questão importante para a pesquisa no campo da robótica social é o desenvolvimento de Interação Humano-Robô (IHR), com base em interfa- ces naturais, tais como a interação por fala (Aoyama and Shimomura, 2005) ou olhar social (Emery, 2000). Para melhorar a interface, uma abordagem é dotar os sistemas com emoções, permitindo que os seres humanos identifiquem a intenção do robô (Bre- azeal and Scassellati, 1999). Além disso, robôs com emoções podem servir como base para experimentos em estudos sobre as emoções dos seres vivos e neu- robiologia (Arbib and Fellous, 2004). Alguns projetos consistem na implementação e validação adicional de robôs socialmente interativos, lidando com diferentes aspectos ou aplicações (Mal- faz and Salichs, 2004) (Aoyama and Shimomura, 2005) (Breazeal and Scassellati, 1999; Hollinger et al., 2006). O sistema apresentado neste artigo tem como objetivo fornecer uma interface para permitir que um usuário humano controle parcialmente um robô móvel dotado de aspectos sociais. O robô apre- sentado pode servir como uma ferramenta para ativi- dades educativas ou lúdicas para as crianças com e sem deficiência. Projetos futuros podem aplicar este sistema em um robô maior para ajudar pessoas ido- sas. Anais do XX Congresso Brasileiro de Automática Belo Horizonte, MG, 20 a 24 de Setembro de 2014 79

Upload: others

Post on 02-Jun-2020

3 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: NAVEGAÇÃO ASSISTIDA DE ROBÔS BASEADA EM … · mitiu interagir com o mundo, o que é importante para o seu desenvolvimento cognitivo (Alvarez et al., 2013; Tsotsos et al., 1998)

NAVEGAÇÃO ASSISTIDA DE ROBÔS BASEADA EM RECONHECIMENTO E SÍNTESE DE FALA

CAETANO M. RANIERI

Instituto de Ciências Matemática e de Computação, Universidade de São Paulo

Avenida Trabalhador São-carlense, 400 – Centro, 13566-590 - São Carlos - SP

E-MAILS: [email protected]

SILAS F. R ALVES, IVAN N. SILVA

Departamento de Engenharia Elétrica, Escola de Engenharia de São Carlos, Universidade de São Paulo

Avenida Trabalhador São-carlense, 400 – Centro, 13566-590 - São Carlos - SP

E-MAILS: [email protected], [email protected]

HUMBERTO FERASOLI-FILHO

Departamento de Computação, Faculdade de Ciências, Universidade Estadual Paulista

Av. Eng. Luiz Edmundo Carrijo Coube, 14-01, Vargem Limpa, 17033-360 - Bauru, SP

E-MAILS: [email protected]

Abstract Interactive robots can help people with or without disabilities. In this sense, research has been made in order to help

children with motor disabilities to explore the world around them, which is important for their cognitive development. However,

most of these initiatives lack on natural and intuitive interfaces, or are prohibitively expensive to be adopted in a larger scale.

This paper describes an experimental environment to use speech recognition and synthesis to improve human-robot interaction

(HRI) with children. The proposed system main goal is to perform activities with physically disabled children, however it can be

used with other children. Thus, robots that are attractive, small-sized and relatively low-cost are used to implement such envi-

ronment. The system recognizes a set of simple speech commands, which allows human-assisted navigation.

Keywords human-robot interaction, speech interaction, assistive technologies, social robots, mobile robotics.

Resumo Robôs interativos podem ajudar as pessoas com ou sem deficiência. Neste sentido, tem-se pesquisado, no intuito de

ajudar crianças com deficiência motora a explorar o mundo ao seu redor, o que é importante para o seu desenvolvimento cogni-

tivo. No entanto, a maioria dessas iniciativas não possui em interfaces naturais e intuitivas, ou são proibitivamente caras para se-

rem adotadas em larga escala. Este artigo descreve um ambiente experimental que utiliza o reconhecimento e síntese de fala para

melhorar a interação humano-robô (HRI) com as crianças. O principal objetivo do sistema proposto é a realização de atividades

com crianças com deficiência física, no entanto, ele pode ser usado com outras crianças. Assim, os robôs que são atraentes, de

pequeno porte e de custo relativamente baixo são utilizados para implementar tal ambiente. O sistema reconhece um conjunto de

comandos de fala simples, que permitem a navegação humana assistida.

Palavras-chave interação homem-robô, interação por fala, tecnologias assistivas, robôs sociais, robótica móvel

1 Introdução

O desenvolvimento de robôs socialmente interativos

têm diferentes motivações. Estes robôs podem ajudar

pacientes com certos tipos de deficiência, proporcio-

nando meios de terapia para o autismo (Werry and

Dautenhahn, 1999) ou deficiências motoras graves

(Ranieri et al., 2012). Por outro lado, eles também

podem ajudar as pessoas sem deficiência a realizar

tarefas. Neste último, a literatura aponta para diferen-

tes aplicações de acordo com a idade do público:

para as crianças, estes robôs podem servir como tuto-

res ou brinquedos interativos, para os adultos, como

assistentes pessoais, e para os idosos, como compa-

nhia ou auxiliares na realização de atividades diárias

(Malfaz and Salichs, 2004).

Uma questão importante para a pesquisa no

campo da robótica social é o desenvolvimento de

Interação Humano-Robô (IHR), com base em interfa-

ces naturais, tais como a interação por fala (Aoyama

and Shimomura, 2005) ou olhar social (Emery,

2000). Para melhorar a interface, uma abordagem é

dotar os sistemas com emoções, permitindo que os

seres humanos identifiquem a intenção do robô (Bre-

azeal and Scassellati, 1999). Além disso, robôs com

emoções podem servir como base para experimentos

em estudos sobre as emoções dos seres vivos e neu-

robiologia (Arbib and Fellous, 2004).

Alguns projetos consistem na implementação e

validação adicional de robôs socialmente interativos,

lidando com diferentes aspectos ou aplicações (Mal-

faz and Salichs, 2004) (Aoyama and Shimomura,

2005) (Breazeal and Scassellati, 1999; Hollinger et

al., 2006). O sistema apresentado neste artigo tem

como objetivo fornecer uma interface para permitir

que um usuário humano controle parcialmente um

robô móvel dotado de aspectos sociais. O robô apre-

sentado pode servir como uma ferramenta para ativi-

dades educativas ou lúdicas para as crianças com e

sem deficiência. Projetos futuros podem aplicar este

sistema em um robô maior para ajudar pessoas ido-

sas.

Anais do XX Congresso Brasileiro de Automática Belo Horizonte, MG, 20 a 24 de Setembro de 2014

79

Page 2: NAVEGAÇÃO ASSISTIDA DE ROBÔS BASEADA EM … · mitiu interagir com o mundo, o que é importante para o seu desenvolvimento cognitivo (Alvarez et al., 2013; Tsotsos et al., 1998)

2 Motivação

A inclusão de crianças com deficiência, em ativida-

des diárias apresenta vários desafios. Elas precisam

de ferramentas especializadas e pessoal treinado, que

estão associados custos elevados. Ainda assim, esta é

uma questão em crescimento constante no Brasil,

onde o número de alunos especiais no ensino público

cresceu de 752.305 em 2011 para 840.433 em 2012

(Brasil, INEP, 2013). No caso de crianças com defi-

ciências motoras graves, o uso de robótica lhes per-

mitiu interagir com o mundo, o que é importante para

o seu desenvolvimento cognitivo (Alvarez et al.,

2013; Tsotsos et al., 1998).

Estas crianças são geralmente incapazes de usar

as interfaces de usuário (UI), tradicionais, tais como

o teclado do computador e mouse, ou joystick. Elas

precisam de diferentes interfaces de usuário que não

dependam de manipulação precisa e que sejam intui-

tivas. Um canal de comunicação comum para os seres

humanos, mas que ainda é um desafio para os robôs,

é a fala. Ainda que o reconhecimento de fala e o pro-

cessamento de linguagem natural apresentem vários

problemas em aberto, eles podem fornecer uma ma-

neira fácil de interação com algumas limitações.

Há também pesquisas que sugerem que as crian-

ças podem considerar robôs como seres vivos

(Turkle, 2007) -, embora esse tipo de robô ainda este-

ja fora do alcance com a tecnologia atual - o que po-

de ajudar a criar cenários de interação interessante

entre crianças e robôs para dar suporte a educação.

No entanto, o custo elevado dos robôs, por vezes,

impede a sua utilização na sala de aula.

Neste sentido, o uso de smartphones pode ser

uma abordagem promissora. Originalmente criados

para servir como assistentes pessoais avançados, os

smartphones aumentaram sua relevância no mercado,

expandiram suas funcionalidades, melhoraram a sua

conectividade e eficiência energética, e tiveram seu

custo reduzido. Em geral, os smartphones convergi-

ram para um conjunto mínimo de dispositivos, que

estão disponíveis em suas arquiteturas de hardware,

tais como câmeras, acelerômetros, telas sensíveis ao

toque, Wi-Fi ou Bluetooth, e captura e reprodução de

áudio. Cada um desses recursos fornece uma capaci-

dade útil para robôs interativos. Este conjunto de

dispositivos pode melhorar o hardware do robô ao

fornecer novos sensores e atuadores, além de propor-

cionar uma unidade de processamento versátil. As-

sim, propõe-se a sua aplicação em um robô móvel de

entretenimento.

3 Visão Geral do Sistema

Incluir crianças fisicamente debilitadas em ativi-

dades recreativas ou educativas, essenciais para o seu

desenvolvimento cognitivo, pode não ser uma tarefa

fácil. Por outro lado, deixar de incluir essas crianças

em tais atividades pode desmotiva-las para o apren-

dizado, internalizando a impressão de que elas são

incapazes de realizar quaisquer atividades por conta

própria. Com o uso de robôs móveis, crianças porta-

doras de deficiência motora severa podem realizar

ações que não estariam aptas a desempenhar sem

ajuda de terceiros. Isso pode lhes dar alguma inde-

pendência para criar e concretizar suas ideias. Com

isso, existe a expectativa de que elas sintam-se úteis e

motivadas a aprender coisas novas (Ferasoli Filho et

al., 2012).

Um smartphone operado com Android e um robô

móvel são os principais dispositivos do ambiente

proposto. Conforme descrito na seção IV, o robô tem

um suporte mecânico para um smartphone, e um elo

Bluetooth que conecta ambos os dispositivos.

O firmware do robô não possui software de controle,

que é realizado unicamente pelo smartphone. Portan-

to, todo o controlador funciona em um aplicativo de

smartphone, responsável por ambas as funções de

controle do robô e a interface humano-robô. O reco-

nhecedor da Google é responsável pelo reconheci-

mento de fala no sistema descrito, e o eSpeakTTS é

responsável pela síntese de voz em português brasi-

leiro.

Uma vez que um usuário inicia o aplicativo, o

sistema funciona como representado na Fig. 1. O

robô perambula evitando obstáculos e, periodicamen-

te, muda o ângulo de inclinação do smartphone até

que o sistema detecte um rosto na imagem capturada

pela câmera do smartphone. Essa detecção é realiza-

da com uso do classificador em cascata proposto por

Viola e Jones (2001), disponibilizado pela biblioteca

OpenCV4Android. Quando um rosto é reconhecido,

o robô encerra todos os tipos de movimentos, e o

smartphone sintetiza uma frase falada em português

brasileiro através de seus alto-falantes. Nesta frase, o

sistema solicita um comando de voz. Para isso, o

usuário humano pode falar um dentre alguns dos co-

mandos disponíveis, todos em língua portuguesa.

Fig. 1 .Máquina de estados relacionada ao sistema implementado

Anais do XX Congresso Brasileiro de Automática Belo Horizonte, MG, 20 a 24 de Setembro de 2014

80

Page 3: NAVEGAÇÃO ASSISTIDA DE ROBÔS BASEADA EM … · mitiu interagir com o mundo, o que é importante para o seu desenvolvimento cognitivo (Alvarez et al., 2013; Tsotsos et al., 1998)

O smartphone utiliza seu próprio microfone ou

um fone de ouvido externo para capturar qualquer

som longo e alto o suficiente para ser um comando

reconhecível. Se o reconhecedor de fala detecta uma

sentença, ele retornará um conjunto de até 10 possibi-

lidades e a confiança delas. Se qualquer uma dessas

sentenças corresponder a um dos comandos disponí-

veis, tal comando é executado. Caso contrário, o robô

pede que o usuário repita o comando. Durante a exe-

cução de um comando, se o robô encontra um obstá-

culo, ela se retira, da mesma maneira quando detecta

um obstáculo enquanto perambula.

Os comandos disponíveis referem-se a ações dis-

cretas e simples, que podem ser utilizadas para pro-

porcionar uma navegação assistida para o robô. Para

uma melhor compreensão, a Tabela 1 lista os coman-

dos possíveis em Inglês. As ações relacionadas a ca-

da comando também são descritas.

Tabela 1. Comandos disponíveis para a interação de voz.

Comando Ação

Pode ir Finaliza interação por fala. Círculo Move em uma trajetória circular. Girar para trás Vira 180 º em sentido horário. Frente Siga em frente, a 6,0 cm/s, para 1,5 s. Sentido horário Vire 30º no sentido horário. Sentido anti-horário Vire 30º para a esquerda.

3.1 Arquitetura de Controle

A arquitetura de subsunção, proposta por Ro-

dney Brooks, é a base para a arquitetura de controle

implementada no sistema descrito. Esta arquitetura

consiste na organização do sistema em módulos

comportamentais hierárquicos, chamados níveis de

competência, cada qual compreendendo um subsis-

tema de controle. Quanto mais elevado o nível de

competência, mais específico o subsistema definido

por ele. Cada nível de competência pode suprimir

entradas ou inibir saídas de comportamentos dos ní-

veis inferiores.

Conforme apresentado na Fig. 2, quatro níveis de

competência compõe a arquitetura de controle desen-

volvida. Do menor para o maior, são eles: evitar obs-

táculos, perambular, procurar rostos e interação por

fala. No nível evitar obstáculos, os sensores de pro-

ximidade são continuamente verificados. Quando o

sistema detecta um obstáculo, o robô recua. Quando

está no nível perambular, o robô se move aleatoria-

mente pelo ambiente. No nível procurar rostos, o

ângulo de inclinação do smartphone é modificado

periodicamente com o objetivo de aumentar a proba-

bilidade de detectar um rosto humano. Finalmente, no

nível de interação por fala, o robô começa, após a

detecção de um rosto, uma interação verbal pela qual

o usuário pode controlar o robô dando comandos de

voz. Uma vez que tal interação começa, as saídas de

procurar rostos e perambular são inibidas.

Como sensores, o sistema utiliza sensores de

proximidade reflexão de luz infravermelha para de-

tectar obstáculos, a câmera do smartphone para cap-

turar vídeo e o microfone do smartphone, ou um fone

de ouvido externo, para capturar áudio. Como atua-

dores, o sistema utiliza os motores do robô, cujo aci-

onamento resulta na locomoção robô ou na mudança

da inclinação do smartphone.

Fig. 2 .Arquitetura de controle implementada.

4 Robôs

Algumas das dificuldades enfrentadas pela robó-

tica assistiva são o custo e a experiência necessária

para trabalhar com robôs (Goodrich and Schultz,

2007). Robôs adaptados para IHR são caros e reque-

rem pessoal especializado, e muitos pesquisadores,

especialmente nas áreas de ciência cognitiva e inter-

faces humano-computador, não tem acesso a eles

(Burke et al., 2004).

A fim de fornecer uma plataforma robótica com

baixo custo, desenvolveu-se dois robôs de 100 USD

que são fáceis de replicar e proporcionam alta flexi-

bilidade, Roburguer, fig. 3 (a), e a sua última versão,

Pomodoro, fig. 3 (b). Estes robôs foram criados para

o entretenimento de crianças, portanto, eles usam

cores vivas para chamar a atenção delas, e seu corpo

é projetado com formas arredondadas para não pre-

judicar o usuário. A estrutura do corpo utiliza peças

de acrílico planas que podem ser facilmente replica-

das.

Atualmente trabalha-se para fornecer a estes ro-

bôs habilidades emocionais, que podem explorar a

exibição das faces que descrevem um estado emocio-

nal, como mostrado na fig. 3. Atualmente, essas faces

não são ainda utilizados, e são mostrados na figura

para ilustrar a possibilidade de implementar esse re-

curso.

(a) (b)

Fig. 3 .Robôs Roburguer (a) e Pomodoro (b).

Anais do XX Congresso Brasileiro de Automática Belo Horizonte, MG, 20 a 24 de Setembro de 2014

81

Page 4: NAVEGAÇÃO ASSISTIDA DE ROBÔS BASEADA EM … · mitiu interagir com o mundo, o que é importante para o seu desenvolvimento cognitivo (Alvarez et al., 2013; Tsotsos et al., 1998)

Os robôs também possuem sensores e atuadores

que permitem uma navegação segura, evitando que-

das e colisões, conforme apresentado na Tabela 2.

Além disso, um smartphone foi adotado como o

computador embutido.

Tabela 2. Dispositivos disponíveis no Pomodoro.

Dispositivo Qtd. Função

Sensor de solo 5 Evitar queda Sensor de linha no solo 2 Seguir linha Sensor de proximidade 4 Evitar colisão Sensor de distância 1 Detecção de Objeto (Pomodoro) Motor CC 2 Tração Diferencial Servo-motores 2 Mover smartphones (pan-tilt)

O hardware é composto por dois módulos sepa-

rados: a placa embutida, com o circuito para acionar

os motores e ler sensores apresentados na Tabela II, e

um smartphone, responsável pela a arquitetura de

controle. A placa embarcada implementa um sistema

supervisor que não é autônomo, mas recebe coman-

dos de um computador através de uma conexão Blue-

tooth. Neste caso, o computador é um smartphone

que será anexado ao robô.

O smartphone foi adotado devido ao seu relativo

baixo custo, conectividade, sensores e poder de pro-

cessamento. Neste projeto, smartphones foi usado

para capturar o discurso do usuário, procurar o rosto

do usuário a imagem da câmera de dentro, e reprodu-

zir uma fala sintetizada.

5 Experimentos e Resultados

Para validar o sistema desenvolvido, algumas experi-

ências foram realizadas pelo Laboratório de Integra-

ção de Sistemas e Dispositivos de Laboratório Inteli-

gente (LISDI) da Unesp, campus Bauru. Embora o

sistema tenha sido experimentado apenas por adultos

sem sinais de deficiência, foi possível avaliar os as-

pectos técnicos do sistema e sua aplicação como uma

ferramenta para interação homem-robô.

Nos experimentos, realizados em laboratório pa-

ra verificar o funcionamento do sistema, o robô foi

colocado sobre uma superfície plana, medindo 80 cm

x 60 cm. Uma parede com 5 cm de altura rodeia esta

plataforma, mostrada na Fig. 4. O smartphone, um

Samsung Galaxy Y com uma câmera traseira e sem

câmera frontal, foi colocado sobre o robô com sua

câmera de volta apontando para frente. Assim, a tela

não pode ser vista pelo utilizador.

Estes experimentos consistiram em testes indivi-

duais de cada um dos quatro níveis de competência,

verificando sua funcionalidade adequada. Para regis-

trar os resultados, quatro vídeos foram produzidos,

cada um relacionado a um nível de competência. Es-

tes vídeos estão disponíveis em

http://www2.fc.unesp.br/gisdi/speech/. Os procedi-

mentos para testar cada nível de competência e os

respectivos resultados estão descritos abaixo.

Fig. 4 .Experimento com o robô Roburguer.

Evitar obstáculos: o robô foi deixado parado

na superfície até que um obstáculo fosse po-

sicionado na frente de seus sensores de pro-

ximidade. Desta forma, foi possível conduzir

o robô para lugares diferentes na superfície,

posicionando sucessivamente o obstáculo ao

lado de sensores convenientes.

Perambular: um obstáculo foi deixado na

plataforma. O robô, movido em direções di-

ferentes, segue perambulando seguindo os

princípios do nível. Mostra-se que o robô

pode evitar as bordas da plataforma. Quando

o obstáculo situado na plataforma é detectá-

vel pelos sensores de proximidade do robô,

o sistema reage rápido o suficiente para evi-

tar colisões. Embora os obstáculos nem

sempre sejam detectáveis antes das colisões

ocorrerem, a integridade do robô é assegu-

rada, pois o robô se move lento o suficiente

para evitar danos durante as colisões.

Buscar rostos: neste nível, o comportamento

do robô é semelhante ao comportamento vis-

to no nível perambular. Buscar rostos acres-

centa alterações periódicas na inclinação do

smartphone que não afetam os comporta-

mentos definidos pelos níveis mais baixos.

Interação de fala: compreende o sistema

como um todo. O teste foi feito enquanto

havia uma conexão de internet Wi-Fi está-

vel, requisito para este nível para funcionar

corretamente. Enquanto não havia nenhum

rosto para ser detectado, o sistema funcio-

nou de forma semelhante ao nível procurar

rostos nível. Usando os sensores de proxi-

midade, foi possível conduzir o robô para

uma posição na qual o rosto do utilizador

pudesse ser detectado. Quando um rosto foi

detectado, todos os movimentos do robô se

encerraram e a interação por fala se iniciou.

Todos os comandos implementados foram

experimentados, tendo operado conforme o

esperado. Durante a execução do comando

"frente", o usuário colocou a mão na frente

de um sensor de proximidade, que detectou

como um obstáculo. O robô se retirou e,

através da fala sintetizada, pediu por outro

comando.

Anais do XX Congresso Brasileiro de Automática Belo Horizonte, MG, 20 a 24 de Setembro de 2014

82

Page 5: NAVEGAÇÃO ASSISTIDA DE ROBÔS BASEADA EM … · mitiu interagir com o mundo, o que é importante para o seu desenvolvimento cognitivo (Alvarez et al., 2013; Tsotsos et al., 1998)

6 Conclusão

Este trabalho apresentou o uso de uma arquitetura de

controle receptiva aos comandos humanos e suporta-

da pelo uso de smartphones. Pesquisa e detecção de

rostos foi eficaz e interessante dentro da premissa de

que o robô se comporta como um animal de estima-

ção. A interação de voz, durante esta fase de desen-

volvimento, apenas interpreta e executa comandos.

Neste sentido, o sistema interativo mostrou resultados

que incentivam a exploração desta área, adaptando e

expandindo-o a fim de atender às demandas reais.

Os próximos passos do desenvolvimento do tra-

balho contemplarão o refinamento da arquitetura de

controle e do robô móvel para a realização de testes

com crianças com deficiência. Espera-se que as ações

comportamentais de robôs prendam a atenção das

crianças, dando a ideia de interagir com um pequeno

animal de estimação.

A latência entre o reconhecimento de um co-

mando e a execução da ação correspondente não

compromete a interação. A interação verbal mais rica

entre o usuário e o robô, que aproximaria a ideia de

um ser vivo artificial, será abordada em trabalhos

futuros, com uso de processamento de linguagem

natural - outro campo de pesquisa desafiador. Tam-

bém neste contexto, a utilização mais incisiva da vi-

são computacional também pode aumentar as possi-

bilidades de interação com humanos e robôs com o

ambiente externo, o que estimula o interesse em au-

mentar o uso desta tecnologia. Por exemplo, a análise

de emoção baseada em expressões faciais podem

melhorar a interação humano-robô, assim como o

reconhecimento de objetos, a compreensão de cena e

de situação pode melhorar a colaboração entre robôs

e seres humanos ou outros robôs.

Neste trabalho, foi utilizado um smartphone

Samsung Galaxy Y, que não possui câmera frontal.

Em trabalhos futuros, usando um smartphone com

câmera frontal, será possível introduzir expressões

faciais, exibindo-os na tela do smartphone. Isto enco-

rajaria experimentos envolvendo emoções.

A necessidade de algoritmos sofisticados, que

exigem poder computacional do sistema robótico

para respostas rápidas, pode ser solucionado pela

modularidade fornecida pela arquitetura, a qual per-

mite o uso de Wi-Fi e de uma base computacional

remota. Com o rápido desenvolvimento dos disposi-

tivos de hardware móveis, no entanto, espera-se que

o poder de processamento dos smartphones cresça,

alcançando a maior parte dos requisitos para tais pro-

jetos.

Agradecimentos

Agradecemos à FAPESP (Fundação de Amparo à

Pesquisa do Estado de São Paulo) financiou este tra-

balho, processos 2012/12050-0 e 2013/01293-1.

Agradecemos ao Laboratório de Automação In-

teligente (LAI), do Departamento de Engenharia Elé-

trica, do Centro de Tecnologia da Universidade Fe-

deral do Espírito Santo pelo apoio.

Referências Bibliográficas

Alvarez, L., Rios, A.M., Adams, K., Encarnação, P.,

Cook, A.M., 2013. From Infancy to Early

Childhood: The Role of Augmentative

Manipulation Robotic Tools in Cognitive and

Social Development for Children with Motor

Disabilities, in: Pons, J.L., Torricelli, D., Pajaro,

M. (Eds.), Converging Clinical and Engineering

Research on Neurorehabilitation, Biosystems &

Biorobotics. Springer Berlin Heidelberg, pp.

905–909.

Aoyama, K., Shimomura, H., 2005. Real world

speech interaction with a humanoid robot on a

layered robot behavior control architecture, in:

Robotics and Automation, 2005. ICRA 2005.

Proceedings of the 2005 IEEE International

Conference on. IEEE, pp. 3814–3819.

Arbib, M.A., Fellous, J.-M., 2004. Emotions: from

brain to robot. Trends Cogn. Sci. 8, 554–561.

Brasil, INEP, 2013. Censo Escolar da Educação

Básica 2012 - Resumo Técnico. Instituto

Nacional de Estudos e Pesquisas Educacionais

“Anísio Teixeira.”

Breazeal, C., Scassellati, B., 1999. How to build

robots that make friends and influence people,

in: Intelligent Robots and Systems, 1999. IROS

’99. Proceedings. 1999 IEEE/RSJ International

Conference on. Presented at the Intelligent

Robots and Systems, 1999. IROS ’99.

Proceedings. 1999 IEEE/RSJ International

Conference on, pp. 858–863 vol.2.

doi:10.1109/IROS.1999.812787

Burke, J.L., Murphy, R.R., Rogers, E., Lumelsky,

V.J., Scholtz, J., 2004. Final Report for the

DARPA/NSF Interdisciplinary Study on Human-

Robot Interaction. IEEE Trans. Syst. Man

Cybern. Part C Appl. Rev. 34, 103–112.

Emery, N.J., 2000. The eyes have it: the

neuroethology, function and evolution of social

gaze. Neurosci. Biobehav. Rev. 24, 581–604.

eraso i i o, ., a deira, .A. ., Pegoraro, R.,

A es, S. . dos R., a ad o, ., astos i o,

T.F., 2012. Use of Myoelectric Signals to

Command Mobile Entertainment Robot by

Disabled Children: Design and Control

Architecture, in: Proceedings of the 3rd IEEE

Biosignals and Biorobotics Conference

(ISSNIP). Presented at the 3rd IEEE Biosignals

and Biorobotics conference (ISSNIP), Manaus.

Goodrich, M.A., Schultz, A.C., 2007. Human-robot

interaction: a survey. Found. Trends Hum.-

Comput. Interact. 1, 203–275.

Hollinger, G.A., Georgiev, Y., Manfredi, A.,

Maxwell, B.A., Pezzementi, Z.A., Mitchell, B.,

Anais do XX Congresso Brasileiro de Automática Belo Horizonte, MG, 20 a 24 de Setembro de 2014

83

Page 6: NAVEGAÇÃO ASSISTIDA DE ROBÔS BASEADA EM … · mitiu interagir com o mundo, o que é importante para o seu desenvolvimento cognitivo (Alvarez et al., 2013; Tsotsos et al., 1998)

2006. Design of a social mobile robot using

emotion-based decision mechanisms, in:

Intelligent Robots and Systems, 2006 IEEE/RSJ

International Conference on. IEEE, pp. 3093–

3098.

Malfaz, M., Salichs, M.A., 2004. A new architecture

for autonomous robots based on emotions, in:

Fifth IFAC Symposium on Intelligent

Autonomous Vehicles.

Ranieri, C.M., Alves, S.F. dos R., Ferasoli Filho, H.,

Caldeira, M.A.C., Pegoraro, R., 2012. An

Environment Endowed with a Behavior-Based

Control Architecture to Allow Physically

Disabled Children to Control Mobile Robots, in:

Proceedings of Robocontrol 2012 - 5th

Workshop in Applied Robotics and Automation.

Presented at the Robocontrol 2012 - 5th

Workshop in Applied Robotics and Automation.

Tsotsos, J.K., Verghese, G., Dickinson, S., Jenkin,

M., Jepson, A., Milios, E., Nuflo, F., Stevenson,

S., Black, M., Metaxas, D., Culhane, S., Ye, Y.,

Mann, R., 1998. PLAYBOT A visually-guided

robot for physically disabled children. Image

Vis. Comput. 16, 275–292. doi:10.1016/S0262-

8856(97)00088-7

Turkle, S., 2007. Authenticity in the age of digital

companions. Interact. Stud. 8, 501–517.

Viola, P., Jones, M., 2001. Rapid object detection

using a boosted cascade of simple features, in:

Proceedings of the IEEE Computer Society

Conference on Computer Vision and Pattern

Recognition, CVPR. Presented at the IEEE

Computer Society Conference on Computer

Vision and Pattern Recognition, CVPR, pp. I–

511.

Werry, I., Dautenhahn, K., 1999. Applying mobile

robot technology to the rehabilitation of autistic

children, in: Procs SIRS99, 7th Symp on

Intelligent Robotic Systems. Presented at the 7th

Symp on Intelligent Robotic Systems, pp. 265–

272.

Anais do XX Congresso Brasileiro de Automática Belo Horizonte, MG, 20 a 24 de Setembro de 2014

84