Vamos imaginar uma pequena cena da vida cotidiana. Estressado por uma jornada estafante, você retorna do trabalho de péssimo humor. Tom, o seu robô doméstico, que percebeu a sua contrariedade, se desdobra para lhe fazer todas as gentilezas possíveis: ele entoa uma música alegre, ensaia alguns passos de dança próprios para incitá-lo a dar boas gargalhadas, aproxima-se de você para massagear as suas costas. Mas, decididamente furioso, você lhe dá um chega para lá, com um brutal: "Me deixe em paz!" Magoado, Tom cruza os braços e sai da sala para remoer a sua tristeza num canto.
Daqui a pouco -dentro de mais alguns anos, não mais-, esta situação não terá mais nada de futurista. Em todo lugar no mundo, nos Estados Unidos, no Japão, na Europa, equipes de pesquisadores e construtoras vêm preparando novas gerações de autômatos, capazes de reconhecer e de manifestar emoções, ou seja, 'emo-robôs'.
Assim, a União Européia acaba de implantar um programa de pesquisas, intitulado Feelix Growing (algo como "sentimentos crescendo"), cujo objetivo é de conceber robôs capazes de interagir com os humanos "de uma maneira social e emocionalmente apropriada". Dotado de uma verba de 2,5 milhões de euros (R$ 6,42 milhões) para um período de três anos, este projeto mobiliza, além dos engenheiros em robótica, especialistas em neurociências, em psicologia do desenvolvimento e em etologia, ou seja, que estudam os costumes humanos como fatos sociais. Daqui até 2010 deverão ver a luz do dia dois robôs adaptados, o primeiro ao meio-ambiente familiar, o segundo para prestar assistência aos doentes e aos idosos.
A jovem pequeno-média empresa francesa Aldebaran Robotics, que está envolvida neste programa, prevê dar início à comercialização, já em 2008, de um robô humanóide dotado de faculdades emocionais. Batizado de Nao, ele terá condições, anuncia Bastien Parent, o responsável da comunicação da sociedade, para identificar os diferentes humores do seu proprietário por meio de um módulo de reconhecimento vocal, e será também capaz de manifestar por conta própria uma ampla gama de sentimentos - alegria, cólera, tédio, contrariedade... -por meio de uma programação que envolve uma série de posturas, de mímicas, de códigos luminosos e de modulações vocais.
No que vem a ser uma demonstração desta paixonite, os representantes de cerca de trinta grupos de pesquisa europeus, americanos e israelenses, que estiveram reunidos no início de junho em Paris por iniciativa do CNRS (o mais importante centro francês de pesquisas científicas), fundaram a
associação Humaine (Human-Machine Interaction on Emotion -Interação do
humano e da máquina no plano das emoções), que tem por objetivo de coordenar as suas pesquisas.
"A capacidade de lidar de maneira automática com emoções, por parte de máquinas, é um setor em plena expansão, que mobiliza múltiplas disciplinas: a psicologia, as neurociências, as ciências da linguagem verbal e não verbal, a informática...", explica Laurence Devillers, uma pesquisadora do Laboratório de informática para a mecânica e das ciências de engenharia (Limsi-CNRS), com sede em Orsay, a oeste de Paris.
Os caminhos que foram seguidos por muito tempo pelos especialistas da inteligência artificial, os quais se focalizavam numa aptidão ao raciocínio lógico baseada exclusivamente na capacidade de cálculo, alcançou os seus limites. Daqui para frente, eles incorporam a detecção e a geração de expressões emocionais no cerne da comunicação entre o homem e a máquina.
Foi no Massachusetts Institute of Technology (MIT), nos Estados Unidos, que nasceu há dez anos o conceito de 'affective computing', a informática afetiva. Na esteira das suas pesquisas, foram criados diversos robôs de companhia, humanóides ou animalóides - estes últimos baseados no modelo do cão Aibo, desenvolvido pela Sony -, capazes de reagir ás solicitações do seu proprietário por meio de movimentos dos olhos, do rabo ou das orelhas, articulando algumas palavras ou simples onomatopéias, ou ainda por meio de uma programação de marcadores luminosos (laranja para a cólera, azul para a tristeza, verde para o amor...).
Na verdade, até agora não apareceu nada muito convincente neste campo. Mas, nos seus laboratórios, os pesquisadores já andam trabalhando em projetos mais evoluídos. O laboratório de heurística e de diagnóstico dos sistemas complexos (Heudiasyc, associado ao CNRS e à Universidade Tecnológica de Compiègne, região parisiense) vem trabalhando na análise dos rostos e do reconhecimento automático das expressões.
Um modelo estatístico, baseado em cerca de quarenta parâmetros (pontos característicos localizados em volta dos olhos, das sobrancelhas e dos lábios), permite que um computador equipado de uma câmera possa identificar, por meio de imagens fixas de rostos vistos de frente, seis estados emocionais básicos: alegria, cólera, tristeza, nojo, medo ou surpresa. E o processo funciona "com uma taxa de sucesso de 85% a 90%", anuncia Franck Davoine, que pilota este programa.
Mas a empreitada se torna mais complicada quando os pesquisadores se debruçam sobre sentimentos mais complexos, tais como a dúvida ou a combinação de alegria e surpresa. E, sobretudo, se os estudos não forem desenvolvidos com base em imagens estáticas, e sim em imagens de rostos em movimento, em situação real. "A dificuldade é conseguir desenvolver modelos robustos, com bom desempenho, mesmo se o rosto estiver mal iluminado, de perfil ou parcialmente ocultado", sublinha Franck Davoine, que se diz convencido de que os progressos serão rápidos.
O Limsi, por sua vez, está desenvolvendo um modelo de detecção dos estados emocionais no âmbito do diálogo oral. "O fato de aumentar a sofisticação dos algoritmos estatísticos não é suficiente para solucionar o problema da grande variabilidade dos sinais acústicos na fala espontânea", insiste Laurence Devillers. Esta última vem trabalhando a partir de conjuntos de várias dezenas de horas de gravações (conversas telefônicas, consultas médicas...), as quais são submetidas a um grupo de cerca de quarenta ouvintes, os quais fazem corresponder essas falas a sentimentos: medo, cólera, alívio, tristeza...
Então, são estabelecidas correlações entre esses sentimentos e índices prosódicos (ritmo das frases, quantidades de palavras utilizadas, timbre, nível e intensidade da voz), semânticos (o vocabulário da alegria difere daquele da cólera) ou sintáticos (a estrutura da frase varia também em função dos humores) das seqüências verbais. Estes dados são então codificados no quadro de um modelo informático que consegue identificar as emoções simples com uma taxa de sucesso de 50% a 60%. E todo esse processo é repetido em várias línguas.
A etapa seguinte consistirá em construir um modelo multimodal, no qual serão associados os índices emocionais da fala aos das expressões faciais e gestuais. "Os estudos que combinam todas essas modalidades ainda são incipientes", explica Jean-Claude Martin, um especialista neste campo que atua no Limsi. "Mas, em laboratório, os nossos protótipos vêm mostrando um desempenho cada vez melhor".
Ao lado tem us videos de robôs famosos »»»»»»»»»»»»»»»»»»»»»»»»»»»»»»»»»»»»»
29.6.07
Assinar:
Postar comentários (Atom)
Um comentário:
Sabe o que eu acho engraçado? Enquanto os seres humanos estão cada vez mais insensíveis pela falta de amor ao próximo que vivemos hoje, muitos cientistas se esforçam para criar robôs com sentimentos.
Durma-se com um barulho desses.
Hunf....
Postar um comentário