Summary: | Submitted by Isaac Francisco de Souza Dias (isaac.souzadias@ufpe.br) on 2016-01-19T16:42:50Z
No. of bitstreams: 2
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
tese.pdf: 4571246 bytes, checksum: aa714dc0378feb8f3d327b4a277d93bd (MD5) === Made available in DSpace on 2016-01-19T16:42:50Z (GMT). No. of bitstreams: 2
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
tese.pdf: 4571246 bytes, checksum: aa714dc0378feb8f3d327b4a277d93bd (MD5)
Previous issue date: 2015-05-04 === CAPES === Esta Tese apresenta uma abordagem para o problema de locomoção de robôs com patas. Esta
abordagem tem como base aprendizagem, planejamento e controle da movimentação dos membro
inferiores para deslocar um robô de um local para outro. O sistema construído com a abordagem
proposta produz padrões de saída semelhantes àqueles gerados por um Gerador Central de
Padrões (CPG) para controlar as articulações de um robô. Os algoritmos propostos são capazes
de, com um comando simples, mudar a velocidade de deslocamento do robô e de gerar sinais
sincronizados e rítmicos para as articulações. O processo de aprendizagem da movimentação dos
membros inferiores pode ser aplicado em diferentes robôs na aprendizagem de diversos modos
de locomoção. Neste processo não é necessário determinar um conjunto de equações e seus
parâmetros para cada robô. A informação necessária para a aprendizagem da movimentação das
pernas de um robô é extraída dos dados observados e organizada em estados. O controle das
articulações do robô é realizado com dados oriundos do conteúdo dos estados de uma trajetória
através de Controle Guiado por Dados (DDC). Os dados contidos nos estados devem informar
direta ou indiretamente a posição angular desejada para cada articulação. O agente aprendiz,
implementado com a abordagem proposta, gera uma representação interna da movimentação
dos membros através de um processo de auto-organização na qual conexões determinam a
transição entre estados. Estas conexões são criadas entre estados próximos com o objetivo de
gerar uma trajetória cíclica. Dois Mapas Auto-organizáveis (SOMs) de topologia variante no
tempo foram implementados para o processo de aprendizagem da abordagem proposta: Gerador
de Trajetória de Estados Auto-Organizável (SOM-STG) e Gerador de Trajetória de Estados
Cíclica Auto-Organizável (SOM-CSTG). O mapa SOM-CSTG é uma evolução de SOM-STG e
surgiu para superar algumas limitações do primeiro. O objetivo destes mapas é aprender posturas
e conectá-las para construir trajetórias usadas para controlar a marcha do robô. A aquisição
de dados de treinamento das redes é baseada em aprendizagem por demonstração, na qual, os
estados (posturas) são aprendidos a partir de um agente demonstrador. Estes mapas são capazes
de aprender com dados coletados a partir do sinal de saída de um CPG, de sensores sobre um
agente demonstrador ou de observações externas ao agente demonstrador, como por imagens
de vídeo. Uma trajetória cíclica de estados gerada por estes mapas, quando executada conduz o
movimento dos membros do robô de maneira semelhante aos padrões de movimentação presentes
nos dados de treinamento (marchas). Os testes de aprendizagem foram realizados com dados de
um robô simulado de seis patas, de um animal de quatro patas e dados da locomoção humana.
Os testes de planejamento e controle de movimentos foram realizados com um robô simulado de
seis patas e um robô simulado de quatro patas. === This Thesis presents an approach to legged robot locomotion problem. This approach is based
on learning, planning and control of the movement of the lower member to move a robot from
one location to another. The system built with the proposed approach produces output patterns
similar to those generated by Central Pattern Generator (CPG) for controlling the joints of a robot.
The proposed algorithms are able to, with a simple command, change displacement speed of
the robot and to generate synchronizing signals and rhythmic to the joints. The learning process
of the movement for inferior members can be applied to various robots in learning of many
gaits. In this process it is not necessary to determine a set of equations and parameters for each
robot. The substantial information for learning movement of the legs of a robot is extracted from
observed data and organized in states. The control of the robot joints is carried out data from the
content of the states of a trajectory through Data Driven Control (DDC). The data contained in
the states should inform directly or indirectly the desired angular position for each joint. The
learner agent, implemented with the proposed approach, generates an internal representation of
the movement of members through a process of self-organization in which connections determine
the transition between states. These connections are created between nearby states in order to
generate a cyclic trajectory. Two self-organizing maps (SOMs) with a time-varying structure
were implemented to the learning process of the proposed approach: Self-Organizing Map with
State Trajectory Generator (SOM-STG) and Self-Organizing Map with Cyclic State Trajectory
Generator (SOM-CSTG). SOM-CSTG is an evolution of SOM-STG and appeared to overcome
some limitations of the first one. The purpose of these maps is learn postures and connects them
to build paths used to control the motion of the robot. The acquirement of training data for the
networks is based on learning by demonstration, in which the states (postures) are learned from
a demonstrator agent. These maps are able to learning from data collected from the output signal
of a CPG, of sensor on a demonstrator agent or external observations to the demonstrator agent
such as video images. A cyclic trajectory of states generated by these maps, when executed leads
the movement of the robot members so similar to the movement patterns present in the training
data (gaits). The learning tests were performed with simulated data from a six-legged robot, a
four-legged animal and data of human locomotion. Planning and control movements tests were
performed with a simulated six-legged robot and a simulated four-legged robot.
|