Summary: | Made available in DSpace on 2016-12-23T14:33:34Z (GMT). No. of bitstreams: 1
dissertacao.pdf: 7639680 bytes, checksum: bafdf34994fbf543be654c45e264bc74 (MD5)
Previous issue date: 2005-07-15 === The images formed on the human retinas has only two dimensions, however the brain is capable of synthesizing a three-dimensional representation with color, shape and depth information about the environment surroundings. For in such a way, after choosing a point in the 3-D space, the eyes verge to this fixation point and, at the same time, the visual system is fed back with eyes placement information, supplied by ocular motor system, considering them as the distance of this point to the observer. The depth perception around the vergence point may be got by estimating the disparity, the positional difference between the two retinal projections of a given point in space results from the horizontal separation of the eyes. Most of the depth perception processing is done by visual cortex, mainly in V1 and MT areas. This work presents a modeling and implementation of a mathematical computational neural architecture that represents the V1 and MT cortical areas, based in visual cortex neurophysiology, used to create in a computer a 3-D representation of the surrounds, using images from two cameras connected to this computer. This model implementation was based upon Gabor filters and log-polar mapping. With this model it is possible to make a disparity map of the images and thus calculate the 3-D spatial position of each image point represented in the disparity map. This way it is possible to create a 3-D representation of the surrounds in a computer. === As imagens projetadas nas retinas humanas são bidimensionais, entretanto o cérebro é capaz de sintetizar uma representação tridimensional com informações sobre cor, forma e profundidade a respeito os objetos no ambiente ao seu redor. Para tanto, após escolher um ponto no espaço 3-D, os olhos vergem para este ponto de fixação e, em paralelo, o sistema visual é realimentado com informações sobre o posicionamento dos olhos, fornecidas pelo sistema óculo-motor, interpretando-as como a distância deste ponto ao observador. A percepção de profundidade ao redor do ponto de vergência pode ser obtida estimando a disparidade, isto é, a diferença de posição entre pontos correspondentes nas retinas, causada pela separação horizontal dos olhos na cabeça. A maior parte do processamento necessário à percepção da profundidade é realizada pelo córtex visual, principalmente nas áreas V1 e MT. Neste trabalho é apresentada uma modelagem e implementação matemático-computacional de uma arquitetura neural, representando as áreas corticais V1 e MT, baseada em estudos da neurofisiologia do córtex visual com o intuito de criar num computador uma representação tridimensional do mundo externo, a partir de imagens obtidas de duas câmeras acopladas a este computador. A implementação deste modelo foi baseada em filtros de Gabor e mapeamento log-polar da retina para o córtex. Com este modelo é possível construir um mapa das disparidades entre as imagens e, a partir deste mapa, calcular a posição no espaço tridimensional de cada ponto da imagem representado no mapa. Desta forma, é possível criar uma representação tridimensional interna ao computador do ambiente ao seu redor.
|