Desenvolvimento de um software para detecção de erros grosseiros e reconciliação de dados estática e dinâmica de processos químicos e petroquímicos
Orientador: Rubens Maciel Filho === Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Química === Made available in DSpace on 2018-08-22T08:44:14Z (GMT). No. of bitstreams: 1 Barbosa_AgremisGuinho_D.pdf: 4370227 bytes, checksum: 9fc9a5dfb766e6075fe58104c3c22087 (MD5) Pr...
Main Author: | |
---|---|
Other Authors: | |
Format: | Others |
Language: | Portuguese |
Published: |
[s.n.]
2008
|
Subjects: | |
Online Access: | BARBOSA, Agremis Guinho. Desenvolvimento de um software para detecção de erros grosseiros e reconciliação de dados estática e dinâmica de processos químicos e petroquímicos. 2008. 259 p. Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Química, Campinas, SP. Disponível em: <http://www.repositorio.unicamp.br/handle/REPOSIP/266640>. Acesso em: 22 ago. 2018. http://repositorio.unicamp.br/jspui/handle/REPOSIP/266640 |
Summary: | Orientador: Rubens Maciel Filho === Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Química === Made available in DSpace on 2018-08-22T08:44:14Z (GMT). No. of bitstreams: 1
Barbosa_AgremisGuinho_D.pdf: 4370227 bytes, checksum: 9fc9a5dfb766e6075fe58104c3c22087 (MD5)
Previous issue date: 2008 === Resumo: O principal objetivo deste trabalho foi o desenvolvimento de um software para reconciliação de dados, detecção e identificação de erros grosseiros, estimativa de parâmetros e monitoramento da qualidade da informação em unidades industriais em estado estacionário e dinâmico. O desenvolvimento desse software focalizou atender aos critérios de modularidade, extensibilidade e facilidade de uso. A reconciliação de dados é um procedimento de tratamento de medidas em plantas de processos necessário devido ao fato da inexorável presença de erros aleatórios de pequena magnitude associados aos valores obtidos dos equipamentos de medição. Além dos erros aleatórios, por vezes os dados estão associados a erros de maior magnitude e que constituem uma tendência, ou viés. Erros desta natureza podem ser qualificados e quantificados por técnicas de detecção de erros grosseiros. É importante para aplicação de subrotinas de otimização que os dados sejam confiáveis e livres de erros tanto quanto possível. A tarefa da remoção destes erros através de modelos previamente conhecidos (reconciliação de dados) não é trivial, já sendo estudada no campo da engenharia química nos últimos 40 anos e apresenta uma crescente quantidade de trabalhos publicados. Contudo, uma parte destes trabalhos é voltada para aplicação da reconciliação sobre equipamentos isolados, como tanques, reatores e colunas de destilação, ou pequenos conjuntos destes equipamentos e não são muitos os trabalhos que utilizam dados reais de operação. Isto pode ser atribuído à dimensão do trabalho computacional associado ao grande número de variáveis. O que se propõe neste trabalho é tomar partido da crescente capacidade computacional e das modernas ferramentas de desenvolvimento, provendo uma aplicação na qual seja facilitada a tarefa de descrever sistemas de maior dimensão, para estimar dados de qualidade superior, em tempo hábil, para sistemas de controle e otimização. É importante frisar que a reconciliação de dados e a detecção de erros grosseiros são fundamentais para a confiabilidade de resultados de subrotinas de otimização e controle supervisório e também pode ser utilizada para a reconstrução de estados do processo === Abstract: The main goal of this work was the development of software for data reconciliation, gross errors detection and identification, data reconciliation, parameter estimation, and information quality monitoring in industrial units under steady state and dynamic operation. The development of this software was focused on meeting the criteria of modularity, extensibility, and user friendliness. Data reconciliation is a procedure for measurement data treatment in process plants, which is necessary due the fact of the inexorable presence of random, small magnitude errors associated to the values obtained from measurement devices. In addition to the random errors, sometimes data are associated to major magnitude errors that lead to a trend or bias. Errors of this nature can be qualified and quantified through gross errors detection techniques. It is important for optimization routines that data are reliable and error free as much as possible. The task of removal of these errors using previously known models (data reconciliation) is not trivial, and has been studied for the last 40 years in the field of chemical engineering, showing an increasing amount of published works. However, part of these works is devoted to applying data reconciliation over single equipment, such as tanks, reactors, distillation columns, or small sets of these equipments. Furthermore, not much of this published work relies on real operation data. This can be regarded to the dimension of computational work associated to the great number of variables. This work proposes to take advantage of increasing computational capacity and modern development tools to provide an application in which the task of higher dimension systems description is accomplished with ease in order to produce data estimates of superior quality, in a suitable time frame, to control and optimization systems. It is worthwhile mentioning that data reconciliation and gross error detection are fundamental for reliability of the results from supervisory control and optimization routines, and can be used also to process state reconstruction === Doutorado === Desenvolvimento de Processos Químicos === Doutor em Engenharia Química |
---|