Ufv / XVIII sic / outubro de 2008 / informática



Baixar 80,71 Kb.
Encontro10.09.2017
Tamanho80,71 Kb.



UFV / XVIII SIC / OUTUBRO DE 2008 / INFORMÁTICA CCE

ALGORITMO GENÉTICO COM BUSCA LOCAL PARA A MINIMIZAÇÃO DO ATRASO TOTAL DAS TAREFAS NO PROBLEMA DE PROGRAMAÇÃO FLOWSHOP PERMUTACIONAL

TIAGO DE OLIVEIRA JANUARIO (Bolsista FUNARBIC/UFV), JOSE ELIAS CLAUDIO ARROYO (Orientador/UFV)

O problema de programação de tarefas flowshop é um problema de otimização combinatória amplamente estudado e intimamente ligado ao planejamento e programação da produção nas indústrias. Este problema consiste no processamento de n tarefas por m máquinas na mesma ordem, ou seja, a i-ésima operação de todas as tarefas deve ser sempre feita na máquina i (i = 1,...,m). O objetivo é gerar a ordem de processamento das tarefas de tal maneira que o atraso total destas, com relação a suas datas de entrega, seja minimizado. Atender as datas de entrega dos consumidores é uma preocupação crítica na maioria dos sistemas da manufatura onde o atraso na entrega de uma tarefa pode acarretar uma série de custos, dentre estes: penalidades contratuais, prejuízos ao cliente e perda de credibilidade resultando em danos na reputação da empresa. Enquanto existem vários estudos para minimizar o makespan (que está relacionado ao uso eficiente dos recursos produtivos), poucos trabalhos abordam o critério de atraso total no ambiente de programação de tarefas flowshop com buffer zero (isto é, sem armazenamento intermediário no processo de manufatura) entre as máquinas. Para resolver o problema de forma aproximada é proposto um algoritmo genético que inclui estratégias tais como busca local, controle da diversidade da população e um procedimento de intensificação baseado na técnica path relinking (reconexão por caminho). Esta técnica gera novas soluções através da transformação de uma solução de elite em uma outra solução da população. O desempenho do algoritmo genético proposto é avaliado através de comparações com uma heurística construtiva e com a metaheurística GRASP ambos propostos na literatura e os resultados mostraram que o algoritmo proposto é bastante eficiente e promissor. (FUNARBIC)


UFV / XVIII SIC / OUTUBRO DE 2008 / INFORMÁTICA CCE

ALGORITMOS DE PROGRAMAÇÃO MATEMÁTICA PARA PROBLEMAS DE OTIMIZAÇÃO BI-OBJETIVO

PAULA MARIANA DOS SANTOS (Bolsista PIC-CAIXA/UFV), JOSE ELIAS CLAUDIO ARROYO (Orientador/UFV), MICHELE DOS SANTOS SOARES (Estagiário voluntário/UFV)

Neste trabalho são apresentados dois algoritmos diferentes baseados em Programação Matemática para determinar soluções Pareto-ótimas ou eficientes de problemas de otimização bi-critério. O primeiro algoritmo otimiza iterativamente diferentes funções ponderadas Za = a1Z1 + a2Z2, onde Z1 e Z2 são as funções objetivos a serem otimizadas e a1 e a2 são diferentes pesos definidos para cada objetivo. É utilizada uma técnica eficiente para determinar os pesos a1 e a2 de tal maneira que todas as soluções Pareto-ótimas sejam obtidas, quando o espaço de decisão factível for convexo. Caso não seja, o algoritmo implementado determina todas as soluções Pareto-ótimas de suporte. O segundo algoritmo considera Z1 como a função objetivo e Z2 como uma restrição adicional, ou seja, o modelo é resolvido iterativamente como um problema de otimização mono-objetivo (considerando somente o primeiro objetivo) para diferentes limitantes do outro objetivo. Inicialmente, os algoritmos são testados na resolução do Problema de Localização de Facilidades Não-capacitado, que consiste na escolha de locais para instalar um número de facilidades (depósitos) que atendam um conjunto de clientes distribuídos em um espaço geográfico. Os objetivos considerados são: minimização de custos e maximização das demandas atendidas. Foram resolvidos problemas com até 300 clientes e 50 locais candidatos, gastando um tempo computacional relativamente baixo. Para resolver um problema com 300 clientes foi gasto em média 1744 segundos usando o primeiro algoritmo e 1572 segundos usando o segundo algoritmo. A análise dos resultados dos dois algoritmos explicitou o fato de que quando há um aumento nas quantidades de depósitos e clientes, o número de soluções, o número máximo e mínimo de facilidades abertas, o número de iterações do algoritmo e o tempo computacional também aumentam. Os resultados obtidos neste trabalho serão disponibilizados para serem utilizados na avaliação de desempenho de métodos aproximados e heurísticos. (UFV/CAIXA)

UFV / XVIII SIC / OUTUBRO DE 2008 / INFORMÁTICA CCE

ALGORITMOS HEURÍSTICOS PARA PROBLEMAS DE PROGRAMAÇÃO DE TAREFAS EM MÁQUINAS COM MÚLTIPLOS CRITÉRIOS.

PAULO LÚCIO DE OLIVEIRA JÚNIOR (Bolsista PIBIC/CNPq/UFV), JOSE ELIAS CLAUDIO ARROYO (Orientador/UFV)


As indústrias de manufatura têm sido muito estimuladas a tornar seus processos de produção mais eficientes devido, principalmente, à competitividade crescente imposta pelas transformações que têm afetado a ordem econômica mundial. Nesse trabalho é abordado o problema de no-wait flowshop que consiste no seqüenciamento de n tarefas em m máquinas sem que as tarefas sofram interrupções em seu processamento entre as máquinas, desde o seu início até o fim de sua execução. No problema também é considerado tempos de preparação  (setup-time). Estes tempos são gastos para fazer a manutenção de uma máquina após da execução de uma tarefa i e antes de iniciar com o processamento de uma outra tarefa j. O objetivo é determinar a seqüência ou ordem de processamento das tarefas de tal maneira que sejam minimizados critérios tais como makespan (que é o tempo de finalização do processamento de todas as tarefas) e o atraso máximo nas entregas das tarefas. O problema abordado é considerado NP-Hard (NP-Difícil), por tanto é inviável determinar soluções ótimas para instâncias de médio e grande porte. Os métodos utilizados para resolver este problema são heurísticos e metaheurísticos. Estes métodos geram soluções aproximadas de alta qualidade em tempo polinomial. Nos problemas reais de otimização uma solução aproximada é extremamente útil, pois através desta solução já é possível obter grandes ganhos econômicos e operacionais. (CNPq)


UFV / XVIII SIC / OUTUBRO DE 2008 / INFORMÁTICA CCE

AMBIENTE PARA BUSCA E VISUALIZAÇÃO DE DOCUMENTOS HISTÓRICOS À DISTÂNCIA

MAURILIO DE ARAUJO POSSI (Bolsista PROBIC/FAPEMIG/UFV), JONAS MARCAL DE QUEIROZ (Orientador/UFV)

O acesso a documentos históricos pode ser difícil devido a fatores como distância, segurança e fragilidade destes. A digitalização e disponibilização em redes de comunicação aberta, como a Internet, é uma solução possível. Porém esta tarefa é complexa. O objetivo desse trabalho foi apresentar um ambiente para visualização de documentos históricos, desenvolvido dentro do projeto de Digitalização de manuscritos dos acervos dos Cartórios do 1º e 2º Ofícios do Arquivo Histórico da Casa Setecentista de Mariana, financiado pela FAPEMIG e realizado através de parceria entre a UFV  e o Instituto do Patrimônio Histórico e Artístico Nacional (IPHAN). Inicialmente, cada documento foi digitalizado em imagens de alta resolução (no mínimo, 300ppi) e profundidade de cores (24 bits), ocupando 15MB de espaço em disco cada. Esses são padrões para arquivamento. Mas, para que seja viável a disponibilização via Internet, sem perdas significativas na qualidade, a resolução das imagens é reduzida em 50% e seu formato convertido para Pyramidal TIFF, que permite acesso rápido a qualquer parte da imagem sem que ela toda necessite ser transmitida. Posteriormente, foi elaborado um Banco de Dados, dentro da norma arquivística internacional ISAD(G). Para o acesso às imagens, atendendo ao requisito segurança, foi desenvolvida uma aplicação Web2.0 em PHP/MySQL, utilizando o padrão de arquitetura MVC e técnicas de AJAX. Além disso, foi introduzido um algoritmo de busca aproximada para permitir flexibilidade nas pesquisas, atendendo ao requisito acessibilidade, e alguns conceitos de PDI para aprimorar a visualização dos documentos. Uma versão para testes já está disponível. Concluiu-se que a convergência digital é uma realidade, mesmo quando se trata de estudar o passado, e que as aplicações para Internet são a sua principal manifestação. O grande desafio da engenharia de software é garantir e fornecer meios para que essas sejam aplicações robustas e escaláveis.


UFV / XVIII SIC / OUTUBRO DE 2008 / INFORMÁTICA CCE

ANÁLISE BAYESIANA DE MODELOS MISTOS APLICADOS AO MELHORAMENTO GENÉTICO DA CANA-DE-AÇÚCAR

VITOR PEREIRA BETTERO (Bolsista PIBIC/CNPq/UFV), FABYANO FONSECA E SILVA (Orientador/UFV), LUIZ ALEXANDRE PETERNELLI (Co-orientador/UFV)

A estimação de componentes de variância e predição de valores genéticos mediante a metodologia de modelos mistos apresenta grande relevância na área de genética. Os componentes de variância e covariância, imprescindíveis na predição do mérito genético dos indivíduos têm sido estimados por métodos distintos, de acordo com a evolução de novas teorias e técnicas computacionais. O método da Máxima Verossimilhança Restrita (REML) tem sido muito utilizado na estimação dos componentes, produzindo estimativas pontuais. No entanto, a metodologia Bayesiana vem ganhando espaço na estimação por permitir análise descritiva completa para cada parâmetro, além de permitir a construção de intervalos de credibilidade que levam em conta a incerteza sobre todos os parâmetros do modelo simultaneamente. Objetivou-se avaliar e discutir diferentes metodologias de análise estatística de dados de experimentos em fase final (fase FE) dos programas de melhoramento de cana-de-açúcar visando à seleção e indicação de indivíduos promissores, bem como avaliar o quanto a informação de parentesco desbalanceada pode afetar a identificação dos melhores indivíduos. No trabalho em questão são apresentados aspectos teóricos da análise Bayesiana de Modelos Mistos, bem como sua aplicação a dois conjuntos de dados. O primeiro diz respeito a dados obtidos da literatura especializada, os quais foram utilizados para testar a metodologia e os recursos computacionais adotados. O segundo compreende observações referentes a um experimento com cana-de-açúcar cujo objetivo é selecionar indivíduos superiores com base em seus valores genéticos estimados pela metodologia considerada. A metodologia Bayesiana proporcionou estimativas de valores genéticos, componentes de variância e herdabilidade condizentes com a realidade, e, além disso, permitiu realizar estimação intervalar sem a necessidade de adotar pressuposições a respeito das distribuições assumidas para estes parâmetros.

UFV / XVIII SIC / OUTUBRO DE 2008 / INFORMÁTICA CCE

APLICAÇÃO DA HEURÍSTICA GRASP PARA O PROBLEMA DE LOCALIZAÇÃO DE FACILIDADES BI-OBJETIVO

WELTON DE SOUZA RIBEIRO (Bolsista PIBIC/CNPq/UFV), JOSE ELIAS CLAUDIO ARROYO (Orientador/UFV)

Procuramos com este projeto sugerir novos modelos de solução de problemas de localização de facilidades coerentes com situações reais, visando desenvolver métodos heurísticos e metaheurísticos para problemas de otimização multiobjetivo que podem ser modelados através da teoria dos grafos. A finalidade destes métodos é gerar um conjunto de soluções dominantes para um problema de localização de facilidades com dois critérios, custo e cobertura, permitindo ao decisor escolher a solução que mais lhe convém. Os resultados encontrados foram determinados utilizando a metaheurística GRASP juntamente com a técnica Path Relinking. As soluções obtidas foram comparadas com as soluções Pareto-ótimas e verificou-se que são de excelente qualidade o que mostra que os métodos desenvolvidos são bastante eficientes. Foram desenvolvidas três versões da metaheurística GRASP para resolver o problema de alocação de facilidades. A versão com intensificação baseada na técnica Path Relinking (GRASP-Biobjetivo+PR) encontrou 80,3% mais soluções em relação a versão básica (sem intensificação), sendo que o tempo médio de processamento foi 11,2% maior que o tempo da versão básica. A versão com intensificação mais pós-otimização (GRASP-Biobjetivo+PR+PO) também baseada na técnica Path Relinking obteve uma melhoria de 139,4% (em termos de número de soluções Pareto-ótimas) com relação à versão básica. O tempo de processamento médio da versão GRASP-Biobjetivo+PR+PO foi maior em 106,9% comparado à versão básica. Portanto, a segunda e a terceira versões se mostraram superiores a versão básica. Comparando o desempenho das versões GRASP-Biobjetivo+PR e GRASP-Biobjetivo+PR+PO, a segunda obteve uma melhoria de 32,8% na quantidade de soluções Pareto-ótimas obtidas e gastando tempo de processamento médio maior em 86%. Conclui-se que, a metaheurística GRASP-Biobjetivo+PR+PO é bastante eficiente para encontrar soluções Pareto-ótimas, porém com tempo de processamento alto em relação às outras versões. No entanto, a metaheurística GRASP-Biojetivo+PR é bastante eficiência com relação ao tempo de processamento computacional e ao número de soluções Pareto-ótimas obtidas. (CNPq)


UFV / XVIII SIC / OUTUBRO DE 2008 / INFORMÁTICA CCE

ARRAY DE PROCESSADORES COM GRÃO GROSSO E FLUXO DE DADOS

LÍVIO DRUMOND GUERRA (Bolsista PIBIC/CNPq/UFV), RICARDO DOS SANTOS FERREIRA (Orientador/UFV)

O crescimento significativo dos sistemas embarcados, o suporte a aplicativos desenvolvidos em Java e a capacidade de processamento de arranjos motivou estudos acerca do acoplamento de arranjos de processadores com elementos lógico-aritméticos de grão grosso. Traçou-se como objetivo a implementação de simulações baseadas nesses acoplamentos e processadores para que fosse possível uma análise mais acurada de seus comportamentos quando submetidos ao processamento de streams (fluxo de dados). Foi implementado um algoritmo como solução para o problema de posicionamento das unidades funcionais em arquiteturas reconfiguráveis de grão grosso a partir de uma descrição funcional de um algoritmo representado por um grafo de fluxo de dados. A implementação realizada foi submetida a testes com vários benchmarks como algoritmos de processamento de imagens, áudio e vídeo mapeados em várias topologias, permitindo uma comparação direta entre essas topologias para verificar a sua aplicabilidade a diversos tipos de problemas reais. Sabendo que o algoritmo de posicionamento implementado realiza um caminhamento em profundidade tanto no grafo de fluxo de dados quanto no posicionamento nas arquiteturas alvo, obtemos um bom resultado no tamanho médio dos caminhos entre as unidades funcionais mapeadas nas topologias. O algoritmo descrito abrange o posicionamento em arquiteturas heterogêneas, que possuem elementos de processamento fixos pra determinados tipos de operações. Implementou-se posteriormente, um algoritmo para construir grafos de dependência de dados de instruções dos blocos de configurações realizados pelo tradutor binário, como descrito em BECK[2008].


UFV / XVIII SIC / OUTUBRO DE 2008 / INFORMÁTICA CCE

AVALIAÇÃO DO COEFICIENTE DE VARIAÇÃO EM EXPERIMENTOS REFERENTES À PRODUÇÃO DE LEITE DE CABRAS

ROBERTA VALERIANO DOS SANTOS (Bolsista PIBIC/CNPq/UFV), PAULO ROBERTO CECON (Orientador/UFV), FABYANO FONSECA E SILVA (Colaborador/UFV)

Para avaliar a precisão de um experimento é comum usar o coeficiente de variação (CV), que é definido pelo desvio-padrão em porcentagem da média. Como medida de dispersão, a grande vantagem do CV é a capacidade de comparar resultados de diferentes pesquisas envolvendo a mesma variável-resposta. Este trabalho teve como objetivo estabelecer limites adequados para o CV tendo como variáveis respostas a produção de leite e a composição de gordura no leite de cabra. Foi realizada uma pesquisa prévia de artigos e teses da área para buscar os valores de CV das variáveis em questão. Em seguida, os modelos estatísticos: Critério de Garcia e Método dos Quantis Amostrais foram utilizados para propor faixas de classificação, que podem ser consideradas como baixa, média, alta e muito alta, adequadas. Os valores de CV que enquadram nas faixas consideradas baixa ou média são os que indicarão maior precisão do experimento. Para a variável produção de leite em cabras, nos dois métodos, os limites de classificação de CV considerados baixo e médio foram semelhantes, sendo baixo valores de CV ≤ 11,07 e médios os resultados entre 8,92 < CV ≤ 34,87. No entanto, as faixas de classificação ditas como alta e muito alta apresentaram diferenças acentuadas. Para produção de leite, o Critério de Garcia considera alto os valores entre 34,87 < CV ≤ 70,56 e muito alto valores de CV > 70, 56, enquanto para o Método dos Quantis Amostrais resultados entre 34,22 < CV ≤ 43,89 são classificados como alto e muito alto quando forem > 43,89. Para a variável composição de gordura no leite, todos os limites apresentaram valores semelhantes, sendo os resultados classificados como: baixo ≤ 7,33; médio 7,33 < CV ≤ 15,03; alto 15,03 < CV ≤ 18,96; muito alto CV > 18,96.

UFV / XVIII SIC / OUTUBRO DE 2008 / INFORMÁTICA CCE

CODIFICAÇÃO DE “OTTOBACIAS” EM ARQUIVOS VETORIAIS ATRAVÉS DA TERRALIB

LEONARDO FONSECA DE CARVALHO (Bolsista IC /projeto/UFV), FERNANDO FALCO PRUSKI (Orientador/UFV)

O grande volume de dados gerados por Sistemas de Informação Geográfica (SIG) pode tornar custosa, computacionalmente, a extração de informações e tomada de decisão sobre imagens de redes hidrográficas. Surge, então, a necessidade de classificação da topologia hídrica dessas imagens para uma análise mais eficiente. Este problema pode ser solucionado através do algoritmo de “Ottobacias” que, baseado na área de drenagem e na topologia da hidrografia, cria uma hierarquia de códigos (Ottobacias) com informação de conectividade e direção, permitindo a identificação de áreas a montante e a jusante de uma bacia hidrográfica. O objetivo deste trabalho é implementar, com baixa complexidade computacional,  o algoritmo de “Ottobacias” sobre arquivos vetoriais utilizando a Terralib, uma biblioteca de distribuição livre e código aberto para desenvolvimento de SIG. O algoritmo elaborado trabalha com imagens de redes hidrográficas representadas por arquivos vetoriais digitalizados ou extraídos de modelos digitais de elevação (MDE), tais como os oferecidos pela Shuttle Radar Topography Mission (SRTM). Os arquivos vetoriais são manipulados pela Terralib e utilizados na construção de uma “árvore de rios afluentes”, que denota a hierarquia de rios e, a partir desta, na construção de “árvores cartesianas”, que denotam hierarquias de códigos de “Ottobacias”, os quais serão inseridos nos arquivos vetoriais gerados pelo algoritmo. Além disso, foi criado um aplicativo front – end com o qual é possível manipular algumas informações dos arquivos vetoriais utilizados pelo algoritmo proposto. Para verificação da correção do algoritmo, foi processada a bacia do Rio São Francisco fornecida pela Agência Nacional das Águas (ANA), obtendo – se os mesmos códigos de “Ottobacias” obtidos pela ANA. É importante observar que o algoritmo construído utiliza técnicas eficientes de manipulação de dados em memória externa para posterior extensão para grandes arquivos de MDE, como os do tipo raster.

UFV / XVIII SIC / OUTUBRO DE 2008 / INFORMÁTICA CCE

DESENVOLVIMENTO E IMPLANTAÇÃO DE UMA INFRA-ESTRUTURA DE DADOS ESPACIAIS COM SUPORTE PARA DISPOSITIVOS MÓVEIS

RONOEL MATOS DE ALMEIDA BOTELHO JÚNIOR (Bolsista PIBIC/CNPq/UFV), JUGURTA LISBOA FILHO (Orientador/UFV)

O objetivo do projeto de pesquisa OntoPAgeo é integrar Ontologias de Domínios e Padrões de Análise no contexto de uma Infra-estrutura de Dados Espaciais, com a finalidade de possibilitar, não só o compartilhamento de dados georreferenciados, mas também o reuso do conhecimento sobre domínios geográficos (GeoOntologias) e o reuso de soluções de modelagem conceitual de bancos de dados geográficos (Padrões de Análise). Este é um subprojeto do OntoPAgeo, o qual tem como objetivo principal, desenvolver um Protótipo de uma Infra-estrutura de Dados Espaciais com suporte para armazenamento de dados, metadados, ontologias de domínios e padrões de análise. Estender o acesso a Infra-estrutura de Dados Espaciais, consultando Ontologias de Domínios e Padrões de Análise por meio de dispositivos móveis, visando à implementação de SIG Móveis (Mobile GIS). Neste projeto foi feito um estudo de várias ferramentas para suporte a uma infra-estrutura de dados espaciais, estudo sobre padrões de metadados, do modelo de dados OpenGIS e da Linguagem GML. Configuração e implantação de uma Infra-estrutura de Dados Espaciais utilizando soluções open-source e a especificação de uma aplicação piloto para testar a integração da infra-estrutura de dados espaciais com a aplicação de SIG Móvel, com base em Web Services.

 


UFV / XVIII SIC / OUTUBRO DE 2008 / INFORMÁTICA CCE

GERAÇÃO DE MAPAS EM SVG PARA USO NA WEB

TIAGO GOMES FAGUNDES (Voluntário/UFV), LEACIR NOGUEIRA BASTOS (Coordenador/UFV), Bráuliro Gonçalves Leal (Co-orientador/), Rossini Pena Abrantes (Colaborador/), André Marques Lopes (Colaborador/)

À medida que a tecnologia evolui, os modelos de software também evoluem, com a Internet, é possível a adoção de outros modelos, como o de software como serviço, onde não há a aquisição do software, e sim o direito de usá-lo via Web. Para que esse modelo de negócio continue crescendo, é necessário que as aplicações Web se tornem cada vez mais completas e robustas, para que atendam a necessidades dos clientes. O uso da tecnologia SVG (Scalable Vectorial Graphics), proporciona a construção de imagens complexas, que são acessíveis através de Web Browser, e permite a iteração com o usuário, portanto essa tecnologia pode ser considerada de grande relevância para o desenvolvimento de aplicações. O objetivo desse trabalho é de gerar conhecimento para a utilização da tecnologia SVG na visualização e interação com mapas via Web. Como objetivos específicos temos: (a) a obtenção de dados georeferenciados da Universidade Federal de Viçosa a partir de banco dados PostGis; (b) processamento desses dados (aplicação de filtro através de comandos SQL), (c) geração de mapas em SVG estruturados em camadas, com informações pontuais ao longo do mapa, e tratamento de eventos como click e movimento de mouse. Pode-se concluir que a tecnologia SVG proporciona uma oportunidade para construção de aplicações Web robustas e versáteis, contribuindo com o desenvolvimento de sistemas como o software como serviço. (INTEC CONSULTORIA E ASSESSORIA LTDA )

UFV / XVIII SIC / OUTUBRO DE 2008 / INFORMÁTICA CCE

META-HEURÍSTICAS PARA PROBLEMAS DE PROGRAMAÇÃO DE TAREFAS EM MÁQUINAS COM MÚLTIPLOS CRITÉRIOS  

RODOLFO PEREIRA ARAUJO (Bolsista PROBIC/FAPEMIG/UFV), ANDRE GUSTAVO DOS SANTOS (Orientador/UFV), JOSE ELIAS CLAUDIO ARROYO (Co-orientador/UFV)

Este trabalho trata do problema de just-in-time job-shop scheduling considerando dois critérios, adiantamento e atraso, pois a não entrega da tarefa no tempo esperado pode demandar sua estocagem ou ser penalizada pelo atraso. A solução deste problema, mesmo que aproximada, proporciona uma enorme economia de recursos, motivo de vir sendo amplamente estudado. Para um problema existem “n” tarefas que devem ser processadas em “m” máquinas numa ordem referente a cada tarefa, constituindo “m” operações, sendo que cada máquina processa apenas uma operação por vez. O objetivo é encontrar uma disposição das operações das tarefas de forma a satisfazer otimamente os critérios almejados. Foram utilizadas heurísticas para tentar aproximar uma solução, pois no caso de problemas muito grandes a resolução exata torna-se inconcebível devido ao demasiado tempo necessário para obtê-la. Foi utilizada a meta-heurística GRASP, que possui uma fase de construção para gerar uma solução inicial para o problema, usando regras de despacho baseadas na literatura, e a fase de busca local que tenta aprimorar a solução inicial. Durante a busca local foram implementados dois mecanismos de melhoramento, o método “Insere”, já utilizado, e o “Permuta”, uma proposta para enumeração exaustiva de soluções vizinhas feita com a troca de todos os pares de operações da solução. Devido ao seu bom desempenho, foi feito um aperfeiçoamento e criado o “Permuta com lista de prioridades” que armazena as melhores soluções obtidas até o momento e repete-se o processo para cada uma. Durante a comparação com a literatura mais recente foi constatada uma melhoria significante principalmente para os casos com mais tarefas, mais difíceis de serem resolvidos. Obteve-se um melhor resultado 42 vezes contra 30, significando assim, que se alcançou uma solução mais acertada em 58,33% dos casos, e com menos tempo de processamento, mostrando o potencial do método proposto frente aos recentemente publicados.

UFV / XVIII SIC / OUTUBRO DE 2008 / INFORMÁTICA CCE

METAHEURÍSTICA SCATTER SEARCH PARA O PROBLEMA JOB SHOP SCHEDULING MULTICRITÉRIO

MAYRON CÉSAR DE OLIVEIRA MOREIRA (Bolsista PIBIC/CNPq/UFV), JOSE ELIAS CLAUDIO ARROYO (Orientador/UFV)

Por Job Shop Scheduling Problem (JSSP) entende-se como um problema de escalonamento de n tarefas em m máquinas na qual a ordem de execução das tarefas pode variar em cada máquina, dado que uma mesma tarefa não pode ser executada por mais de uma máquina ao mesmo tempo. É um dos problemas mais difíceis de otimização combinatória, enquadrando-se na classe dos NP-Difícéis. Na literatura existem poucos estudos do JSSP que abordem a otimização simultânea de dois critérios. Este problema consiste em gerar a ordem de processamento das tarefas em cada máquina, visando minimizar critérios tais como makespan (tempo final de processamento das tarefas) e atraso total das tarefas com relação a suas datas de entrega. O objetivo do projeto é propor uma adaptação da metaheurística evolutiva Scatter Search (SS) para a geração de soluções eficientes do problema bem próximas das soluções Pareto-ótimas com reduzido esforço computacional. No algoritmo SS proposto, estratégias como path relinking (para a recombinação de soluções) e um operador de mutação (para a busca local) foram utilizadas. O desempenho do algoritmo foi analisado com relação ao algoritmo genético CMOEA (Crowding Measure Based Multiobjective Evolutionary) proposto na literatura. Utilizando os mesmos problemas usados pelos autores do CMOEA, em média, 43% das soluções do CMOEA foram dominadas por soluções obtidas pelo algoritmo SS, enquanto apenas 8% das soluções do SS foram dominadas por alguma solução do CMOEA. Além disso, do total de 92 soluções não-dominadas encontradas, 19 e 76 soluções foram obtidas pelos algoritmos CMOEA e SS, respectivamente. A partir destes resultados, pode-se concluir que o SS obteve um excelente desempenho em comparação ao algoritmo CMOEA na resolução do problema de escalonamento de tarefas em um ambiente Job Shop. (CNPq)
UFV / XVIII SIC / OUTUBRO DE 2008 / INFORMÁTICA CCE

mPVANet - DESENVOLVIMENTO DE UMA FERRAMENTA DE AUXÍLIO AO ENSINO NA UFV PARA AMBIENTES MÓVEIS

HUGO MAGALHÃES NOGUEIRA (Bolsista PIBIC/CNPq/UFV), MAURO NACIF ROCHA (Orientador/UFV), NIDYANA RODRIGUES MIRANDA DE OLIVEIRA E SILVA (Não Bolsista/UFV)

Nos últimos anos, tornou-se notável o grande desenvolvimento de tecnologias relacionadas aos dispositivos móveis, como laptops, handhelds e smartphones, os quais, munidos de tecnologias sem fio, como infravermelho, Wi-Fi e Bluetooth, se tornam potenciais mecanismos de propagação de conhecimento. Diante desse contexto, se propôs o desenvolvimento de uma aplicação de auxílio ao ensino da Universidade Federal de Viçosa, chamada mPVANet, que pudesse ser disponibilizada para dispositivos móveis e que executasse a mesma função do já existente sistema PVANet, para provimento de conteúdo e comunicação entre alunos e professores da UFV. Foi realizado um estudo para o levantamento das funcionalidades fundamentais ao objetivo do projeto. Depois de definidas as funcionalidades que seriam disponibilizadas no sistema, iniciou-se o desenvolvimento da aplicação, que consiste num sistema web, acessível via web browsers, limpo e com conteúdos adaptados, proporcionando economia de tráfego e correta exibição em dispositivos que apresentam menos capacidade de exibição e processamento. Para a implementação do sistema, foram seguidas regras e estudos sobre a melhor disposição e exibição de conteúdos. Foram utilizadas tecnologias que pudessem ser acessíveis para o maior número de dispositivos, e foram feitos testes em vários dispositivos diferentes para que fosse verificada a adaptabilidade do sistema. O sistema se encontra em fase final de testes, e depois de terminados tais testes, estará disponível em um servidor da Central de Processamento de Dados da Universidade Federal de Viçosa.
UFV / XVIII SIC / OUTUBRO DE 2008 / INFORMÁTICA CCE

PROCEDIMENTO DE ANÁLISE PARA VALIDAÇÃO DE DIAGRAMA DE CLASSES DE DOMÍNIO BASEADO EM ANÁLISE ONTOLÓGICA.

OTÁVIO HUMBERTO SAITER BIASUTTI (Bolsista PIBIC/CNPq/UFV), ALCIONE DE PAIVA OLIVEIRA (Orientador/UFV), DEISYMAR BOTEGA TAVARES (Não Bolsista/UFV)

O processo de desenvolvimento de sistemas informatizados é objeto de estudo da área de Engenharia de Software e a modelagem conceitual, que é parte integrante das fases iniciais desse processo, é uma das mais importantes por revelar o entendimento completo do domínio do problema. Uma forma de auxiliar a modelagem conceitual é fazer o uso de uma análise mais detalhada das propriedades dos objetos pertencentes a um domínio. A este processo dá-se o nome de análise ontológica. Pesquisas neste sentido têm sido desenvolvidas para criar mecanismos que, utilizando a análise ontológica, possam auxiliar na análise dos elementos do domínio da aplicação. O objetivo do projeto foi desenvolver um software que auxiliasse a aplicação do procedimento proposto pela pesquisa de Mestrado da aluna Deisymar Botega Tavares, o PrOntoCon (Pr:procedimento Onto:ontologia e Con:conceitual), O PrOntoCon é um procedimento de análise ontológica voltado para diagramas de classes UML usados na modelagem conceitual para torná-los mais manuteníveis e flexíveis. A técnica, de caráter avaliativo, promove um arranjo mais estável entre as classes e uma separação mais adequada de informação, com base em sua natureza ontológica. A implementação do procedimento e, também, todas as interfaces e mecanismos de serialização de dados foram programados na linguagem JAVA. Como resultado final do projeto foi criado um programa com interfaces de usuário de fácil manuseio, que ajuda o modelador na validação do diagrama dado como entrada e analisa cada classe segundo o procedimento. A saída é um diagrama com uma classificação detalhada das entidades avaliadas. Dessa forma, especificações de sistemas para construção de softwares ficarão mais bem definidas e fáceis para entendimento, principalmente por parte dos programadores do sistema.
UFV / XVIII SIC / OUTUBRO DE 2008 / INFORMÁTICA CCE


PROFACE: PROTOTIPADOR DE INTERFACES COM O USUÁRIO

ANNE GABRIELE SANTEDICOLA DOS SANTOS (Bolsista PIBIC/CNPq/UFV), JOSE LUIS BRAGA (Orientador/UFV)

A prototipação é uma técnica utilizada para auxiliar o levantamento e a validação de requisitos no processo de desenvolvimento de software. Ela estabelece uma linguagem comum entre clientes e desenvolvedores, reduzindo assim os riscos associados com a atividade de extração de requisitos. O objetivo deste trabalho foi desenvolver um sistema que possibilita a prototipação de interfaces com o usuário - o PROFACE. A intenção do PROFACE não é a geração de código, mas permitir a criação/projeto da idéia da interface com cores, botões, textos, imagens, links, navegação entre interfaces, etc. O sistema foi construído utilizando a linguagem de programação Java, e contém manual de uso e um pequeno tutorial sobre desenvolvimento de interfaces. Os clientes, usuários, analistas, desenvolvedores e todos os outros envolvidos no projeto do sistema, conseguem através de um protótipo gerado no PROFACE chegar a um consenso sobre a aparência e o comportamento da aplicação. Os usuários têm uma visão mais concreta do que será desenvolvido e sabem o que podem esperar do sistema. Através do protótipo pode-se identificar o que deve ser modificado enquanto ainda há tempo de fazer alterações sem causar grandes impactos nos resultados finais. A prototipação pode reduzir o número de problemas com a especificação de requisitos porque é possível visualizar requisitos via as interfaces,  e trabalhar com uma materialização do mesmo, antes de implementá-los.
UFV / XVIII SIC / OUTUBRO DE 2008 / INFORMÁTICA CCE

PROTOCOLOS DE DISSEMINAÇÃO DE DADOS EM REDES DE SENSORES

SEM FIO

ROSSINE ALONSO JORGE DE SOUZA PINTO (Bolsista PIBIC/CNPq/UFV), CARLOS DE CASTRO GOULART (Orientador/UFV)

 As Redes de Sensores sem Fio (RSSFs) podem ser aplicadas para monitorar temperatura de ambientes, tráfego de veículos, detectar radiação, algum tipo de substância presente no ar, movimento de pessoas e até mesmo verificar o funcionamento dos órgãos dentro do corpo humano. Os objetivos desse trabalho são: fazer uma análise dos protocolos de difusão de dados em RSSFs; comparar o desempenho de protocolos de difusão de dados através de simulações e estudar a modificação e/ou adaptação dos protocolos existentes para prover mecanismos de Qualidade de Serviço. Primeiramente foram estudados conceitos básicos de redes de computadores e a seguir foi usado um computador PC AMD Athlon™XP 1900+ 1.6GHz, 256MB RAM, 40GB HD, Sistema Operacional Debian GNU/Linux 4.0 Etch, para realizar as simulações. Foram testados alguns simuladores até se chegar ao Network Simulator version 2 (ns2) que se encaixou melhor à demanda do projeto. Foram analisados alguns protocolos existentes, dentre eles o MULTI, protocolo desenvolvido por pesquisadores da UFMG, baseado em alguns algoritmos de roteamento conhecidos. A partir dessa referência foi analisada uma modificação do protocolo MULTI denominado MULTIGEO que inclui informações geográficas de localização. A partir de então, o foco desse projeto voltou-se inteiramente ao estudo desse protocolo. O principal ganho do MULTIGEO está associado ao uso de um único nodo de uma região para enviar e/ou receber dados de nodos de outra região, o que pode gerar uma economia de energia ao se reduzir as mensagens de controle para a definição da árvore de alcançabilidade da rede.

 

UFV / XVIII SIC / OUTUBRO DE 2008 / INFORMÁTICA CCE



REDES NEURAIS ARTIFICIAIS PARA PREVISÃO BASEADA NO COEFICIENTE DE AUTOCORRELAÇÃO

GUSTAVO MELLO REIS (Bolsista PIBIC/CNPq/UFV), JOSE IVO RIBEIRO JUNIOR (Orientador/UFV), ANGELO LAMEU ALVES (Estagiário voluntário/UFV), RAFAEL ROSADO CRUZ (Estagiário voluntário/UFV)

Métodos de previsão são importantes para a diminuição das perdas na indústria, pois a produção poderá ser paralisada antes que o produto defeituoso seja produzido. Os dados coletados seqüencialmente ao longo do tempo podem apresentar autocorrelação, cujos ajustes, dessas séries temporais, podem ser feitos por modelos paramétricos de Box e Jenkins ou não paramétricos, em que as Redes Neurais Artificiais (RNAs) têm se destacado. O presente trabalho buscou a comparação entre os dois métodos anteriores, relacionando a qualidade das previsões com o coeficiente de autocorrelação. Para tanto, foram utilizados dados reais obtidos da internet e simulados a partir do modelo autoregressivo (AR). Para os dados reais foram ajustadas apenas as RNAs, onde se observou uma relação positiva entre a qualidade da previsão, medida pelo erro quadrático médio, e o valor absoluto do coeficiente de autocorrelação (r). Nos dados simulados, as previsões das RNAs foram comparadas com as previsões realizadas pelo modelo AR, sendo observado uma boa proximidade entre as previsões realizadas pelos dois métodos e novamente uma relação positiva entre a qualidade da previsão e o valor absoluto de r. Observou-se também, que nas previsões de curto prazo, realizadas tanto pela RNA quanto pelo modelo AR(2), foram muito semelhantes à previsão ingênua. A relação encontrada entre a qualidade da previsão e o valor absoluto de r, permite uma perspectiva de quantos passos à frente poderão ser previstos, analisando apenas o valor de r. Nos casos onde a necessidade de previsão for de curto prazo, a previsão ingênua poderá ser utilizada.

UFV / XVIII SIC / OUTUBRO DE 2008 / INFORMÁTICA CCE

UMA FERRAMENTA PARA CAPTURA DE COMPORTAMENTO DE AGENTES NO AMBIENTE VIRTUAL UNREAL TOURNAMENT 2004

CARLOS ROBERTO MARQUES JUNIOR (Bolsista PIBIC/CNPq/UFV), VLADIMIR OLIVEIRA DI IORIO (Orientador/UFV)

O desejo de construção de agentes que interajam com pessoas ou com o ambiente em geral é algo bem antigo na humanidade. E esse interesse tem demandado diversas pesquisas por todo o mundo. Diversas empresas já apresentaram protótipos de humanóides que simulam emoções e interagem com os objetos do ambiente. Mas ainda existe muito que pesquisar e trabalhar. Com base nessa linha de pensamento, este trabalho apresenta uma ferramenta que captura os comandos enviados por um usuário durante uma simulação no ambiente provido pelo jogo comercial de tiro em primeira pessoa Unreal Tournament 2004 (UT2004). De posse desses dados, ela armazena essas informações em um arquivo no padrão XML, respeitando o formato definido por um esquema, também criado neste trabalho. A idéia da ferramenta é baseada no conceito conhecido como Programação por Demonstração, que consiste em uma técnica de programação para instruir o computador a aprender novos comportamentos através de exemplos concretos. Desse modo, a ferramenta se coloca entre o ambiente e o usuário, capturando as informações desejadas, armazenando-as e, então, repassando-as para o agente no ambiente virtual. Para a implementação dessa ferramenta é utilizada a plataforma Java na versão 6. Também é utilizada uma biblioteca construída na Universidade Charles em Praga, chamada Pogamut 2. Essa biblioteca provê interfaces para comunicação de uma aplicação Java com um agente dentro do ambiente UT2004. Com base no conjunto de informações obtidas durante a simulação pela ferramenta, é possível, para trabalhos futuros, inferir padrões de comportamento para implementação em agentes inteligentes. Essa idéia pode ser utilizada para construção de sistemas que aprendem com o usuário, conforme a sua utilização.

 
UFV / XVIII SIC / OUTUBRO DE 2008 / INFORMÁTICA CCE

  AVALIAÇÃO DA EFICIÊNCIA DE DELINEAMENTOS DE SUPERFÍCIE DE RESPOSTA: UM ESTUDO VIA SIMULAÇÃO

MARINA QUADRIO RAPOSO BRANCO RODRIGUES (Estagiário voluntário/UFV), ANA CAROLINA MOTA CAMPANA (Bolsista CAPES/UFV), JOSE IVO RIBEIRO JUNIOR (Orientador/UFV)

 Nos processos industriais existem vários fatores que influenciam na qualidade do produto, de modo que, para otimização do processo torna-se necessário o estudo simultâneo dos efeitos destes fatores. Observa-se que o número de ensaios requerido para a experimentação tende a crescer à medida que a quantidade de fatores aumenta, tornando os experimentos muitas vezes inviáveis, dados os custos e tempo elevados de execução. Os delineamentos de superfície de resposta podem diminuir o número de ensaios necessários para o estudo da variável de interesse. Desta forma, o objetivo do trabalho foi avaliar a eficiência dos delineamentos de superfície de resposta, entende-se, Fatorial Completo (FC), Delineamento Composto Central Rotacionado (DCCR) e Delineamento Box-Benhker (DBB). Para tanto, foram simuladas a partir de uma equação definida, valores da variável dependente (Y). Os modelos foram estimados a partir dos delineamentos citados e a eficiência de cada método avaliada através do cálculo do erro quadrado médio e do coeficiente de determinação dos modelos estimados. Para os delineamentos estudados, os coeficientes de determinação (R2) foram, em média, iguais a 99,3%, 98,9%, 99,1%, 99,0%, 98,4%, 98,3%, para FC com 3 repetições, FC sem repetição, DCCR com 3 repetições no ponto central,  DCCR sem repetição, DBB com 3 repetições no ponto central e DBB sem repetição, respectivamente. Desta forma, observa-se que os delineamentos mais saturados (DCCR e DBB) propiciam estimativas da superfície de resposta tão boas quanto os delineamentos completos. Do mesmo modo, as estimativas dos erros quadrados médios (EQM) foram similares, o que não atrapalha a relação estudada em todos os delineamentos.
UFV / XVIII SIC / OUTUBRO DE 2008 / INFORMÁTICA CCE

  METODOLOGIA PARA MANIPULAÇÃO DE DADOS ESPACIAIS DE BANCOS DE DADOS POSTGIS



RODRIGO LUIZ PEREIRA LARA (Estagiário voluntário/UFV), LEACIR NOGUEIRA BASTOS (Orientador/UFV), BRAULIRO GONÇALVES LEAL (Co-orientador/), ROSSINI PENA ABRAANTES (Colaborador/), ANDRÉ MARQUES LOPES (Colaborador/)
Um Sistema de Informação Geográfica (SIG) é um sistema de informação espacial e procedimentos computacionais, que permite e facilita a análise, gestão ou representação do espaço e dos fenômenos que nele ocorrem, muitas vezes através de arquivos Shapefile. Shapefile é um vetor de dados geo-espacial que suporta formas (ex: ponto, retas e áreas) utilizado em sistemas de informação geográfica. Hoje em dia os trabalhos envolvendo informações georreferenciadas estão se tornando cada vez mais comuns e é interessante importar as informações contidas em um arquivo shape para um banco de dados geográfico para que possam ser aplicados filtros através de comandos SQL e assim gerar arquivos shape personalizados. Nesse trabalho pretendemos converter arquivos shapefile para o formato SQL de modo que possam ser importados para bancos de dados PostgreSQL e Postgis. PostgreSQL é um sistema gerenciador de bancos de dados objeto relacional desenvolvido como projeto software livre. Postgis é uma extensão do PostgreSQL que armazena dados de SIG em seu banco de dados. Dessa forma, é possível que arquivos shape personalizados possam ser gerados através de comandos SQL, permitindo que suas informações sejam selecionadas e filtradas. Os arquivos shape depois de personalizados através dos filtros aplicados com comandos SQL poderão ser visualizados através de SIG como ArcView. Para a geração de arquivos shape a partir de tabelas em banco de dados PostGis foi utilizado o GeoServer que é um software livre que integra diversos repositórios de dados geográficos. (INTEC CONSULTORIA E ASSESSORIA LTDA )



©livred.info 2017
enviar mensagem

    Página principal