Programação

 
 Quarta-feira
23/11/2011
 Quinta-feira
24/11/2011
09:00-09:30AberturaES05
09:30-10:00SIBD01ES06
10:00-10:30SIBD02ES07
10:30-11:00Coffee breakCoffee break
11:00-11:30SIBD03ES08
11:30-12:00SIBD04RCSD01
12:00-13:30Intervalo para almoçoIntervalo para almoço
13:30-14:00SIBD05RCSD02
14:00-14:30MCC01RCSD03
14:30-15:00MCC02RCSD04
15:00-15:30Coffee breakCoffee break
15:30-16:00ES01RCSD05
16:00-16:30ES02RCSD06
16:30-17:00ES03RCSD07
17:00-17:30ES04RCSD08




  • Autor: Fabio Gomes de Andrade
  • Palavras-chave: infraestruturas de dados espaciais, recuperação da informação, ranking
  • Resumo:
Infraestruturas de dados espaciais (IDEs) têm conquistado uma grande popularidade entre muitos governos como a solução para facilitar a disseminação e o acesso a dados geográficos produzidos por diferentes organizações. Entretanto, os serviços de catálogo oferecidos atualmente por estas infraestruturas para a realização destas tarefas não conseguem explorar a semântica dos recursos oferecidos, o que limita a cobertura e a precisão de suas consultas, e não estabelecem um ranking para o recursos recuperados, o que dificulta a localização de recursos em consultas que retornam uma grande quantidade de resultados. Visando superar estas limitações, este trabalho propõe um modelo que reutiliza as idéias da recuperação da informação clássica, voltada para a descoberta de documentos, para melhorar a localização de dados geográficos oferecidos por IDEs. Ademais, o modelo proposto utiliza ontologias para melhorar a qualidade de consultas e estabelece uma série medidas de ranking que permitem avaliar a relevância de cada recurso recuperado, facilitando o processo de descoberta de informações.
  • Orientador: Cláudio de Souza Baptista
  • Grupos de pesquisa: Sistemas de Informação e Banco de Dados

SIBD02 - Recuperação de Informação baseada em Dados Estruturados e Blind Feedback

  • Autor: Vladimir Soaers Catão
  • Palavras-chave: Integração de informação; busca textual
  • Resumo: 
Integração de dados estruturados e não-estruturados é cada vez mais importante atualmente nas organizações. A recuperação de dados não-estruturados (chamada de Recuperação de Informação, ou simplesmente RI) diz respeito à busca pelos documentos mais relevantes com relação a uma necessidade de informação, expressa como um conjunto de palavras-chave; freqüentemente retorna documentos não-relevantes. Já as consultas a fontes estruturadas são sempre exatas, pois são normalmente construídas numa linguagem precisa (SQL, por exemplo). Assim, esse resultado pode ser usado para melhorar a precisão de aplicações voltadas a RI, baseadas em engenhos de busca textuais. No entanto, nem todos os dados de uma consulta estruturada vão necessariamente melhorar esse desempenho, podendo na verdade, piorá-lo. Dessa forma, propõe-se um novo método para integrar esses dois mundos, usando o resultado de consultas a dados estruturados como evidência de relevância. Um procedimento baseado em blind feedback usará esse resultado para sugerir as tuplas que podem de fato melhorar o desempenho de buscas textuais. Os bons resultados preliminares sugerem a aplicabilidade do método.
  • Orientadores: Ulrich Schiel e Marcus Sampaio
  • Área: Sistemas de Informação e Banco de Dados
  • Autor: Maxwell Guimarães de Oliveira
  • Palavras-chave: Dados espaço-temporais, Visualização, Análise, Data Mining
  • Resumo:
Atualmente um aumento no volume de dados espaço-temporais tem sido notado na web. Um dos principais fatores que tem causado esse aumento é a difusão dos aparelhos com GPS, como os Smartphones. Embora existam vários estudos abordando conjuntos de dados espaciais, poucos levam em consideração a variação temporal que pode haver nesses conjuntos. A maioria das abordagens que tratam da análise visual de dados espaço-temporais revelam limitações no tocante à flexibilidade, praticidade e, principalmente, generalidade. Este trabalho propõe o ambiente GeoSTAT, um visualizador e analisador de dados espaço-temporais baseado na web, independente de domínio, conectável com qualquer servidor web que forneça dados espaciais nos padrões de serviços WMS e WFS estabelecidos pelo Open Geospatial Consortium, e que possibilita, de maneira prática para o usuário, a execução de algoritmos de mineração de dados baseada em regras de associação e clustering, e uma análise visual intuitiva dos resultados. Por meio de estudos de caso em diferentes domínios, é possível mostrar que o ambiente proposto atende melhor as necessidades dos usuários que lidam com dados espaço-temporais, com destaque na interoperabilidade entre SGBDs espaciais no processo de análise visual.
  • Orientador: Cláudio de Souza Baptista
  • Área: Sistemas de Informação e Banco de Dados
  • Autora: Magna Celi Tavares Bispo
  • Palavras-chave: Mineração de texto, extração de informação,linguagem natural, classificação
  • Resumo:
A grande quantidade de documentos textuais digitais inseridos em uma biblioteca digital impossibilita uma classificação manual desses documentos. Esta classificação é importante pelo fato de que há vocabulários iguais para descrever os conceitos diferentes em domínios distintos. Devido à carência de um vocabulário que tenha uma terminologia típica de um domínio, a desambiguação das palavras não acontece de uma forma satisfatória, tornando a classificação do documento, errada. Diante desse problema propomos a criação vocabulários específicos para diversos domínios escolhidos, para posteriormente ser usado como padrão de referência na classificação de novos documentos. Para criação deste vocabulário de forma automática será usada uma técnica de aprendizado baseada em Extração de Informação com Processamento de Linguagem Natural (PLN).  Para comprovação da eficiência dos vocabulários temáticos, faremos uma análise comparativa com outro modelo semelhante ao que foi utilizado, medindo a acurácia da resposta na classificação de documentos.
  • Orientadores: Ulrich Schiel e Carlos Eduardo Pires
  • Área: Sistemas de Informação e Banco de Dados
  • Autor: Odilon Francisco de Lima Junior
  • Palavras-chave: interoperability NoSQL spatial databases
  • Resumo:
Redes sociais espacialmente habilitadas, como Twitter e Foursquare, aliadas a popularidade de dispositivos para coleta de dados geo-referenciados, tais como smartphones, GPS e câmeras, produzem grandes volumes de informação geo-referenciada. Essa informação, em geral, é armazenada em bancos de dados NoSQL.  A necessidade de reunir todo o espectro de informação geo-referenciada nos leva ao tradicional problema de interoperabilidade entre bancos de dados espaciais SQL e NoSQL. Em outras palavras, estamos lidando com um problema de interoperabilidade de dados geográficos a partir de fontes de informação altamente heterogêneas. Este trabalho propõe uma solução para a integração de dados geográficos armazenados em bancos de dados SQL e NoSQL usando serviços de interoperabilidade OGC WMS e WFS. Experimentos conduzidos em bancos de dados espaciais PostgreSQL-PostGIS e CouchDB-GeoCouch  demonstraram que é possível enviar consultas usando a mesma sintaxe para bancos de dados espaciais SQL e NoSQL de uma forma simples e transparente para a aplicação do usuário.
  • Orientadores: Cláudio de Souza Baptista e Carlos Eduardo Santos Pires
  • Área: Sistemas de Informação e Banco de Dados

  • Autor: Paulo de Tarso Firmino Júnior
  • Palavras-chave: Processamento de Imagens; Visão computacional e Análise de Vídeos de Futebol
  • Resumo:
O objetivo geral deste trabalho é investigar as principais técnicas existentes para a detecção de elementos visuais importantes em uma partida de futebol, tais como bola, jogador, grama, entre outros; buscar formas inovadoras de realizar as atividades, realizar um estudo estatístico significativo e produzir uma ferramenta que englobe os melhores detectores.
  • Orientadores: Herman Martins e João Marques
  • Área: Modelos Computacionais e Cognitivos

  • Autor: Cleyton Caetano de Souza
  • Palavras-chave: Query Social, Redes Sociais, Sistemas de Recomendação
  • Resumo: 
Ferramentas de busca nem sempre são a melhor alternativa para encontrar informação na internet. Para perguntas muito pessoais, as respostas de indivíduos em redes sociais pode ser uma estratégia interessante (query social). Entretanto, ao publicar uma pergunta que fica visível a todos, há a possibilidade de se receber diversas respostas, inclusive respostas erradas. Filtrar as respostas e encontrar entre elas o que se deseja pode ser um processo árduo. O roteamento de perguntas (query router) consiste em encontrar o indivíduo que conhece a resposta correta e direcionar a pergunta apenas a ele. Este trabalho propõe um modelo formal para o problema de roteamento de perguntas.
  • Orientadores: Evandro Barros e Joseana Fechine
  • Área: Modelos Computacionais e Cognitivos

ES01 - Análise Comparativa entre Técnicas de Priorização Geral de Casos de Teste no Contexto do Teste Baseado em Especificação 

  • Autor: João Felipe Silva Ouriques
  • Palavras-chave: Teste Baseado em Modelo, Priorização, Experimento
  • Resumo:
A atividade de teste de software consome uma grande parte dos recursos disponíveis para a realização do projeto de desenvolvimento de um sistema. Para lidar com este alto custo, pesquisadores buscam formas de selecionar melhor quais os casos de teste que serão executados e uma delas é a priorização de casos de teste. No contexto do Teste Baseado em Modelo, as atividades de teste são conduzidas partindo de modelos comportamentais que expressam as ações possíveis no sistema, respostas e condições a serem satisfeitas, mesmo antes de o sistema ser desenvolvido. A priorização de casos de teste em estágios iniciais do processo de desenvolvimento de software é pouco explorada na literatura e neste trabalho ela é analisada através de uma revisão sistemática e um estudo experimental. A revisão sistemática conduzida mostrou quais técnicas estão disponíveis e como avaliar seu desempenho. Através do experimento, foi possível identificar uma ordem de desempenho entre as técnicas existentes, e verificar que podem existir evidências em comum sugeridas por outros autores em outros contextos.
  • Orientadora: Patrícia Duarte Lima Machado 
  • Área: Engenharia de Software

ES02 - Filtrando publicidade irrelevante em painéis eletrônicos utilizando ciência de contexto

  • Autor: Leonardo Soares e Silva
  • Palavras-chave: digital signage, sistemas de recomendação, ciência de contexto
  • Resumo: 
Há um crescimento no uso de mídias eletrônicas para divulgação de anúncios publicitários. A sinalização digital (digital signage) é um dos novos meios de comunicação que se utiliza de painéis eletrônicos como televisores LCD, plasma e outras tecnologias, para transmitir sua mensagem. Por estar localizado em ambientes internos, sendo encontrada geralmente em supermercados, hospitais, elevadores, entre outros, a sinalização digital está sendo utilizada pelos publicitários para explorar a oportunidade de anunciar em locais antes inacessíveis aos meios de comunicação tradicionais, como rádio, jornais e televisores.

De modo semelhante ao que ocorreu com a Internet, há um interesse na área acadêmica e comercial pelo estudo de técnicas que melhorem a seleção de anúncios em sinalização digital. A exibição de anúncios irrelevantes é um problema, pois a audiência assiste algo que não lhe é de interesse e os anunciantes divulgam seus produtos às pessoas erradas, consequentemente há uma má gestão dos investimentos em publicidade.

Nessa apresentação será discutida a proposta de um algoritmo cujo objetivo é minimizar a exibição de anúncios irrelevantes em sinalização digital, aproveitando-se das características únicas desse meio de comunicação e utilizando informações implícitas da audiência e dados de contexto.  Também serão apresentados os resultados de um experimento realizado com 112 entrevistados que avaliou o desempenho do algoritmo proposto e o comparou a outros algoritmos de propósito semelhante.
  • Orientadores: Hyggo Almeida e Angelo Perkusich
  • Área: Engenharia de Software
  • Autor: Diego Tavares Cavalcanti
  • Palavras-chave: rastreamento de defeitos; evolução de software; vocabulário de software
  • Resumo:
Sistemas de rastreamento de defeitos, tais como o Bugzilla, são muito utilizados em projetos de desenvolvimento de software para registrar e gerenciar relatórios de defeitos (em inglês, bug reports). A partir de informações contidas nesses relatórios, desenvolvedores precisam conhecer o código-fonte do software e encontrar todas as entidades que serão modificadas para corrigir o defeito descrito. Em projetos grandes, essa atividade demanda um alto custo, dado que tais projetos geralmente contêm muitos módulos, cada um contendo milhares de linhas de código. Nossa proposta é conduzir um estudo científico sobre a possibilidade de relacionar vocabulários de relatórios de defeitos e de código-fonte de modo a identificar automaticamente quais entidades de software serão impactadas por um relatório específico. Para isso, pretendemos utilizar técnicas de recuperação da informação e mineração de repositórios de software.
  • Orientadores: Dalton Serey e Jorge Figueiredo
  • Área: Engenharia de Software

  • Autora: Catuxe Varjão de Santana Oliveira
  • Palavras-chave: Verificação, Conformidade, Testes, Java, JML
  • Resumo: 
Verificação dinâmica é uma técnica comumente utilizada para verificar conformidade entre programas e suas especificações formais por contratos. Entretanto, prover casos de testes manualmente pode ser uma maneira ineficiente em detectar não-conformidades, uma vez que erros podem ser detectados tardiamente dentro do ciclo de vida do software, diminuindo, assim, a qualidade e aumentando os custos. Durante o mestrado, nós propomos uma abordagem para verificar conformidade entre código e especificação formal por contratos através da geração automática e aleatória de testes de unidade. Apesar de não garantir total conformidade, essa abordagem aumenta a confiança em escrever especificações formais. Além disso, nós implementamos JMLOK, uma ferramenta que realiza automaticamente os passos da abordagem proposta no contexto de programas Java especificados com Java Modeling Language (JML). JMLOK foi avaliado tanto em programas pequenos quanto em programas reais, incluindo uma feature especificada em JML do projeto JavaCard. JMLOK foi executado em 16 KLOC e 5 K de linhas de especificação JML, levando menos de 10 minutos de execução e resultando em 29 não-conformidades.
  • Orientadores: Tiago Massoni e Rohit Gheyi
  • Área: Engenharia de Software


ES05- Safira: uma ferramenta para avaliar preservação de comportamento

  • Autora: Melina Mongiovi Cunha Lima Sabino
  • Palavras-chave: Análise de Impacto, Teste de Mutação, Refatoramentos
  • Resumo:
Avaliar o comportamento de uma transformação é necessário em várias atividades, tais como, refatoramentos e teste de mutação. Em refatoramentos, uma transformação deve preservar o comportamento. Por outro lado, em teste de mutação, um mutante deve mudar o comportamento do programa. Uma maneira de garantir preservação de comportamento é definir um conjunto de precondições para cada tipo de transformação. Entretanto, esta não é uma tarefa fácil, pois é necessário provar formalmente baseado na semântica da linguagem. Por isso, as ferramentas implementam as transformações utilizando o senso comum, sem um embasamento formal. Logo, possuem bugs. Para melhorar este cenário propomos Safira, uma ferramenta para avaliar se uma transformação preserva o comportamento. A abordagem é baseada em análise de impacto da mudança e geração automática de testes. Avaliamos a ferramenta no contexto de teste de mutação e refatoramentos. No primeiro, propomos uma técnica para testar ferramentas de teste de mutação, baseada no JDolly, um gerador automático de programas Java, e Safira para detectar mutantes equivalentes. Encontramos 17 bugs em 11 tipos de mutações implementadas pelo MuJava. No contexto de refatoramentos, utilizamos a mesma abordagem e encontramos 27 bugs em 10 tipos de refatoramentos implementados pelo Eclipse e JRRT. Também avaliamos em sistemas reais, incluindo o JHotDraw de 23KLOC, no qual detectamos um refatoramento defeituoso.
  • Orientador: Rohit Gheyi
  • Área: Engenharia de Software
  • Autor: Diego Rodrigues de Almeida
  • Palavras-chave: Sistemas de Tempo Real, Critérios de Cobertura de Modelos, Geração de Casos de Teste
  • Resumo:
Sistemas de software estão cada vez mais complexos e presentes nas nossas vidas permitindo maior conforto, lazer, rapidez na busca por informações, comunicação a longas distâncias, segurança, etc. Muitos desses sistemas, chamados de Sistemas de Tempo Real (STR), possuem restrições de tempo que devem ser cumpridas para evitar depreciação de serviço fornecido ou grandes prejuízos econômicos ou de vidas. Teste é uma atividade no desenvolvimento de sistemas cujo custo pode chegar a ser maior do que o custo do próprio desenvolvimento do sistema. STRs são sistemas que possuem um custo de teste ainda mais elevado do que os sistemas sem restrições de tempo uma vez que suas respostas devem estar corretas tanto logicamente quanto temporalmente. Há na literatura muitos trabalhos que investigam a geração automática de casos de teste a partir de modelos obtidos dos requisitos do sistema. Essa abordagem é conhecida como Teste Baseado em Modelo (TBM). Critérios de geração de casos de teste são utilizados por ferramentas de TBM como diretrizes que guiam a geração dos casos de teste. A escolha do critério de geração determina o algoritmo que as ferramentas usam para gerar testes que por sua vez determina qual o tamanho da suíte que será gerada, quanto tempo leva para gera-los, e quais partes do modelo serão testadas. Por isso, a qualidade dos casos de teste gerados no tocante ao custo e capacidade de revelar faltas está diretamente relacionada ao critério de geração adotado. No contexto de STR e levando em conta critérios de cobertura de modelos, esse trabalho investigará a capacidade de revelar faltas dos critérios de geração utilizados na literatura.
  • Orientadores: Patrícia Duarte de Lima Machado e Wilkerson de Lucena Andrade
  • Área: Engenharia de Software

ES07 - MetaTT – Uma Abordagem Baseada em Metamodelos para a Escrita de Transformações Textuais

  • Autor: Anderson Rodrigo Santos Bezerra Ledo
  • Palavras-chave: Desenvolvimento Dirigido por Modelos, Geração de Sintaxe Concreta, Transformações de Modelo para Texto
  • Resumo:
MetaTT é uma abordagem operacional para a construção de transformadores de modelo para texto dentro do contexto do Desenvolvimento Dirigido por Modelos (DDM). Pela falta de diretrizes claras na literatura para a escrita de transformações usando linguagens de transformação de modelo para texto, nós propomos uma abordagem composta de (1) um conjunto de diretrizes para boas práticas na implementação de transformações textuais, (2) uma arquitetura para a organização das transformações textuais e (3) o suporte ferramental para a geração automática dos principais artefatos de transformação. Dentro do processo proposto pelo MetaTT, o desenvolvedor de transformações provê um metamodelo, especifica decisões da alto nível para o gerador de sintaxe concreta, usa o suporte ferramental para gerar a maior parte das transformações textuais e completa a implementação de templates simplificados para a especificação da sintaxe a ser gerada. O objetivo da abordagem é diminuir o esforço necessário para a obtenção do gerador de sintaxe concreta e mensurar ganhos de qualidade nos geradores em comparação com uma abordagem ad-hoc.
  • Orientador: Franklin de Souza Ramalho
  • Área: Engenharia de Software

ES08 - Monitoramento, Acompanhamento e Tratamento de Pessoas usando Computação Pervasiva e Controle Supervisório

  • Autor: Elthon Allex da Silva Oliveira
  • Palavras-chave: Computação pervasiva, controle supervisório e doenças crônicas
  • Resumo:
Com o avanço da medicina, cada vez menos pessoas morrem por conta de doenças contagiosas, aumentando assim a expectativa de vida média da população mundial. Aliado a isso, hábitos de vida não saudáveis provocaram aumento no número de casos de doenças crônicas. Neste contexto, pode-se dizer que os médicos trabalham em duas vertentes: a prevenção e o tratamento. Em ambos os casos, a pessoa deve implementar certas recomendações médicas em seu estilo de vida para que seu estado de saúde possa ser, de certa forma, controlado. Este estado de saúde compreende informações sobre aspectos fisiológicos e comportamentais do indivíduo. Todavia, é fácil observar que o estilo de vida do indivíduo também está relacionado com o seu ambiente. A área de estudo que se propõe a estudar a relação entre as doenças manifestadas numa sociedade e os fatores ambientais correspondentes é a chamada Ecologia da Saúde. A ecologia da saúde aprofunda-se na interação entre o ser humano, seu estado de saúde, os locais que frequenta (sua casa, seu trabalho, etc) e seu estado mental.

Como no modelo tradicional, em geral, o indivíduo se submete a exames de forma esporádica, este pode passar de um estado considerado "saudável" para um "não saudável irreversível" entre um exame e outro. Uma maior quantidade de exames poderia identificar algum estado de saúde "intermediário" a partir do qual, seguindo as recomendações médicas, o indivíduo possa se recuperar. É neste ponto que pretende-se usar a computação pervasiva. Usando este paradigma, o indivíduo e seu ambiente passam ser monitorados constantemente. A dinâmica de evolução do ecossistema pode ser representada por um modelo de eventos discretos, da mesma forma que os sistemas de manufatura ou plantas de processamento de gás e petróleo.

Desta forma, visto que o monitoramento do ser humano e do ambiente em que vive ocorre discretamente, o controle de saúde do primeiro pode ser feito utilizando ferramentas matemáticas usadas no contexto de sistemas a eventos discretos. De forma mais objetiva, pode-se usar a chamada teoria do controle supervisório para acompanhar e manter o estado de saúde de um indivíduo qualquer. Tal controle pode ser vir tanto para evitar que uma pessoa saudável se torne doente ou para que uma pessoa acometida por alguma doença crônica desvie de seu tratamento. Com o ecossistema e as recomendações formalizadas, é possível verificar matematicamente propriedades de interesse, tais como ausência de conflitos entre tratamentos.

Pretende-se validar os resultados do trabalho comparando as situações e que o indivíduo se encontra e a recomendação feita pelo controle com recomendações feitas por um profissional de saúde.
  • Orientador: Angelo Perkusich e Leandro Dias da Silva
  • Área: Engenharia de Software
  • Autor: Elmano Ramalho Cavalcanti
  • Palavras-chave: mobilidade, métrica, dependência espacial, redes ad hoc móveis
  • Resumo:
Neste artigo, mostra-se que as atuais métricas de mobilidade espacial não contemplam a dependência espacial entre dispositivos móveis durante períodos sem movimento. Propondo-se sanar essa deficiência, apresenta-se uma nova métrica de mobilidade denominada Grau de Proximidade entre Nós (GPN). Através de simulações, a métrica GPN é comparada com uma métrica de referência utilizando-se um abrangente conjunto de modelos de mobilidade. GPN  possibilitou capturar o  nível  de  dependência  espacial  para  diferentes níveis de tempo de pausa dos dispositivos móveis, além de não ter sido influenciada pela velocidade destes. Adicionalmente, propõe-se um modelo de regressão para predição do valor da métrica GPN contemplando um coeficiente de determinação de 93%.
  • Orientador: Marco Aurélio Spohn
  • Área: Redes de Computadores e Sistemas Distribuídos

RCSD02 - Avaliando o impacto do planejamento de contratos de longa duração em uma infraestrutura híbrida de TI

  • Autor: Paulo Ditarso Maciel Jr.
  • Palavras-chave: Computação na Nuvem, Computação em Grade, Gerenciamento Dirigido à Negócio
  • Resumo:
O mercado de Computação na Nuvem (do inglê, Cloud Computing) surgiu como uma alternativa para o provisionamento de recursos, com um modelo de mercado do tipo "pague-pelo-que-você-usa". Esta flexibilidade permite que clientes de soluções baseadas neste mercado reduzam o custo total de propriedade (do inglês, Total Cost of Ownership) de suas infraestruturas de Tecnologia da Informação (TI). Por outro lado, este modelo de mercado não é a única alternativa para redução de custos. Dentre várias outras alternativas, a computação em grades voluntárias entre pares (do inglês, Peer-to-Peer Grid Computing) tem sido utilizada como uma forma de habilitar uma economia simples para troca de recursos ociosos. Neste trabalho, consideramos uma infraestrutura híbrida de TI que toma benefício destas duas estratégias. Nesta infraestrutura híbrida o poder computacional pode ser obtido a partir de recursos locais dedicados, recursos adquiridos de provedores de computação na nuvem e recursos recebidos como "doações" de uma grade P2P. Consideramos uma abordagem de gerenciamento dirigida à negócios para maximizar o lucro obtido por esta infraestrutura híbrida através da execução de aplicações com restrições de tempo.

A execução destas aplicações produz uma "utilidade" associada, enquanto o custo pode ser quando os recursos forem utilizados, ou mesmo quando estão ociosos. Assumimos que recursos dos provedores de computação na nuvem estarão disponíveis ou através de uma reserva antecipada ou sob-demanda. Analisamos o impacto no lucro alcançado dos contratos de longa duração estabelecidos que são estabelecidos com os provedores de computação na nuvem. Antecipar qual seria o melhor contrato não é possível devido a diversas incertezas inerentes ao sistema, como por exemplo, erros na predição da demanda de carga de trabalho, falta de garantias na qualidade de serviço da grade P2P e flutuações nos preços futuros dos recursos adquiridos sob-demanda. Entretanto, demonstramos que um planejamento criterioso dos contratos de longa duração pode resultar em um lucro muito próximo do lucro obtido pelo melhor cenário de contratos. Em particular, modelamos o planejamento como um problema de otimização e demonstramos que a execução deste modelo é robusta às incertezas inerentes ao sistema, produzindo um lucro que, em alguns cenários, chegam a ser o dobro do lucro obtido por estratégias comuns para contratos de reserva com provedores de computação na nuvem.
  • Orientador: Francisco Brasileiro
  • Área: Redes de Computadores e Sistemas Distribuídos

  • Autor: Ricardo Araújo Santos
  • Palavras-chave: cloud computing, saas, escalonamento, provisionamento dinâmico
Resumo: Nos últimos anos, a ideia de oferecer computação como um serviço utilitário, como energia elétrica, vem se tornando uma realidade e modificando setores da indústria e academia. Aplicações como serviço (Software-as-a-Service - SaaS) possuem características como cobrança em grão pequeno, multi-locação, alta escalabilidade, facilidade de migração, entre outras; trazendo vantagens tanto para o usuário final como para o provedor da aplicação. O problema de provisionamento de recursos não é novidade na comunidade acadêmica muito menos nos departamentos de TI das empresas. Do ponto de vista do provedor das aplicações, ele impacta diretamente nos lucros. Métricas técnicas têm sido usadas para realizar a gerência a curto prazo da infraestrutura usada na execução da aplicação. O objetivo principal dessa pesquisa é investigar a viabilidade do uso de técnicas dirigidas por métricas de negócio para o provisionamento dinâmico de recursos para execução de SaaS. Características importantes das aplicações foram incorporadas num modelo e heurísticas que tomam decisões à luz de tais métricas vêm sendo desenvolvidas e avaliadas num cenário inicial de comércio eletrônico.
  • Orientadora: Raquel Vigolvino Lopes
  • Área: Redes de Computadores e Sistemas Distribuídos

  • Autor: David Candeia Medeiros Maia
  • Palavras-chave: Software-as-a-Service, E-commerce, Capacity Planning
  • Resumo:
A oferta de aplicações de comércio eletrônico que buscavam atender um grande número de clientes, ou ainda, que estavam sujeitas a fortes restrições, despertou na última década um forte interesse a respeito do gerenciamento das infraestruturas de provedores de serviços considerando métricas de negócios. Com o surgimento do mercado de Computação na Nuvem (Cloud Computing), novos modelos de serviços de computação surgiram no mercado. Dentre tais modelos destaca-se o modelo de Aplicação como Serviço (Software-as-a-Service, SaaS) que atualmente abrange uma grande variedade de aplicações como, por exemplo, gerenciadores de tarefas, editores de documento, editores de imagens e aplicações de comércio eletrônico. Um outro modelo de destaque é o modelo de Infraestrutura como Serviço (IaaS) que permite a contratação de recursos computacionais (processamento, transferência, armazenamento, etc.) para composição de infraestruturas. Tendo por base o modelo SaaS e o modelo IaaS este trabalho tem por objetivo avaliar técnicas de planejamento de capacidade orientadas a negócio para aplicações de comércio de eletrônico no contexto de SaaS.
  • Orientador: Francisco Vilar Brasileiro
  • Área: Redes de Computadores e Sistemas Distribuídos

RCSD05 - Um simulador discreto escalável e extensível do OurGrid

  • Autor: Abmar Grangeiro de Barros
  • Palavras-chave: OurGrid, OurSim, grid, simulador
  • Resumo:
Por falta de padrões de simulação no contexto de computação em grade, a grande maioria dos pesquisadores acaba reescrevendo seus simuladores, e de forma ad-hoc. Isso acarreta num retrabalho de design,  implementação e validação. Cada publicação que apresenta um novo simulador carrega os riscos de uma validação com erros, possivelmente evitados com o reuso de um simulador amadurecido, e entrega um modelo simplista, seja do ponto de vista da aplicação ou da plataforma, que muito provavelmente não será reaproveitado (ou reproduzido) em trabalhos futuros.

Esse fato pode ser observado nas publicações relacionadas ao OurGrid, middleware de grade computacionais entre pares desenvolvido no Laboratório de Sistemas Distribuídos desta Universidade. Vários autores implementaram diferentes simuladores para avaliar diferentes aspectos do middleware em questão.

O objetivo desse trabalho é apresentar as técnicas de desenvolvimento de um simulador discreto do OurGrid a partir de um modelo genérico o suficiente para ser facilmente reusado em diferentes níveis de abstração e de funcionalidade. Isso significa abordar no modelo o maior número de aspectos inerentes ao sistema real e tornar a aplicação desse modelo no simulador configurável.
  • Orientador: Francisco Brasileiro
  • Área: Redes de Computadores e Sistemas Distribuídos
  • Autor: Rafael de Brito Cândido Gomes
  • Palavras-chave: Redes sem fio, Wi-Fi, faixa de frequência, 900 MHz, 2.4 GHz, análise comparativa, IEEE 802.11
  • Resumo:
O uso da comunicação sem fio é bastante difundido na atualidade. A sociedade moderna utiliza de forma frequente em aparelhos como celulares, PDAs, notebooks, rádio e televisão para acessar uma variada gama de informações. Tais equipamentos utilizam sistemas de transmissão de dados por radiofrequência (i.e., por meio de ondas eletromagnéticas). Logo isto acaba gerando uma intensa ocupação da faixa espectral, que ocasiona interferência nas redes sem fio próximas. Então temos a degradação da qualidade do sinal de transmissão das redes wireless. Mas alguns fabricantes de rádios wireless produzem rádios sem fio para operar na faixa de 900 MHz utilizando diversos tipos de padrões, entre eles, o IEEE 802.11. Portanto o nosso objetivo é verificar se o padrão IEEE 802.11b e IEEE 802.11g é adequado para operar na faixa de freqüência de 900 MHz, fazendo uma análise comparativa de desempenho com uma rede operando na faixa de frequência de 2.4 GHz.
  • Orientador: Marco Aurélio Spohn
  • Área: Redes de Computadores e Sistemas Distribuídos
  • Autor: Giovanni de Almeida Calheiros
  • Palavras-chave: TCP, Janela de Congestionamento, Partida Lenta, Compartilhamento
  • Resumo:
Os algoritmos de controle de congestionamento do protocolo TCP exercem um importante papel ao evitar que a rede entre em estado de congestionamento. Para isso, o TCP adota uma abordagem conservadora a fim de encontrar valores ideais para os parâmetros de uma conexão, por exemplo, a taxa de transmissão. Neste ponto, tenta-se evitar retransmissão de dados e aumentar o grau de compartilhamento do canal com todos os outros nós conectados à rede. O problema dessa abordagem é que o TCP sempre inicia com uma taxa de transmissão muito inferior se comparada à largura de banda disponível. Para minimizar este problema, na fase de partida lenta, o TCP aumenta exponencialmente a taxa de transmissão à medida que os segmentos transmitidos são confirmados pelo receptor. Esta estratégia não é suficiente para fluxos de curta duração, por exemplo, o download de uma página web, pois o TCP subutiliza os recursos de rede e consequentemente aumenta o FCT (Tempo de Realização do Fluxo - Flow Completion Time). Nesse trabalho propõe-se o desenvolvimento de uma mecanismo colaborativo para inferência do valor inicial da janela de congestionamento do TCP através do compartilhamento dos blocos de controle de outras conexões já realizadas. Dessa forma, as conexões que transmitem pequenos fluxos e com alto BDP não sofreriam na fase de partida lenta, aumentando a taxa de transmissão e diminuindo o tempo de transferência.
  • Orientadores: Hyggo Almeida e Angelo Perkusich
  • Área: Redes de Computadores e Sistemas Distribuídos

RCSD08 - Redes de Sensores sem Fio Aplicadas ao Monitoramento de Motores em Ambiente Industrial

  • Autor: Ruan Delgado Gomes
  • Palavras-chave: Redes de sensores sem fio industriais, ocupação espectral, monitoramento de motores
  • Resumo:
A otimização do uso da energia, diminuindo custos e reduzindo o impacto ambiental, tem sido motivo de grande preocupação nos diversos setores da sociedade. Nesse contexto, a utilização de sistemas de automação industrial inteligentes e de baixo custo para monitoramento de motores na indústria pode representar uma ferramenta muito útil, possibilitando a diminuição do uso da energia elétrica nesse setor. Tradicionalmente, o monitoramento de energia e detecção de falhas em sistemas industriais são realizados de forma off-line ou através de redes cabeadas. Essa abordagem apresenta um alto custo e pouca flexibilidade, devido principalmente à necessidade de utilização de cabos, o que dificulta o processo de instalação e manutenção da rede. Uma alternativa para construção de sistemas de monitoramento industrial flexíveis e de baixo custo é a utilização de redes de sensores sem fio (RSSF).  Entretanto, a aplicação dessas redes em ambiente industrial apresenta uma série de desafios. Os erros de transmissão e a capacidade variável do enlace são um dos fatores mais críticos na aplicação das RSSFs em um ambiente industrial. Esse trabalho propõe o desenvolvimento de uma RSSF para monitoramento em tempo real de motores em ambiente industrial. A rede é formada por nós inteligentes que realizam localmente o processamento para estimação do parâmetros desejados e transmitem esses valores para uma unidade central de monitoramento. Foram realizados estudos experimentais para observar a relação entre o desempenho da rede de sensores e a ocupação espectral no ambiente de operação, verificando o impacto causado pela inserção de fontes de interferência. Esses estudos demonstraram que o uso de nós inteligentes, com capacidade de processamento local, é essencial para este tipo de aplicação, provocando uma grande redução na quantidade de dados transmitidos na rede e tornando possível o monitoramento dos motores, mesmo em cenários de alta interferência. Além disso, os estudos fornecem informações que podem guiar o desenvolvimento de novas tecnologias e protocolos para redes de sensores sem fio industriais.
  • Orientador: Marco Aurélio Spohn
  • Área: Redes de Computadores e Sistemas Distribuídos
Comments