Defesa de Dissertação de Mestrado N.º 541 - Caio Santos Bezerra Nóbrega, em 26/08, às 10hs

postado em 4 de ago de 2014 10:00 por Franklin de Souza Ramalho
Candidato: Caio Santos Bezerra Nóbrega
Título do trabalho: Uma Estratégia para Predição da Taxa de Aprendizagem do Gradiente Descendente para Aceleração da Fatoração de Matrizes
Orientador(es): Leandro Balby Marinho

Data: 26/08/2014
Horário: 10h
Local: Auditório do CEEI

Banca examinadora: Leandro Balby Marinho (orientador),  Edmar Candeia Gurjão (UFCG) e Nazareno Andrade (UFCG).

Resumo: Sugerir os produtos mais apropriados aos diversos tipos de consumidores não é uma tarefa trivial, apesar de ser um fator chave para aumentar satisfação e lealdade destes. Devido a esse fato, sistemas de recomendação têm se tornado uma importante ferramenta para diversas aplicações, tais como, comércio eletrônico, sites personalizados e redes sociais. Recentemente, a fatoração de matrizes se tornou a técnica mais bem sucedida de implementação de sistemas de recomendação. Os parâmetros do seu modelo são tipicamente aprendidos por meio de métodos numéricos, tal qual o gradiente descendente. A performance do gradiente descendente está diretamente relacionada à configuração da taxa de aprendizagem, a qual é tipicamente configurada para valores pequenos, com o objetivo de não perder um mínimo local. Consequentemente, o algoritmo pode levar várias iterações para convergir. Idealmente, é desejada uma taxa de aprendizagem que conduza a um mínimo local nas primeiras iterações, mas isto é muito difícil de ser realizado dada a alta complexidade do espaço de valores a serem pesquisados. Começando com um estudo exploratório em várias bases de dados de sistemas de recomendação, observamos que, para a maioria das bases, há um padrão linear entre a taxa de aprendizagem e o número de iterações necessárias para atingir a convergência. A partir disso, propomos utilizar modelos de regressão lineares simples para predizer, para uma base de dados desconhecida, um bom valor para a taxa de aprendizagem inicial. A ideia é estimar uma taxa de aprendizagem que conduza o gradiente descendente a um mínimo local na primeira iteração. Avaliamos nossa técnica em 8 bases de sistemas de recomendação reais e comparamos com o algoritmo padrão, o qual utiliza um valor fixo para a taxa de aprendizagem, e com técnicas que adaptam a taxa de aprendizagem extraídas da literatura. Nós mostramos que conseguimos reduzir o número de iterações até em 40% quando comparados à abordagem padrão.
Comments