Agrupamento Via Suavização Hiperbólica com Arquitetura CUDA
Autores
5330 |
Marcelo Signorelli Mendes
|
2408,47,2407
|
5331 |
2408,47,2407
|
|
5332 |
Sergio Barbosa Villas-Boas
(Co-orientador) |
2408,47,2407
|
Informações:
Publicações do PESC
A modelagem matemática para a formulação de problemas de agrupamento segundo o critério de mínima soma de quadrados produz um problema do tipo min-sum-min com a característica de ser fortemente não diferenciável. Utilizando-se a técnica de suavização hiperbólica, é possível transformar o problema original em uma sequência de problemas diferenciáveis de minimização irrestrita com dimensão menor que o problema inicial. Este método é conhecido como Xavier Clustering Method (XCM). Neste trabalho, é introduzida uma nova implementação para o método, denominada XCM-GPU, baseada na arquitetura Nvidia CUDA, para paralelizar partes do algoritmo na unidade de processamento gráfico (GPU) do computador. Para validar esta nova implementação, os resultados do XCM original e do XCM-GPU foram comparados e foi possível verificar que, sem perda alguma de precisão, é possível atingir tempos de execuçãao até 13 vezes menores na versão paralela, demonstrando que, para grandes conjuntos de dados, os benefícios dessa implementação são aparentes.
The mathematical modelling for the formulation of clustering problems according to the criterion of minimum sum of squares leads to a min-min-sum like problem with the characteristic of being strongly non-di erentiable. Using the technique of hyperbolic smoothing, it is possible to transform the original problem into a sequence of di erentiable unconstrained minimization problems with lower dimension than the initial problem. This method is known as Xavier Clustering Method (XCM). In this work it is introduced a new implementation for the method, called XCM-GPU, based on Nvidia CUDA architecture to parallelize portions of the algorithm in the computer's graphics processing unit (GPU). To validate this new implementation, the results of original XCM and XCM-GPU were compared and it was veri ed that, without any loss of accuracy, it is possible to achieve run times up to 13 times smaller in the parallel version which shows that, for large data sets, the benefits of this implementation are clear.