Informações:

Publicações do PESC

Título
Heurísticas para Controle de Re-Execução Paralela de Workflows Científicos em Nuvens de Computadores
Linha de pesquisa
Engenharia de Dados e Conhecimento
Tipo de publicação
Dissertação de Mestrado
Número de registro
Data da defesa
10/9/2012
Resumo
Gerenciar workflows científicos quando os mesmos estão associados a aplicações de alta complexidade é um desafio. A ciência atual se tornou fortemente baseada dos avanços de hardware e de novas soluções computacionais. Muitos destes workflows são formados por milhares de atividades e que em apenas uma execução do experimento, suas atividades podem ser processadas milhares de vezes, chegando a casos onde temos mais de 100.000 atividades sendo executadas, para que o resultado seja gerado. Neste contexto, a computação de alto desempenho é uma alternativa importante e em especial as nuvens computacionais. Nuvens oferecem alto poder de processamento a um custo flexível, o que o torna viável, e ainda possuem baixa complexidade na sua utilização. Quando os cientistas utilizam os recursos de uma nuvem de computadores, não estão mais limitados aos recursos de uma máquina específica. Passam a poder optar por uma configuração específica para cada workflow a ser executado. Devido ao seu caráter distribuído, a utilização de recursos computacionais na nuvem traz consigo algumas questões como erros causados por flutuações de desempenho de hardware, problemas de comunicação e concorrência. Além da gerência da execução, outro problema que vem à tona é como podemos garantir que, ao término da execução de um workflow, todas as atividades de fato tenham sido executadas sem erro. Esta dissertação apresenta soluções que visam a maximizar a probabilidade de sucesso da execução de um workflow, diminuindo assim o retrabalho do cientista. O foco foi maior em questões como custo e desempenho.
Abstract
Managing scientific workflows when associated with applications of high complexity, is a challenge. Nowadays science has become highly based on advances in computer software and hardware solutions. Many of these workflows are composed by thousands of activities. When executing an experiment, these workflows can be executed thousands of times, and there can be more than 100,000 activities being executed to generate the result. In this context, high-performance computing is an important alternative in particular cloud computing. Clouds provide high processing power at a flexible cost, which can match the scientist budget and present low complexity involved in its use. When scientists choose to use resources of a cloud environment, they are no longer limited to the resources of a particular machine. They become able to choose a specific configuration for each workflow to be executed. Due to its distributed nature, the use of computational resources in the cloud brings some issues such as errors caused by hardware performance fluctuation, problems of communication and resource competition. Another important problem to be treated is how can we ensure that by the end of a workflow execution, all the activities that should have been executed have really completed. This dissertation presents to solutions aimed at maximizing the probability of workflow completion, reducing scientists rework. We focus in some issues such as cost and performance.
Topo