Aprendizado por Reforço Aplicado a Meta-Escalonamento
Autores
4431 |
160,1986
|
|
4432 |
160,1986
|
Informações:
Publicações do PESC
Algoritmos de escalonamento de tarefas em grids são um dos fatores primordiais da utilização eciente deste tipo de infraestrutura. Estes sofrem das limitações que um ambiente de grid impõe sobre a real estimação do estado de seus recursos computacionais. Neste contexto, este trabalho realiza um estudo em ambiente real de execução sobre dois possíveis algoritmos de escalonamento baseados na estimação da eciência dos recursos computacionais, feita a partir da técnica de aprendizado por reforço. É realizada uma discussão sobre o ajuste possível de parâmetros internos à estimação da eciência dos recursos computacionais, e sobre o comportamento destes algoritmos na presença de reescalonamento. Os resultados mostram os ganhos ou perdas reais obtidas nos cenários avaliados e servem também para validar trabalhos já realizados em ambiente simulado.
Scheduling of jobs on grids is one of the most important tasks to use resources efciently. In such environments, the resource's state is estimated with great uncertainity and the information is not completely reliable. This work studies two scheduling algorithms based on resource's efciency, which use the reinforcement learning technique. A discussion of internal parameter's tuning of this technique is performed as well as the behaviour of these two heuristics in the presence of rescheduling. The results here presented show the gains and losses on the built scenarios and validate other related works produced on simulated environments.