Adversarial Selection of Challenge-Response Pairs as a Defense Against Strong PUF Modeling Attacks
Autores
6774 |
2489,3030,3031
|
|
6775 |
2489,3030,3031
|
|
6776 |
2489,3030,3031
|
Informações:
Publicações do PESC
Neste trabalho, apresentamos métodos para melhor proteger os mecanismos de autenticação incorporados em hardware conhecidos como Physically Unclonable Functions (PUFs). Esses mecanismos usam as características físicas únicas dos chips nos quais estão inseridos para criar um conjunto de respostas que se mostraram vulneráveis a ataques de modelagem por aprendizado de máquina. As técnicas desenvolvidas aqui são focadas no uso do Aprendizado de Máquina Adversarial para selecionar as cadeias binárias usadas para as operações de autenticação em questão, comumente conhecidas como Challenge-Response Pairs, para proteger os dispositivos que utilizam esses PUFs de terem suas credenciais de autenticação copiadas. O resultado desta pesquisa é uma série de métodos que se aplicam a diferentes cenários que reduzem a precisão de possíveis ataques de modelagem em até 19%.
In this work, we present methods to further secure authentication mechanisms embedded in hardware known as Physically Unclonable Functions (PUFs). These mechanisms use the unique physical characteristics of the chips they are embedded in to create a set of responses were found to be vulnerable to Machine Learning modelling attacks. The techniques developed herein are focused on using Adversarial Machine Learning to select the binary strings used for the authentication operations in question, commonly known as Challenge-Response Pairs, in order to protect the devices using these PUFs from having their authentication credentials copied. The result of this research are a series of methods that apply to dierent scenarios that reduce the accuracy of possible modelling attacks in up to 19%.