Simulating Real Profiles for Shilling Attacks: A Generative Approach
Autores
7465 |
2874,312
|
|
7466 |
2874,312
|
Informações:
Publicações do PESC
Filtragem Colaborativa (CF) é vulnerável a Shilling Attacks, onde usuários mal-intencionados injetam perfis falsos para manipular recomendações. Modelos atuais frequentemente usam técnicas estatísticas simples, resultando em perfis com padrões de avaliação distintos dos dados reais, o que facilita a detecção e requer um número maior de perfis para ser eficaz. Para resolver esse problema e criar perfis mais realistas, propomos o uso de um modelo generativo, Variational Autoencoder (VAE), que mapeia a distribuição dos dados reais. O VAE gera novos perfis baseados em dados reais sem copiar diretamente as avaliações, e esses perfis gerados são transformados em perfis maliciosos ao adicionar a avaliação do item alvo. Validação da proposta foi feita com diferentes bases de dados, comparando nosso modelo com os da literatura. Os resultados mostram que nosso modelo supera outros, especialmente em ataques menores (3% a 5%) no MovieLens 100k. A análise dos perfis gerados revelou que eles têm padrões de avaliação semelhantes aos perfis reais. Experimentos subsequentes com técnicas de detecção confirmaram que nosso modelo é menos detectável no MovieLens 100k. Também verificamos que abordagens de limpeza de dados são eficazes quando o administrador tem um conjunto confiável de usuários. Nosso modelo representa um avanço em Shilling Attacks, oferecendo resultados superiores e maior indistinguibilidade, sendo útil para testar técnicas de detecção e outras tarefas na área.
Collaborative Filtering (CF) systems are vulnerable to Shilling Attacks, where malicious users inject fake profiles to manipulate recommendations. Existing Shilling Attack models often use simplistic statistical templates, resulting in profiles with distinct rating patterns that are easier to detect and require more profiles to be effective. To address this issue, we propose using a Variational Autoencoder (VAE) to generate profiles that closely resemble real system data. Unlike traditional methods, VAE maps the original data distribution to create new profiles without directly copying actual ratings. These generated profiles are then modified to become malicious by altering the target item’s rating. We validated our approach across different datasets and compared it with existing attack models. Our results demonstrate that our model outperforms others in model-based CF systems, especially with smaller attack sizes (3% to 5%) using the MovieLens 100k dataset. A correlation analysis of the generated profiles shows they have rating patterns similar to real profiles, and detection experiments confirm our model is less detectable. Furthermore, we found that Data Cleansing approaches can mitigate attacks when the system administrator has a reliable user set. Our model advances Shilling Attack techniques by producing more realistic profiles and achieving superior results, making it a valuable benchmark for testing detection methods and exploring further research in Shilling Attacks.