250 documents suffisent pour empoisonner n’importe quel LLM

Comment 250 documents malveillants peuvent corrompre un LLM, quelle que soit sa taille. Une vulnérabilité majeure révélée par Anthropic, un petit nombre d’échantillons suffit à empoisonner un modèle d’IA.

Source