Les guardrails LLM performent mal sur les langues non-anglaises : les biais de sécurité sont entraînés principalement sur l’anglais, laissant les autres langues exposées.
Lien source
Don’t Trust the Salt: AI Summarization, Multilingual Safety, and LLM Guardrails
Discussion sur Hacker News (225 points)