Highlights 92 items
Filters
Face aux biais et aux hallucinations, le raisonnement ne rend pas les LLM plus robustes
法国企业 Giskard 与 Google DeepMind 发布 Phare 基准(Potential Harm Assessment & Risk Evaluation)称:LLM 越新通常越能抵抗偏见、幻觉与越狱,但在“信息操纵/失实(disinformation)”与部分幻觉场景上代际差距并不明显,且模型大小并不必然带来更强鲁棒性(尤其在编码类越狱上,小模型有时反而更稳)。在供应商对比中,
Biais, hallucinations… Les LLM les plus « robustes » en français
法国公司Giskard与Google DeepMind合作开发的基准测试Phare显示,主流大语言模型在英语表现通常优于法语,但存在例外。测试涵盖偏见、幻觉、抗越狱等10个模块,结果显示:在偏见检测中,Llama模型在法语表现反超英语;在事实性方面,Gemini模型领先;而Anthropic的Claude系列在识别虚假信息方面表现突出。该评估揭示了不同模型在多语言环境下的性能差异与特定优势。