DeepSeek-V4:中国AI技术栈的严肃展望
Silicon.fr · 04-24 16:18 2026-04-24
网络安全,被恐惧所囚禁
Silicon.fr · 04-23 13:50
Arm发布其首款处理器
VIPress.net · 04-20 16:08
Filters
Clear All
面对偏差和幻觉,推理并不会让大语言模型(LLM)更健壮

Face aux biais et aux hallucinations, le raisonnement ne rend pas les LLM plus robustes

法国企业 Giskard 与 Google DeepMind 发布 Phare 基准(Potential Harm Assessment & Risk Evaluation)称:LLM 越新通常越能抵抗偏见、幻觉与越狱,但在“信息操纵/失实(disinformation)”与部分幻觉场景上代际差距并不明显,且模型大小并不必然带来更强鲁棒性(尤其在编码类越狱上,小模型有时反而更稳)。在供应商对比中,

Silicon.fr 人工智能 网络安全 Silicon.fr OpenAI Google
偏见、幻觉……法语中最“稳健”的大语言模型

Biais, hallucinations… Les LLM les plus « robustes » en français

法国公司Giskard与Google DeepMind合作开发的基准测试Phare显示,主流大语言模型在英语表现通常优于法语,但存在例外。测试涵盖偏见、幻觉、抗越狱等10个模块,结果显示:在偏见检测中,Llama模型在法语表现反超英语;在事实性方面,Gemini模型领先;而Anthropic的Claude系列在识别虚假信息方面表现突出。该评估揭示了不同模型在多语言环境下的性能差异与特定优势。

Silicon.fr 人工智能 科研 STMicroelectronics Silicon.fr OpenAI