Highlights 92 items
Face aux biais et aux hallucinations, le raisonnement ne rend pas les LLM plus robustes
法国企业 Giskard 与 Google DeepMind 发布 Phare 基准(Potential Harm Assessment & Risk Evaluation)称:LLM 越新通常越能抵抗偏见、幻觉与越狱,但在“信息操纵/失实(disinformation)”与部分幻觉场景上代际差距并不明显,且模型大小并不必然带来更强鲁棒性(尤其在编码类越狱上,小模型有时反而更稳)。在供应商对比中,
Biais, hallucinations… Les LLM les plus « robustes » en français
法国公司Giskard与Google DeepMind合作开发的基准测试Phare显示,主流大语言模型在英语表现通常优于法语,但存在例外。测试涵盖偏见、幻觉、抗越狱等10个模块,结果显示:在偏见检测中,Llama模型在法语表现反超英语;在事实性方面,Gemini模型领先;而Anthropic的Claude系列在识别虚假信息方面表现突出。该评估揭示了不同模型在多语言环境下的性能差异与特定优势。
OpenAI lance GPT-5.4-Cyber…une réponse à Claude Mythos
OpenAI推出GPT-5.4-Cyber,作为对Anthropic上周发布的Claude Mythos的回应,标志着AI巨头在网络安全领域展开直接竞争。两家公司采用截然不同的策略:Anthropic的Claude Mythos采用封闭式架构,仅限战略合作伙伴使用;而OpenAI则通过其"可信网络访问"计划向经过验证的个人和团队开放GPT-5.4-Cyber的访问权限。该模型专为安全团队设计,可集