生成式人工智能如何重塑网络威胁格局

Comment l’IA générative remodèle le paysage des cybermenaces

Silicon.fr by Philippe Leroy 2026-03-12 12:26 Original
摘要
法国国家网络安全局 ANSSI 在其 2025 年《网络威胁全景》中指出,生成式 AI 并没有创造全新攻击方式,而是让钓鱼、恶意网站和攻击基础设施的制造更高效、更便宜,从而降低了低水平攻击者的门槛。ANSSI 还警告,AI 生成内容会污染训练数据、使大模型本身成为攻击目标,并扩大企业在数据泄露、软件供应链和声誉方面的风险。为此,ANSSI 建议企业对 AI 系统进行隔离部署、持续监控流量、开展更广泛审计,并把 AI 安全纳入应急与恢复计划。

生成式AI并没有创造全新的攻击类型,而是把既有手法“工业化”了。这是法国国家网络安全局 ANSSI 在 2025 年版《Panorama de la cybermenace》中得出的核心判断:AI 正在显著提升网络攻击的规模、质量和可负担性。

ANSSI 指出,最直接的变化首先体现在钓鱼攻击上。借助生成式AI,攻击者可以批量生产更逼真的诱饵内容,过去那些容易暴露破绽的语法错误、文风不自然等特征正在消失。结果是,恶意邮件更具说服力、产量更高、样式更多样,而且成本更低。与此同时,攻击基础设施的维护成本也被压低,使得技术能力较弱的行为体也更容易入场。

更具体的威胁之一,是AI生成的“以假乱真”网站。ANSSI 观察到,一些网站外观看起来完全合法,实际上却是由AI系统自动生成,用于托管恶意载荷,或执行其所称的“caractérisation”——即在受害者被入侵前先对访问者进行技术画像和探测。该机构之所以识别出这些网站的人工智能痕迹,是因为页面中出现了一个异常信号:段落中夹杂着与上下文毫无逻辑关系的混乱文本。这个细节也说明,在当前阶段,人工判断仍然是检测链条中的关键环节。

ANSSI 还强调了一个更深层的系统性风险:生成式AI不仅会被用来攻击用户,也可能反过来污染AI模型本身。由于大语言模型依赖网络上的公开数据进行训练,如果互联网上充斥着大量由其他AI生成、且带有恶意或错误信息的内容,未来模型就可能把这些偏差和不准确性吸收进自己的回答中。更严重的是,恶意行为者已经在有意利用这一点,通过向网络投放大量伪造内容,试图扭曲AI服务的行为和输出结果。因此,生成式AI服务本身如今已成为独立的攻击目标。

在企业环境中,AI的广泛接入也在机械性地扩大攻击面。ANSSI 归纳出几类主要风险:其一是数据机密性与完整性风险,受损的AI系统可能成为进入整个信息系统的跳板,导致敏感数据外泄,或影响与之相连的信息系统完整性;其二是软件供应链风险,这被ANSSI视为最具结构性的威胁之一——如果一个专门用于生成代码的AI系统被攻破,攻击者可能在开发团队毫不知情的情况下,把漏洞或后门植入最终代码中,形成一种隐蔽、难以察觉的新型供应链攻击;其三是声誉与经济风险,任何与AI系统相关的数据泄露都会冲击客户信任,对部分组织而言甚至可能带来生存性后果。

针对这些风险,ANSSI 发布了专门面向基于大语言模型(LLM)的生成式AI解决方案安全指南,核心建议可以概括为“隔离、监控、审计、预案”四个方向。首先是隔离:机构应对AI系统进行物理或功能上的隔离,以防一处失守后横向扩散;对于那些组织无法完全掌控设计的软件,ANSSI 明确建议将其部署在独立、专用的隔离终端上。其次是监控数据流,仅靠隔离还不够,必须持续观察AI组件之间的信息交换,以发现异常行为。第三是扩大审计范围,ANSSI 不建议只做局部审计,因为这可能遗漏AI环境与办公信息系统之间的潜在入侵路径。第四是不要过度依赖单一安全工具,单靠 EDR、MFA 等产品并不足以构成完整防线,因为攻击者会设法绕过这些工具,甚至直接注入到合法用户会话中。最后,机构还必须提前准备危机处置流程:一旦发生事件,首要动作应是立即隔离受影响系统,并撤销攻击者权限,这些步骤应预先写入业务连续性计划(PCA)和灾难恢复计划(PRA)。

ANSSI 的结论很明确:随着AI使用方式快速演进,威胁评估必须持续更新。这一警告不仅面向信息安全负责人(RSSI),也面向企业高层管理者——生成式AI已经不只是生产力工具,更是一个必须纳入正式安全治理框架的风险载体。

Summary
France’s ANSSI says generative AI is not creating entirely new attack types, but industrializing cybercrime by making phishing lures more convincing, lowering attack costs, and enabling AI-generated fake websites and malicious infrastructure. The agency also warns that polluted web content can corrupt future AI models and that enterprise AI systems expand attack surfaces, especially in software supply chains, so it recommends strict isolation, monitoring, broad audits, and incident-response planning.

Generative AI is not creating entirely new attack types; it is industrializing existing ones. That is the central finding of the 2025 edition of ANSSI’s “Panorama de la cybermenace.”

The French national cybersecurity agency says the most immediate effect is a sharp improvement in phishing lures. The grammatical and stylistic mistakes that once helped alert users to malicious emails are increasingly disappearing. AI now enables attackers to produce more convincing content, at greater scale, with more variety and at lower cost. ANSSI also notes that the cost of maintaining attack infrastructure is falling, lowering the entry barrier for less sophisticated threat actors.

One of the clearest signs observed by the agency is the emergence of websites that look legitimate but are entirely generated by AI systems. These sites are used either to host malicious payloads or to perform what ANSSI calls “characterization” — technical profiling of visitors before compromising them. Investigators detected their artificial nature through a subtle anomaly: incoherent text inserted in the middle of paragraphs, with no logical connection to the rest of the page. The finding underscores that human vigilance remains, for now, a critical part of detection.

ANSSI also warns of a systemic risk: generative AI can contaminate the models it helps train. As false and artificial content proliferates online, the datasets used to train future models become polluted. Large language models learn from web data, so if that data is heavily saturated with fabricated or erroneous AI-generated material, the next generation of models will absorb those biases and inaccuracies. The agency says malicious actors are deliberately exploiting this vector by flooding the web with manufactured content to distort AI services and skew their outputs. Generative AI services have therefore become priority targets in their own right.

Inside companies, the growing integration of AI into operational workflows expands the attack surface and can have serious consequences if compromised. ANSSI highlights several risk categories. First, confidentiality and integrity: a compromised AI system can become an entry point into the wider information system, enabling data exfiltration or tampering with connected systems. Second, software supply chain risk: the agency sees this as perhaps the most structural threat. If an AI system used to generate code is compromised, it could silently introduce vulnerabilities or backdoors into produced software, without developers noticing — a new, stealthy form of supply-chain attack. Third, reputational and economic damage: any data leak involving an AI system can erode customer trust, with potentially existential consequences for some organizations.

To address these risks, ANSSI has published a dedicated guide for securing generative AI solutions based on LLMs. Its main recommendation is strict segmentation: AI systems should be physically or functionally isolated to prevent a compromise from spreading. Where organizations do not fully control the design of the software, the agency advises deploying it on a dedicated, isolated workstation. Segmentation alone is not enough, however; active monitoring of information flows involving AI components is needed to detect abnormal behavior. ANSSI also discourages narrow-scope audits, warning that they can miss compromise paths between the AI environment and the office IT system.

The agency further cautions against relying solely on security products such as EDR and MFA, noting that attackers learn to bypass these controls or inject themselves directly into legitimate user sessions. Finally, incident response must be prepared in advance: if a compromise occurs, the immediate priority should be isolating affected systems and revoking the attacker’s access, with these steps built into business continuity and disaster recovery plans.

ANSSI says the rapid evolution of AI use cases requires regular reassessment of the threat landscape. The warning is aimed not only at CISOs, but also at executive leadership: AI is no longer just a productivity tool, but a risk vector that demands dedicated security governance.

Résumé
Dans son Panorama 2025 de la cybermenace, l’ANSSI estime que l’IA générative n’invente pas de nouvelles attaques mais industrialise l’hameçonnage, réduit les coûts des infrastructures malveillantes et facilite la création de faux sites et la pollution des données d’entraînement. L’agence alerte aussi sur l’élargissement de la surface d’attaque dans les entreprises, notamment via la compromission de systèmes d’IA capables d’infecter la chaîne logicielle ou d’exfiltrer des données. L’ANSSI recommande de cloisonner les systèmes d’IA, de surveiller leurs flux, d’auditer largement les environnements et de préparer des plans de crise, en rappelant que les outils de sécurité seuls ne suffisent pas.

L’IA générative ne crée pas de nouvelles formes d’attaques, elle les industrialise. C’est l’un des constats majeur de l’édition 2025 du   » Panorame de la cybermenace »  de l’ANSSI.

L’agence identifie plusieurs effets directs. D’abord, une hausse de la qualité des leurres utilisés dans les campagnes d’hameçonnage.

Les erreurs grammaticales et stylistiques qui permettaient auparavant à un utilisateur averti de repérer un e-mail malveillant tendent à disparaître. L’IA aide à produire des contenus plus convaincants, en plus grand nombre, avec une diversité accrue et  à moindre coût.

L’ANSSI note également une réduction du coût de maintien des infrastructures d’attaque, ce qui abaisse la barrière d’entrée pour des acteurs moins sophistiqués.

Des sites malveillants indétectables à l’œil nu

L’un des signaux les plus concrets relevés par l’agence concerne la création de sites web à l’apparence légitime, entièrement générés par des systèmes d’IA.

Ces sites servent à héberger des charges malveillantes ou à effectuer ce que l’ANSSI appelle de la caractérisation, autrement dit, le profilage technique des visiteurs avant de les compromettre.

Comment les équipes de l’agence ont-elles détecté la nature artificielle de ces sites ? Par une anomalie révélatrice : l’insertion de textes incohérents au beau milieu de paragraphes, sans lien logique avec le reste du contenu. Un signe subtil, qui confirme que la vigilance humaine reste, pour l’instant, un maillon essentiel de la détection.

Le cercle vicieux de la pollution des données d’entraînement

L’IA générative ne se retourne pas seulement contre les utilisateurs finaux, elle menace aussi l’intégrité des modèles eux-mêmes.

L’ANSSI identifie ici un risque systémique : la multiplication de contenus fallacieux sur Internet finit par contaminer les jeux de données utilisés pour entraîner les futurs modèles.

Le mécanisme est simple. Les grands modèles de langage apprennent à partir des données disponibles sur le web. Si ces données sont massivement polluées par des contenus artificiels et erronés  produits par d’autres IA, dans un but malveillant ou non, les modèles de nouvelle génération intègreront ces biais et inexactitudes dans leurs réponses.

Selon l’agence nationale, des acteurs malveillants exploitent délibérément ce vecteur : en inondant le web de contenus fabriqués, ils cherchent à altérer le comportement des services d’IA pour fausser leurs résultats. Les services d’IA générative sont ainsi devenus des cibles prioritaires à part entière.

L’IA dans les entreprises : une surface d’attaque qui s’élargit

L’intégration croissante de l’IA dans les flux opérationnels des entreprises entraîne mécaniquement un élargissement de leur surface d’attaque et les conséquences d’une compromission peuvent être sévères.

L’agence en identifie plusieurs catégories :

Confidentialité et intégrité des données. Un système d’IA compromis peut servir de point d’entrée vers le reste du système d’information, avec des risques d’exfiltration de données sensibles ou d’atteinte à l’intégrité des SI connectés.

La chaîne d’approvisionnement logicielle. C’est peut-être le risque le plus structurel identifié par l’ANSSI : la compromission d’un système d’IA spécialisé dans la génération de code pourrait introduire des vulnérabilités ou des portes dérobées dans le code produit, à l’insu total des équipes de développement. Une nouvelle forme d’attaque supply chain, silencieuse et difficile à détecter.

Les risques réputationnels et économiques. Toute fuite de données liée à un système d’IA fait peser un risque sur la confiance des clients, avec des implications potentiellement existentielles pour certaines organisations.

Les recommandations de l’ANSSI : cloisonner, surveiller, auditer

Pour répondre à ces risques, l’ANSSI a publié un guide dédié à la sécurisation des solutions d’IA générative basées sur des LLM.

Les grandes lignes sont les suivantes.

> Cloisonnement. C’est le principe central. L’agence recommande une isolation physique ou fonctionnelle des systèmes d’IA pour éviter qu’une compromission ne se propage. Pour les logiciels dont la conception n’est pas totalement maîtrisée par l’organisation, la recommandation est claire : les déployer sur un poste isolé et dédié.

> Surveillance des flux. Le cloisonnement seul ne suffit pas. Une surveillance active des échanges d’informations des composants d’IA est nécessaire pour détecter toute anomalie comportementale.

> Audits larges. L’ANSSI déconseille les audits à périmètre restreint, qui peuvent laisser dans l’ombre des chemins de compromission entre l’environnement IA et le SI bureautique.

> Ne pas tout miser sur les outils. L’agence pointe une limite importante : une stratégie de sécurité qui repose exclusivement sur des produits — EDR, MFA — est insuffisante. Les attaquants apprennent à contourner ces outils, ou à s’injecter directement dans les sessions utilisateurs légitimes.

> Préparer la gestion de crise. En cas d’incident, la priorité doit être l’isolation immédiate des systèmes compromis, combinée à la révocation des accès de l’attaquant. Cette séquence doit être anticipée dans les plans de continuité (PCA) et de reprise d’activité (PRA).

L’évolution rapide des usages de l’IA impose, selon l’ANSSI, une réévaluation régulière de la menace. Une mise en garde qui s’adresse autant aux RSSI qu’aux directions générales : l’IA n’est plus seulement un outil de productivité, c’est désormais un vecteur de risque à part entière, qui exige une gouvernance de sécurité adaptée.

Photo : © ANSSI

The post Comment l’IA générative remodèle le paysage des cybermenaces appeared first on Silicon.fr.

AI Insight
Core Point

生成式AI并未创造全新攻击,而是让网络钓鱼、恶意站点和供应链攻击更低成本、更规模化,迫使企业把AI纳入核心安全治理。

Key Players

ANSSI — 法国国家信息系统安全局,法国。

Silicon.fr — 法国科技媒体,法国。

Industry Impact
  • ICT: High — 网络安全威胁工业化,影响企业IT防护与安全运营。
  • Computing/AI: High — LLM与生成式AI本身成为攻击目标和污染对象。
  • Terminals/Consumer Electronics: Low — 主要影响终端侧钓鱼与账号安全,间接为主。
Tracking

[Strongly track] — 直接涉及AI安全、企业防护和供应链风险,且ANSSI已发布具体加固建议。

Related Companies
neutral
neutral
Categories
人工智能 软件 网络安全
AI Processing
2026-03-26 16:58
openai / gpt-5.4-mini