《人工智能法案》:预计推迟至2027年甚至2028年

AI Act : un report à 2027 voire 2028 se dessine

Silicon.fr by Clément Bohic 2026-03-27 11:07 Original
摘要
欧洲议会通过数字综合法案立场,提议将高风险AI系统的合规期限推迟至2027年12月(AI Act附录所列系统)和2028年8月(行业法规覆盖系统)。法案同时明确禁止生成性内容AI,并调整了AI办公室的监管权限,对小型企业实施更宽松的处罚标准。这些修订将影响医疗设备、玩具等行业的AI合规进程,并强化对大型在线平台AI系统的成员国监管权。

欧盟《人工智能法案》的实施时间表出现重大调整,高风险AI系统的合规期限可能推迟至2027年底甚至2028年。

欧洲议会近日通过的"数字综合法案"立场文件提议:对于《人工智能法案》附件三所列的高风险AI系统(如生物识别、关键基础设施、教育就业等领域),其合规要求生效时间推迟至2027年12月;而对于受行业协调立法(如玩具、医疗器械、无线电设备等法规)管辖的高风险AI系统,合规期限进一步延至2028年8月。

法案其他已生效或即将生效的部分基本保持不变:第一章和第二章(通用条款和禁止实践)已于2025年2月生效;关于通用AI模型提供者义务、处罚措施及欧盟层面治理的条款仍按原计划于2025年8月实施。

欧洲议会同时强化了多项监管要求:

  • 明确禁止生成性内容AI系统,同时强调不影响言论自由
  • 规定符合《网络弹性法案》的高风险AI系统可被视为满足《人工智能法案》第15条(准确性、鲁棒性和网络安全)要求
  • 取消高风险AI系统的注册豁免条款,所有附件三所列系统必须录入欧盟数据库
  • 细化高风险系统判定标准,明确仅用于用户辅助、性能优化等非安全相关功能不应被自动归类为安全组件

在监管架构方面,议会未授予欧盟AI办公室独家监督权,允许成员国当局监督整合在"超大型在线平台"或"超大型搜索引擎"(依据《数字市场法案》/《数字服务法案》定义)中的AI系统。实际测试范围也收窄至仅限附件三所列系统。

处罚机制出现重要调整:针对中小企业的违规处罚,将从"全球年营业额3%或1500万欧元取其高"改为"取其低"。此外,2026年8月2日前上市的AI系统需提前至2026年11月满足透明度要求(原定期限为2027年2月)。

议会还推动将AI素养培养从"概念普及"转向"技能培训",鼓励通过公私合作帮助中小企业适应新规,同时调整了与Apply AI联盟的合作表述。

Summary
The European Parliament has proposed delaying the implementation of key AI Act provisions for high-risk AI systems, pushing deadlines to December 2027 or even August 2028. It also introduced amendments to ban AI generating sexual content, simplify registration for high-risk systems, and adjust sanctions to be less severe for small companies. These changes aim to refine the regulatory framework, balancing compliance support for businesses with market surveillance and fundamental rights protections.

The European Union's AI Act faces significant delays for its most critical provisions, with high-risk AI systems now unlikely to be fully regulated until late 2027 or 2028. The European Parliament has adopted its position on the "digital omnibus" proposal, formally pushing back the timeline.

While Chapters I and II (general provisions and prohibited practices) have applied since February 2025, and obligations for general-purpose AI model providers, sanctions, and EU-level governance have been in force since August 2025, the core rules for high-risk AI are being postponed. The Parliament proposes that high-risk AI systems listed directly in the AI Act's annexes will now apply in December 2027. For high-risk systems covered under existing sectoral legislation (like medical devices, toys, or radio equipment), the application date is pushed to August 2028.

The European Commission's original omnibus proposal had not set specific dates but linked enforcement to the availability of compliance support measures. The Parliament's amendments establish concrete deadlines, effectively creating a phased implementation.

Beyond the timeline, the Parliament introduced several substantive amendments. It explicitly seeks to ban AI systems that generate sexual content, "without prejudice to freedom of expression and information." It also clarifies interaction with other laws, stating that if a high-risk AI system complies with the Cyber Resilience Act, it should be deemed compliant with Article 15 of the AI Act on accuracy, robustness, and cybersecurity.

A key change concerns the mandatory registration of high-risk AI systems in a European database. The Commission had considered an exception for systems providers deemed not to pose a significant risk. The Parliament rejected this, arguing registration is essential for market surveillance and proposing instead to simplify the registration procedure itself.

The Parliament also refined the classification criteria for high-risk systems. It clarified that an AI system integrated as a safety component in a product governed by harmonisation legislation does *not* automatically mean it performs a "safety function." Features designed solely for user assistance, performance optimisation, automation, or quality control of non-safety aspects should not be classified as high-risk, provided their failure does not directly create health or safety risks.

On governance, the Parliament scaled back the proposed exclusive competence of the EU's AI Office. It did not grant the Office exclusive supervision over most general-purpose AI models from a single provider. Instead, it explicitly gave national authorities the power to supervise AI systems embedded in "very large online platforms" or "very large search engines" (using DSA/DMA terminology). References to the "AI Office" were replaced with "the Commission" in contexts like encouraging codes of practice.

Other amendments include removing the possibility for real-world testing of AI systems under sectoral legislation, maintaining it only for systems listed in Annex III of the AI Act. For sanctions, the Parliament proposed being less severe with small-cap companies: instead of a fine of up to €15 million or 3% of global annual turnover (whichever is higher), it suggests applying the *lower* of the two amounts.

One deadline was actually brought forward: AI systems placed on the market before 2 August 2026 must comply with transparency obligations (Article 50(2)) by November 2026, rather than February 2027. Finally, the Parliament shifted focus on AI literacy from "notions" to "skills," removed a reference to the Apply AI Alliance as an exchange channel, and encouraged public-private partnerships to support SMEs.

Résumé
Le Parlement européen propose de reporter l'application des règles pour les systèmes d'IA à haut risque à décembre 2027 (ceux listés dans l'AI Act) et août 2028 (ceux couverts par la législation sectorielle), tout en maintenant les autres échéances. Il introduit des modifications clés, comme l'interdiction des systèmes générant du contenu sexuel, un assouplissement des sanctions pour les petites entreprises, et un rôle moins exclusif pour le Bureau de l'IA au profit des autorités nationales. Ces ajustements visent à préciser le cadre réglementaire et à faciliter la conformité, notamment pour les PME.

La perspective d’une entrée en application de l’AI Act en août 2026 s’éloigne.

Le Parlement européen vient d’adopter sa position sur l’omnibus numérique. Il propose que les dispositions concernant les systèmes d’IA classés à haut risque ne s’appliquent qu’en décembre 2027 pour ceux listés dans le règlement. Et en août 2028 pour ceux couverts par la législation d’harmonisation (règlements et directives sectoriels : jouets, dispositifs médicaux, équipements radioélectriques…).

Les autres échéances, passées ou à venir, ne sont globalement pas remises en cause. Ainsi pour les chapitres I et II (dispositions générales et pratiques interdites), qui s’appliquent depuis février 2025. Et pour les éléments qui s’appliquent depuis août 2025 (obligations des fournisseurs de modèles d’IA à usage général, sanctions, gouvernance au niveau de l’UE…).

La Commission européenne n’avait pas fixé de dates dans sa proposition d’omnibus numérique. Elle avait toutefois conditionné l’entrée en application des dispositions en question à la disponibilité de mesures de soutien à la conformité – avec un délai de 6 mois après pour les systèmes d’IA à haut risque listés dans l’AI Act et de 12 mois pour ceux couverts par la législation d’harmonisation.

Le Parlement ne veut pas d’exception à l’enregistrement de certains systèmes d’IA

Les eurodéputés proposent par ailleurs d’interdire explicitement les systèmes d’IA qui génèrent des contenus à caractère sexuel, « sans préjudice à la liberté d’expression et d’information ».

À la proposition de la Commission européenne, ils ajoutent des précisions relatives à l’interaction avec d’autres textes. Parmi eux, le Cyber Resilience Act. Leur amendement : si un système d’IA à haut risque est conforme à cette législation, il doit être réputé conforme à l’article 15 de l’AI Act (« Exactitude, robustesse et cybersécurité »).

Un autre amendement porte sur l’enregistrement, dans une base de données européenne, des systèmes d’IA à haut risque listés dans l’annexe III (biométrie, infrastructures critiques, éducation, emploi, justice…). La Commission envisageait une exception pour les systèmes dont les fournisseurs ne considèrent pas qu’ils présentent un risque important de préjudice pour la santé, la sécurité ou les droits fondamentaux. Le Parlement estime que leur enregistrement est nécessaire pour la surveillance du marché et compte plutôt simplifier la procédure.

Encourager les partenariats public-privé pour la sensibilisation

Le Parlement apporte également une précision sur la classification même des systèmes à haut risque. En la matière, l’AI Act établit des critères cumulatifs. Parmi eux, le fait qu’un système d’IA est utilisé comme composant de sécurité d’un produit que couvre la législation d’harmonisation. Les eurodéputés ont tenu à préciser qu’une telle intégration n’implique pas forcément que le système d’IA remplit une fonction de sûreté. Ne devraient pas être considérées ainsi les fonctionnalités pensées seulement pour l’assistance utilisateur, l’optimisation de performance, l’automatisation ou encore le contrôle qualité d’aspects non liés à la sûreté. Ce aussi longtemps que leur défaillance ne crée pas directement des risques pour la santé ou la sûreté.

En matière de sensibilisation (literacy), le Parlement préfère parler de « compétences » que de « notions ». Il supprime la référence à l’Apply AI Alliance comme canal d’échange avec la communauté. À la place, il encourage les partenariats public-privé, notamment pour accompagner les petites et moyennes entreprises.

Une compétence un peu moins exclusive pour le Bureau de l’IA

La Commission européenne, qui héberge le Bureau de l’IA, souhaite lui donner une compétence exclusive sur certains sujets. En particulier la supervision de l’essentiel des systèmes d’IA basés sur des modèles à usage général développés par le même fournisseur. Le Parlement ne lui accorde pas cette exclusivité. De plus, il donne explicitement aux autorités des États membres le pouvoir de superviser les systèmes d’IA intégrésdans des « très grandes plates-formes en ligne » ou dans des « très grands moteurs de recherche » (terminologie DMA/DSA). Et il remplace « Bureau de l’IA » par « Commission » sur des aspects comme l’encouragement à la diffusion de codes de bonnes pratiques.

Pour ce qui est des tests en conditions réelles, le Parlement a supprimé cette possibilité pour les systèmes d’IA couverts par la législation d’harmonisation. Il ne l’a maintenue que pour ceux listés dans l’annexe III de l’AI Act.

Des sanctions moins dures pour les small caps

Sur le volet sanctions, les eurodéputés proposent d’être moins « dur » avec les small caps. En l’état, l’AI Act instaure, en cas de non-conformité aux obligations faites aux fournisseurs, importateurs, distributeurs et déployeurs, une amende jusqu’à 15 M€ ou 3 % du CA annuel mondial, le montant le plus élevé étant retenu. Les eurodéputés proposent de retenir le montant le moins élevé.

Une date serait avancée. Elle concerne les systèmes d’IA mis sur le marché avant le 2 août 2026. Leur conformité aux obligations de transparence – article 50(2) – devrait être effective pour novembre 2026 et non plus février 2027.

Illustration générée par IA

The post AI Act : un report à 2027 voire 2028 se dessine appeared first on Silicon.fr.

AI Insight
Core Point

欧盟议会推动将AI Act中高风险AI的适用时间推迟到2027年12月甚至2028年8月,这意味着欧洲AI合规落地将明显延后,但对现有透明度、禁用实践和GPAI义务的时间表影响较小。

Key Players

European Parliament — 欧盟立法机构,位于布鲁塞尔。

European Commission — 欧盟执行机构,位于布鲁塞尔。

AI Office — 欧盟AI监管协调机构,位于布鲁塞尔。

Cyber Resilience Act — 欧盟网络韧性法规,适用于数字产品与安全要求,欧盟层面。

Industry Impact
  • ICT: High — 欧盟AI合规与监管框架延后,影响软件、平台与云服务部署节奏
  • Computing/AI: High — 高风险AI与通用AI模型的合规窗口被推迟,直接影响模型发布和产品化
Tracking

Strongly track — 这是欧盟AI监管时间表的重要变化,可能重塑2026-2028年欧洲AI产品上市与合规投入计划。

Categories
人工智能 网络安全
AI Processing
2026-03-30 15:09
deepseek / deepseek-chat