Directive Machines 2023/1230 : le cadre cobot passe en mode exécution
Applicable au 20 janvier 2027, la nouvelle directive machines remplace la 2006/42/CE et intègre EU AI Act. Pour les intégrateurs robotiques, le marquage CE devient un sujet IA.
Le règlement (UE) 2023/1230 sur les machines, adopté en juin 2023 et applicable le 20 janvier 2027, remplace la directive 2006/42/CE qui encadrait depuis 18 ans la mise sur le marché des machines en Europe. C'est un changement de fond pour les fabricants, intégrateurs robotiques, et utilisateurs industriels — d'autant qu'il interagit directement avec EU AI Act sur les fonctions de sécurité contrôlées par IA.
Ce qui change vraiment vs la directive 2006/42
Le passage de directive à règlement
Premier changement, juridique mais structurant : on passe d'une directive (transposée en droit national, donc avec variations entre États membres) à un règlement (applicable directement et uniformément). Pour un intégrateur qui livre des cellules robotisées dans plusieurs pays UE, la simplification est réelle — fini les écarts d'interprétation entre BAUA en Allemagne, INRS en France, INAIL en Italie.
Les machines à risque élevé contrôlées par IA
Le règlement liste à son annexe I les catégories de « machines présentant un risque élevé », qui exigent une procédure d'évaluation de la conformité par tiers (notified body). Nouveauté de 2023/1230 : sont explicitement incluses les machines dont les fonctions de sécurité sont assurées par des systèmes d'IA — par exemple, un robot collaboratif (cobot) dont la détection de présence humaine repose sur de la vision par ordinateur entraînée sur dataset.
L'articulation avec EU AI Act
Quand une machine intègre une IA assurant une fonction de sécurité, elle relève à la fois du règlement Machines 2023/1230 ET d'EU AI Act (qui classe ces IA comme « haut risque » au titre de l'annexe III). Concrètement : double marquage CE, double documentation, double surveillance post-market. Le règlement Machines évite la duplication en pointant vers EU AI Act pour la partie IA — mais l'intégrateur doit produire les deux dossiers cohérents.
Le cas concret du cobot industriel
Un cobot ABB, Universal Robots, KUKA ou FANUC déployé en mode collaboratif (sans cage de sécurité, partageant l'espace avec l'opérateur) repose sur une fonction de sécurité critique : la détection de l'humain. Cette détection peut être assurée par capteurs de force/couple intégrés (méthode classique, déterministe), ou par caméras + IA (méthode plus récente, plus précise mais plus complexe à valider).
Avec le règlement 2023/1230 + EU AI Act, l'intégrateur qui choisit la voie « caméras + IA » doit produire : (1) le dossier de conformité Machines avec analyse de risque ISO 12100, ISO 10218 (sécurité robots), ISO/TS 15066 (cobots), (2) le dossier EU AI Act avec gouvernance des données d'entraînement, traçabilité du modèle, monitoring post-déploiement, gestion des incidents. C'est un volume documentaire significatif — facilement 200-400 pages pour une cellule complexe.
Trois angles morts pour les intégrateurs
La cybersécurité comme exigence de sécurité
Le règlement 2023/1230 considère que la cybersécurité est désormais une composante de la sécurité fonctionnelle des machines. Une cyberattaque qui prendrait le contrôle d'un cobot et le pousserait à dépasser ses limites de couple compromet la sécurité humaine. L'analyse de risque doit donc inclure les scénarios de cyberattaque (NIS2 et IEC 62443 sont les références). Pour les intégrateurs habitués à raisonner uniquement sur la sécurité mécanique/électrique, c'est une compétence à acquérir.
La notice d'instruction numérique
Le règlement permet — pour la première fois explicitement — la fourniture de la notice d'instruction sous forme numérique (PDF en ligne, plateforme dédiée), à condition que la version papier reste disponible sur demande gratuitement. Beaucoup d'intégrateurs vont en profiter pour passer leur documentation au format interactif (vidéos, schémas 3D, hot-points). Mais cela suppose une plateforme de documentation pérenne — accessible 10 ans après la mise sur le marché.
La traçabilité du dataset d'entraînement IA
EU AI Act demande, pour les IA haut risque, une traçabilité du dataset d'entraînement : sources, biais, qualité, représentativité. Pour un intégrateur qui utilise un modèle pré-entraîné fourni par le fabricant du cobot (ABB, UR, etc.), il doit obtenir ces informations du fabricant — et les attacher à son dossier d'évaluation de conformité. Les contrats fournisseur antérieurs n'ont pas cette clause.
Le scénario 2027-2030
Pour les intégrateurs robotiques français, le programme 2026-2027 est : (1) auditer les cellules en service pour identifier celles qui devront être réévaluées au passage 2023/1230, (2) restructurer les dossiers techniques pour intégrer l'analyse de risque cybersécurité et les éléments EU AI Act, (3) cadrer avec les fabricants de cobots les données d'entraînement IA et leur gouvernance post-marché, (4) faire monter en compétences les équipes documentaire (ingénieurs sécurité familiers avec ISO 12100 + IEC 62443 + EU AI Act).
Au-delà 2027, l'enjeu sera la maintenance prédictive et la mise à jour OTA des modèles IA, qui ouvrent des questions de gouvernance non encore résolues — comment certifier qu'une mise à jour modèle ne dégrade pas la sécurité ? Le règlement laisse cette question à des actes délégués à venir.
Sujets abordés
- Directive Machines 2023/1230
- EU AI Act
- Cobot
- ISO 10218
- ISO/TS 15066
- Cybersécurité OT
À approfondir dans le glossaire
Comment Swoft traduit cet enjeu en logiciel
Industrialiser la conformité Machines + EU AI Act pour la robotique, c'est connecter le dossier technique, l'analyse de risque, la traçabilité IA, et la documentation post-marché dans un système unique. Voici comment Swoft équipe les intégrateurs robotiques.
- 01
Dossier technique unifié Machines + EU AI Act
Pour chaque cellule livrée, un dossier numérique structuré : analyse de risque ISO 12100, conformité ISO 10218 / ISO/TS 15066, dossier IA (datasets, modèle, monitoring), analyse cybersécurité IEC 62443. Les documents sont versionnés, signés, et archivés 10 ans avec accessibilité immédiate.
- 02
Suivi des modifications substantielles avec impact certification
Quand une mise à jour matérielle ou IA est planifiée, le système évalue automatiquement si elle constitue une « modification substantielle » au sens du règlement 2023/1230 — auquel cas l'évaluation de conformité doit être ré-engagée. Les mises à jour OTA des modèles IA passent par un workflow de validation tracé.
- 03
Notice numérique pérenne et plateforme post-marché
Notice d'instruction interactive (vidéos, schémas 3D, troubleshooting), accessible via QR-code sur la machine. La plateforme garantit 10 ans de disponibilité ; les mises à jour de la notice sont versionnées et accessibles aux utilisateurs avec changelog. Conforme aux obligations post-market surveillance.