Se rendre au contenu

L’AI Act et les organismes de formation : cap sur la conformité en 2026

26 janvier 2026 par
ERIC JOSSO

Le paysage de la formation professionnelle va connaître une évolution réglementaire structurante avec l’AI Act (Règlement européen sur l’intelligence artificielle). Entré en vigueur le 1er août 2024, ce texte impose un cadre pour garantir une IA sûre, éthique et digne de confiance, tout en soutenant l’innovation.

L’enjeu, pour un organisme de formation (OF), n’est pas seulement “d’utiliser l’IA”, mais d’être capable de prouver qu’elle est utilisée correctement, selon le niveau de risque et l’usage réel.

1) L’AI Act en bref : une régulation fondée sur les risques

Un cadre mondial pionnier

L’AI Act est le premier cadre juridique complet dédié à l’IA à l’échelle mondiale. Il ne vise pas à interdire l’IA, mais à encadrer ses usages selon leurs impacts potentiels sur les droits fondamentaux.

Une classification en 4 niveaux de risque

Le règlement distingue quatre catégories, avec des obligations proportionnées :

  • Risque inacceptable : pratiques interdites.
  • Haut risque : systèmes influant fortement sur la vie des personnes (dont certains usages en formation).
  • Risque limité : obligations de transparence (ex. chatbots).
  • Risque minimal : pas d’obligations spécifiques.

2) Calendrier officiel : ce qui change entre 2024 et 2027

Le texte s’applique par étapes :

  • 1 août 2024 : entrée en vigueur.
  • 2 février 2025 : application des pratiques interdites + obligation de maîtrise de l’IA (AI literacy).
  • 2 août 2025 : application des règles de gouvernance + obligations liées aux modèles GPAI (IA à usage général).
  • 2 août 2026 : applicabilité générale (dont une grande partie des exigences pour les systèmes “haut risque”).
  • 2 août 2027 : délai étendu pour les systèmes “haut risque” intégrés dans certains produits réglementés.

3) OF : es-tu “déployeur” ou “fournisseur” ?

Dans la majorité des cas :

  • Déployeur : tu utilises une solution IA du marché (LMS, proctoring, scoring, outil d’évaluation, chatbot, etc.).
  • Fournisseur : tu développes / fais développer ton propre système IA et le mets en service sous ta responsabilité.

Ce distinguo est important : les obligations ne sont pas identiques, et il structure la documentation à produire.

4) Quand un usage IA devient “haut risque” en formation ?

L’AI Act classe comme haut risque certains usages dans le champ éducation et formation professionnelle. Concrètement, sont visés les systèmes destinés à :

  • déterminer l’accès ou l’admission à une formation ;
  • évaluer des résultats d’apprentissage, y compris lorsque l’évaluation sert à piloter le parcours.

Exemples très concrets (OF)

  • scoring automatique de candidatures,
  • décision d’admission assistée par IA,
  • notation / correction automatisée d’épreuves,
  • orientation automatique vers un parcours,
  • proctoring “anti-triche” avec IA.

5) Les 5 piliers opérationnels de conformité (côté “déployeur”) en 2026

Si tu utilises un système IA entrant dans le haut risque, 2026 marque un basculement : la conformité devient une exigence structurée.

1. Une supervision humaine effective

Tu dois pouvoir démontrer qu’une personne compétente :

  • supervise l’usage,
  • comprend les limites,
  • peut interrompre le système ou écarter ses résultats en cas d’anomalie.

2. Qualité et contrôle des données

Tu dois cadrer :

  • les données d’entrée (pertinence, représentativité),
  • les risques de biais,
  • les règles internes (ex. données sensibles, confidentialité, minimisation).

3. Traçabilité (logs) et conservation

L’organisation doit être en mesure d’assurer la traçabilité des événements, pour comprendre une décision assistée par IA et investiguer un incident.

4. FRIA : analyse d’impact sur les droits fondamentaux (dans certains cas)

Cette obligation vise surtout :

  • les organismes publics, et
  • certains acteurs privés fournissant un service public.

Ce point doit être vérifié selon ton statut et ta mission.

5. Information claire des participants

Si une IA intervient dans une décision qui concerne une personne (admission, évaluation, orientation), l’OF doit informer clairement sur :

  • l’existence du système,
  • son rôle (aide à la décision ? décision ?),
  • la place de l’humain (supervision, arbitrage, recours).

6) Transparence : le point simple qui évite beaucoup d’erreurs

Deux règles de prudence très faciles à formaliser :

  • Chatbot : “Vous échangez avec un système d’IA.”
  • Décision (admission/notation/orientation) : “Une IA peut contribuer à cette décision ; un humain conserve la supervision et l’arbitrage.”

C’est une base de confiance… et un réflexe conformité.

7) AI Literacy : une obligation dès 2025, renforcée dans les faits en 2026

Dès 2 février 2025, les structures doivent veiller à un niveau suffisant de maîtrise de l’IA (selon les rôles).

Dans un OF, cela signifie au minimum :

  • comprendre limites / biais / erreurs plausibles,
  • savoir quand il faut une validation humaine,
  • maîtriser les règles internes (données, confidentialité, traçabilité).

8) Interdiction clé : l’inférence d’émotions en formation

L’AI Act interdit l’usage de systèmes d’IA qui inféreraient les émotions des personnes dans les établissements de formation (sauf exceptions médicales ou de sécurité).

Exemple typique à proscrire : caméra + IA pour “mesurer l’attention”, “déduire l’engagement” ou “noter l’état émotionnel” des participants.

9) GPAI : ce que ça change quand tu utilises ChatGPT, Gemini, etc.

Même si ton OF n’est pas “fournisseur” du modèle, les obligations sur les GPAI (à partir du 2 août 2025) poussent à être plus exigeant dans la sélection et l’usage des outils :

  • demander des garanties (documentation, sécurité, confidentialité, conformité),
  • formaliser des règles d’usage (types de données autorisées/interdites),
  • mettre en place des pratiques de traçabilité sur les usages sensibles (ex. admissions, évaluations).

10) Sanctions : un vrai sujet de gouvernance

Les sanctions peuvent atteindre :

  • jusqu’à 35 M€ ou 7% du CA mondial pour non-respect des pratiques interdites (Article 5),
  • d’autres plafonds s’appliquent selon la nature du manquement.

Ce point justifie de traiter la conformité IA comme un sujet de pilotage, pas comme un simple “bon réflexe”.

Checklist express “prête audit” (à intégrer dans ton système qualité)

  1. Inventaire des usages IA (où, pour quoi, avec quel outil ?)
  2. Qualification : haut risque / transparence / minimal
  3. Responsable IA (supervision humaine) + procédure d’arrêt / arbitrage
  4. Politique données (confidentialité, biais, minimisation)
  5. Traçabilité / logs (qui garde quoi, combien de temps, où ?)
  6. Information aux participants (supports, moment, contenu)
  7. Plan AI literacy (par rôle : direction, formateurs, admin, etc.)

Conclusion

En 2026, la question ne sera plus “peut-on utiliser l’IA ?”, mais : peut-on démontrer qu’on l’utilise correctement ?

Pour un organisme de formation, la conformité devient un avantage concurrentiel : protection des participants, maîtrise des risques, et sécurité juridique.


ERIC JOSSO 26 janvier 2026
Partager cet article