Une journée mondiale sous le signe de la transformation digitale.
Chaque 28 avril, la Journée mondiale de la sécurité et de la santé au travail, organisée par l’OIT, met en lumière les avancées et les défis en matière de prévention des risques professionnels. Le thème retenu cette année – le rôle de l’intelligence artificielle (IA) et de la numérisation – reflète une transformation profonde de nos environnements de travail.
À l’occasion de la Journée mondiale de la sécurité et de la santé au travail – 28 avril 2025
Thème OIT 2025 : « Révolutionner la santé et la sécurité : le rôle de l’IA et de la numérisation au travail ».
Chaque 28 avril, la Journée mondiale de la sécurité et de la santé au travail, organisée par l’OIT, met en lumière les avancées et les défis en matière de prévention des risques professionnels.
Le thème retenu cette année – le rôle de l’intelligence artificielle (IA) et de la numérisation – reflète une transformation profonde de nos environnements de travail. Alors que l’IA gagne en puissance et en présence, son potentiel pour améliorer la prévention des risques semble immense. Mais cette révolution technologique soulève aussi de nombreuses interrogations. Comment l’IA peut-elle contribuer à mieux protéger les travailleurs ? Et à quelles conditions peut-elle être intégrée sans créer de nouveaux risques ?
L’intelligence artificielle ouvre des perspectives inédites pour les acteurs de la prévention.
En premier lieu, l’analyse de données massives permet d’identifier plus rapidement des signaux faibles dans les domaines de l’accidentologie, de l’épidémiologie ou encore de l’exposition à des agents chimiques ou physiques. L’IA peut ainsi contribuer à une détection précoce des situations à risque.
Elle permet également la mise en place de systèmes de surveillance intelligents en temps réel. Grâce à des capteurs connectés, à la reconnaissance d’images ou à la mesure de données biométriques, il devient possible de repérer des comportements ou conditions dangereuses avant qu’un accident ne survienne. Dans certains contextes, l’IA embarquée dans des équipements ou des environnements de travail peut même déclencher automatiquement des alertes ou activer des mécanismes de sécurité.
Enfin, la robotique assistée par IA offre la possibilité d’éloigner les opérateurs de certaines expositions à risque. Qu’il s’agisse de téléopération à distance ou de collaboration homme-robot, ces technologies permettent de soulager les tâches les plus pénibles et de supprimer certaines situations dangereuses.
Toute avancée technologique porte aussi son lot de risques.
Le premier concerne la surveillance accrue des salariés. L’utilisation d’outils de mesure continue de l’activité ou de l’état physiologique des travailleurs peut générer du stress, un sentiment d’être constamment observé et une perte d’autonomie dans l’organisation du travail.
L’IA, mal conçue ou mal utilisée, peut également reproduire des biais, notamment dans les processus de recrutement, d’évaluation ou d’affectation des tâches. Les décisions fondées sur des algorithmes opaques peuvent renforcer des inégalités existantes ou exclure certains profils sans justification objective.
Un autre danger réside dans la perte progressive de compétences humaines. Si certaines tâches sont totalement confiées aux machines, le savoir-faire et la capacité d’intervention des opérateurs peuvent s’éroder, entraînant une dépendance accrue aux outils technologiques.
Enfin, l’IA ne détecte que ce qu’on lui a appris à voir. Elle peut occulter des dimensions essentielles de la prévention, notamment les causes organisationnelles ou humaines des accidents, qui échappent souvent aux systèmes automatisés.
Pour que l’IA devienne un levier de progrès et non un facteur de régression, plusieurs conditions sont à réunir.
D’abord, la transparence des systèmes est essentielle. Il est impératif que les acteurs puissent comprendre le fonctionnement des outils développés et utilisés, leurs limites et les critères qui fondent leurs décisions.
La protection des droits fondamentaux doit rester une priorité. Cela implique le respect de la vie privée, le traitement éthique des données (notamment les données de santé), et la garantie du consentement des salariés lorsqu’ils sont concernés par des dispositifs intrusifs.
Le dialogue social joue un rôle central dans cette transition. L’introduction de technologies basées sur l’IA ne doit jamais se faire sans consultation ni concertation. Les représentants du personnel doivent être associés dès les phases de conception et de déploiement.
Enfin, la formation des acteurs est indispensable. Employeurs, préventeurs, développeurs de solutions technologiques et salariés doivent être formés aux enjeux de l’IA pour en tirer le meilleur parti tout en maîtrisant les risques.
L’Union européenne a franchi un cap décisif avec l’adoption du AI Act, premier cadre législatif mondial dédié à l’intelligence artificielle. Ce règlement établit une hiérarchie des risques liés à l’IA (inacceptable, élevé, limité, minimal) et impose des obligations strictes pour les systèmes classés à haut risque, dont certains sont utilisés dans le champ de la santé et sécurité au travail.
L’AI Act prévoit notamment des règles de transparence, des exigences sur la qualité des données, des mécanismes de supervision humaine, ainsi que des conditions de sécurité informatique. Il s’agit d’un levier majeur pour encadrer le développement de l’IA en entreprise, protéger les travailleurs et garantir un usage responsable des technologies.
L’intelligence artificielle peut transformer en profondeur la prévention des risques professionnels. Elle permet d’aller plus loin dans l’analyse, plus vite dans la détection, plus finement dans l’anticipation. Mais pour que cette avancée technologique devienne un véritable levier de progrès, elle doit rester un outil au service de l’humain.
Cette révolution ne pourra être bénéfique que si elle s’inscrit dans un cadre clair : celui de la transparence, de l’éthique, du dialogue social et de l’inclusion. Elle exige un engagement de tous : développeurs, employeurs, préventeurs, pouvoirs publics et salariés.
Ce 28 avril, à l’occasion de la Journée mondiale de la sécurité et de la santé au travail, rappelons que la technologie ne remplacera jamais la vigilance humaine, mais qu’elle peut en être l’alliée. À nous d’inventer une intelligence artificielle réellement préventive, qui protège sans surveiller, qui accompagne sans contrôler, et qui renforce la sécurité sans dégrader le sens du travail.
Sources / Pour aller plus loin :
https://www.inrs.fr/media.html?refINRS=PV%2020
https://www.lecese.fr/actualites/intelligence-artificielle-travail-et-emploi-le-cese-adopte-son-etude
Conseil économique, social et environnemental (CESE) (janvier 2025)
Le CESE a publié un rapport étudiant les effets de l’IA sur le travail et l’emploi : « Intelligence artificielle, travail et emploi : co-construire un nouveau dialogue social est indispensable (analyse de controverses) ». Il pointe notamment la vitesse de déploiement de l'IA dans les entreprises en l’absence de concertation, et souligne que, potentiellement, l'IA peut générer de la croissance et des emplois, mais uniquement si elle est encadrée par les politiques et les institutions.
https://www.laboria.ai/laboria-explorer-synthese-generale/
LaborIA Explorer (mai 2024)
Synthèse générale : « Étude des impacts de l’IA sur le travail ». Après deux années d’enquêtes, le LaborIA Explorer a publié des résultats inédits sur les interactions humain-machine et les enjeux d'appropriation de l'IA dans le monde du travail. Le rapport formule des recommandations pour une intégration harmonieuse de l'IA dans les environnements professionnels.
https://www.actuia.com/actualite/publication-du-rapport-sur-la-securite-de-lia-2025-un-cadre-mondial-en-construction/
Rapport international sur la sécurité des systèmes d'IA (2025)
Dirigé par Yoshua Bengio, ce rapport rassemble les contributions de 96 experts internationaux. Il identifie trois types de risques majeurs liés au développement de l'IA :
• Utilisations malveillantes : détournement de l'IA à des fins nuisibles.
• Dysfonctionnements : erreurs ou défaillances des systèmes d'IA.
• Risques systémiques : impacts à grande échelle sur les structures sociales et économiques.
Le rapport souligne également les désaccords et tensions entre experts mondiaux concernant ces enjeux.
Ces rapports fournissent des analyses approfondies sur les défis que l'IA pose au marché du travail et proposent des recommandations pour anticiper et atténuer ses impacts négatifs.