Le Règlement « Machines » qui paraîtra dans les prochains mois, aborde la question de l’intelligence artificielle : quelles sont les limites d’utilisation de ces technologies ?
L’INRS a mené une étude prospective « Intelligence artificielle au service de la santé et sécurité au travail – Enjeux et perspectives à l’horizon 2035 » . Plusieurs scenarii ont été envisagés en fonction des évolutions possibles de l’IA en sécurité et pas moins de 22 points clés de vigilance ou axes de travail ont été identifiés.
En normalisation, les réflexions « sécurité des machines et IA » débutent et Franck Gambelli, président d’EUROGIP et Directeur Santé, Sécurité, RSE et Environnement à l’UIMM La Fabrique de l’avenir, a déjà publié un premier point de vue. L’article s’intitule « Que peut-on attendre de la normalisation en matière d’intelligence artificielle ? ».
Frank Gambelli y indique les principes de la nouvelle approche qui restent pertinents pour traiter de la question de l’IA :
- l’exigence de l’analyse de risque : c’est la base de toute conception en sécurité des machines ;
- la neutralité technologique : quel que soit le choix technologique, le risque doit être maîtrisé et la fonctionnalité assurée ;
- la clarté des concepts : il est nécessaire de fournir des définitions précises.
Un bon point de départ pour les discussions à venir…