Les technologies d’intelligence artificielle, comme les techniques d’apprentissage automatique et d’apprentissage profond, sont en cours de développement pour contrer les cyberattaques sophistiquées et destructrices. Mais comme la cybersécurité de l’IA est un domaine émergent, les experts s’inquiètent des nouvelles menaces potentielles qui pourraient émerger si les vulnérabilités de la technologie de l’IA étaient révélées. Sans un organisme de certification réglementant la technologie de l’IA pour l’utilisation de la cybersécurité, les organisations se retrouveront-elles plus exposées aux risques et victimes de manipulations ?
Élaboration d’une réglementation mondiale pour les systèmes d’IA
Le 21 avril 2021, la Commission européenne a publié une proposition décrivant le « tout premier cadre juridique sur l’IA ». Margrethe Vestager, vice-présidente exécutive de la Commission européenne pour une Europe adaptée à l’ère numérique, décrit ces règles historiques comme un moyen pour l’UE de mener « le développement de nouvelles normes mondiales pour garantir la confiance dans l’IA ». Le commissaire au marché intérieur Thierry Breton ajoute que le nouveau règlement sur l’IA « offre un immense potentiel dans des domaines aussi divers que la santé, les transports, l’énergie, l’agriculture, le tourisme ou la cybersécurité ».
Il ne faut toutefois pas ignorer l’émergence de nouveaux risques. La Commission propose des exigences visant à renforcer les systèmes d’IA, en particulier ceux qui peuvent être utilisés pour contourner ou manipuler le comportement humain. Parmi les systèmes d’IA considérés comme présentant le risque le plus élevé en cas de manipulation figurent les infrastructures de transport, les plateformes éducatives, les procédures assistées par robot, la notation de crédit, l’évaluation des preuves et l’authentification des documents.
Renforcer les systèmes d’IA pour maintenir la responsabilité
Selon Stefanie Lindstaedt, PDG du Know-Center, l'un des principaux centres de recherche européens sur l'IA, « le potentiel de l'IA en Europe ne sera exploité que si la fiabilité du traitement des données ainsi que des algorithmes équitables, fiables et sécurisés peuvent être démontrés. »
La sécurité de l’IA doit être renforcée pour atténuer les risques et maintenir la responsabilité. Les experts donnent leur avis et formulent des recommandations. Le groupe de travail sur l’IA et la cybersécurité du Centre d’études politiques européennes ( CEPS ) a proposé les propositions suivantes :
- Maintenir et sécuriser les journaux documentant le développement et le codage des systèmes d'IA
- Suivre les paramètres du modèle chaque fois que l'apprentissage automatique est utilisé
- Des pedigrees cyber-sécurisés pour les bibliothèques de logiciels liées aux codes
- Des généalogies cyber-sécurisées pour les bibliothèques de données utilisées pour la formation d'algorithmes d'apprentissage automatique
- Preuve démontrant la diligence raisonnable lors des tests de la technologie de l'IA
- Exploitez des techniques telles que la randomisation, l'apprentissage d'ensemble et la prévention du bruit pour améliorer la fiabilité et la reproductibilité de l'IA
- Rendre les informations disponibles pour l'audit des modèles et l'analyse ultérieure, en particulier aux points de défaillance
- Permettre des audits système en concevant des méthodes qui peuvent également être réalisées par des tiers de confiance.
Pour promouvoir l’IA comme une solution puissante pour contrer les cyberattaques, peu d’organisations ont déjà investi dans le développement de méthodologies et d’outils pour apporter confiance et valeur aux clients et permettre des évaluations de cybersécurité qui démontrent qu’elles sont sûres et éthiques à déployer.
Enfin, le respect des normes et des réglementations est essentiel pour instaurer la confiance dans l’IA. Si vous souhaitez en savoir plus sur les menaces de cybersécurité liées à l’IA et leurs conséquences ou réaliser des évaluations de conformité, contactez un laboratoire spécialisé et reconnu dans le domaine.