De plus en plus, les gens débattent sur les miracles que l’intelligence artificielle (IA) va faire pour revigorer l’économie mondiale, booster la productivité des entreprises et créer de nombreux avantages, tels que de meilleurs soins de santé, des transports plus sûrs et plus propres, une fabrication plus efficace et une énergie moins chère et plus durable. Mais, selon Michael Spence, Prix Nobel d’économie en 2001, à condition qu’elle soit bien utilisée.
Issa DA SILVA SIKITI
« Il reste encore plusieurs difficultés à surmonter avant d’exploiter pleinement le potentiel de l’IA. Il convient d’adopter une réglementation visant à prévenir l’utilisation abusive de la technologie et des données », insiste-t-il dans une tribune publiée en septembre dans le magazine F&D du FMI.
Or, avant l’adoption le 13 juin 2024 par le Parlement européen de l’EU AI Act, le règlement européen sur l’intelligence artificielle, il n’existait aucune forme de réglementation complète et approuvée de l’IA nulle part dans le monde, même pas aux États-Unis. C’est ce qui justifie peut-être l’utilisation abusive de cette nouvelle technologie et son adoption lente et timide dans plusieurs parties du globe.
« En raison des risques liés à l’IA, de nombreuses entreprises qui pourraient adopter cette technologie dans le cadre de leurs activités ont mis du temps à l’adopter pleinement. Ces entreprises attendent des éclaircissements de la part de la réglementation sur l’IA afin de ne pas être tenues responsables d’une éventuelle utilisation abusive. Des efforts sont en cours pour gérer l’impact social de l’IA par le biais de la réglementation », souligne un article non signé publié sur le site de Thomson Reuters.
Risque inacceptable
En attendant de voir clair sur la réglementation de l’IA en Afrique, il est important de décortiquer l’EU AI Act, qui va également impacter l’Afrique à cause de la mondialisation et les liens coloniaux et socio-économiques de deux continents.
« La priorité est de veiller à ce que les systèmes d’IA utilisés dans l’UE soient sûrs, transparents, traçables, non discriminatoires et respectueux de l’environnement. Les systèmes d’IA devraient être supervisés par des personnes plutôt que par l’automatisation, afin d’éviter des conséquences néfastes », souligne le Parlement européen sur son site.
« Les systèmes d’IA à risque inacceptable sont des systèmes considérés comme une menace pour les personnes et seront interdits. Ils comprennent, par exemple les jouets à commande vocale qui encouragent les comportements dangereux chez les enfants ; la classification des personnes en fonction du comportement, du statut socio-économique ou des caractéristiques personnelles ; l’identification biométrique et la catégorisation des personnes, ainsi que les systèmes d’identification biométrique en temps réel et à distance, tels que la reconnaissance faciale.
En outre, à en croire Strasbourg (le siège de ce parlement), les systèmes d’IA qui affectent négativement la sécurité ou les droits fondamentaux seront considérés comme à haut risque. Par exemple, les jouets, l’aviation, les voitures, les appareils médicaux et ascenseurs, la gestion et l’exploitation des infrastructures critiques, l’éducation et formation professionnelle, l’emploi, la gestion des travailleurs, l’accès au travail indépendant, la gestion des migrations, de l’asile et du contrôle aux frontières.