Mais l’histoire retiendra désormais aussi le nom de Bletchley Park comme le lieu où, les mercredi 1er et jeudi 2 novembre 2023, s’est tenu le premier sommet international dédié aux risques inhérents au développement des intelligences artificielles. Si certains de ces risques sont identifiés depuis longtemps (cyberattaques, perte de contrôle, atteintes aux libertés fondamentales voire menace pour la démocratie), d’autres, telles les destructions massives d’emplois, ont émergé dans le sillon des IA de type génératives telles que ChatGPT.
À l’issue du sommet, les 28 États présents dont l’Union européenne, les États-Unis et la Chine, ont signé une déclaration commune, dont voici quelques extraits :
- « (…) pour le bien de tous, l’IA doit être conçue, développée, déployée et utilisée de manière sûre, de manière à être centrée sur l’humain, digne de confiance et responsable. » ;
- « Nous reconnaissons qu’il s’agit donc d’un moment unique pour agir et affirmer la nécessité d’un développement sûr de l’IA et d’une utilisation des opportunités de transformation de l’IA pour le bien et pour tous, de manière inclusive dans nos pays et dans le monde. Cela inclut les services publics tels que la santé et l'éducation, la sécurité alimentaire, la science, l'énergie propre, la biodiversité et le climat, pour réaliser la jouissance des droits de l'homme et renforcer les efforts en faveur de la réalisation des objectifs de développement durable des Nations Unies. » ;
- « Parallèlement à ces opportunités, l’IA présente également des risques importants, y compris dans les domaines de la vie quotidienne. À cette fin, nous saluons les efforts internationaux pertinents visant à examiner et à traiter l’impact potentiel des systèmes d’IA dans les forums existants et autres initiatives pertinentes, ainsi que la reconnaissance du fait que la protection des droits de l’homme, la transparence et l’explicabilité, l’équité, la responsabilité, la réglementation, la sécurité, les la surveillance humaine, l’éthique, l’atténuation des préjugés, la vie privée et la protection des données doivent être abordées. » ;
- « De nombreux risques liés à l’IA sont intrinsèquement de nature internationale et il est donc préférable de les gérer par la coopération internationale. Nous sommes résolus à travailler ensemble de manière inclusive pour garantir une IA centrée sur l'humain, fiable et responsable, sûre et qui soutient le bien de tous par le biais des forums internationaux existants et d'autres initiatives pertinentes, afin de promouvoir la coopération pour faire face au large éventail de risques posés par IA. Ce faisant, nous reconnaissons que les pays devraient considérer l’importance d’une approche de gouvernance et de réglementation favorable à l’innovation et proportionnée, qui maximise les avantages et tienne compte des risques associés à l’IA. »
Ce texte marque indéniablement une avancée majeure. Toutefois, si la régulation et la règlementation de l’intelligence artificielle y sont bien abordées, aucune piste concrète n’y est développée. Or, le temps presse et cela vaut particulièrement pour le travail. Les effets délétères de l’IA sur l’emploi sont d’ores et déjà visibles : en France, la société Onclusive a récemment déclaré qu’elle maintenait son plan social visant à la suppression de plus de 200 postes afin de confier les tâches jusqu’ici accomplies par des salariés à des systèmes IA. Et elle n’est que la première.
Par ailleurs, la déclaration souligne également que « les acteurs développant des capacités d'IA de pointe, en particulier les systèmes d'IA qui sont inhabituellement puissants et potentiellement dangereux, ont une responsabilité particulièrement forte pour garantir la sécurité de ces systèmes d'IA, notamment par le biais de systèmes. (…) Nous encourageons tous les acteurs concernés à assurer une transparence et une responsabilité adaptées au contexte concernant leurs plans visant à mesurer, surveiller et atténuer les capacités potentiellement nuisibles et les effets associés qui peuvent en résulter, en particulier pour prévenir les abus et les problèmes de contrôle, ainsi que l'amplification d'autres risques. »
Si la responsabilité des développeurs est effectivement un enjeu majeur, l’encadrement de l’IA ne doit pas s’effectuer sur la base de l’auto-régulation. Il doit être fait de lois et de règlements et renforcé par la responsabilité des développeurs. L’auto-régulation est déjà l’un des principes fondateurs de l’IA Act européen. Il en résulte un texte « pro-business », visant surtout à faciliter l’accès des systèmes IA au marché et n’établissant aucune forme de sécurisation individuelle ou collective.
L’enjeu n’est pas de tomber dans un néo-luddisme contre-productif : les intelligences artificielles ne sont pas bonnes ou mauvaises en elles-mêmes. Mais non-contrôlées, elles sont effectivement porteuses de risques catastrophiques. Ce mot n’est pas exagérément employé par FO-Cadres dans un article délibérément alarmiste : il figure dans la déclaration de Betchley.
Les conséquences doivent en être tirées.
Lien vers le texte intégral de la déclaration (en anglais) : https://urlz.fr/okjW