Des mythes anciens comme le Golem aux classiques modernes tels Frankenstein ou Skynet, la création d’êtres artificiels suscite depuis longtemps des craintes ancrées dans l'imaginaire collectif. Aujourd'hui, le développement rapide de l'intelligence artificielle (IA), perçue tantôt comme une avancée scientifique majeure, tantôt comme une menace potentielle pour l'humanité, suscite des peurs similaires.
Le test de Turing, point de référence incontournable pour mesurer la capacité des machines à simuler l'intelligence humaine depuis le milieu du 20ème siècle, a soulevé les premières questions sur la nature de la conscience et les implications éthiques de l'IA. Il faut toutefois attendre la pétition contre les robots tueurs (2015) les exploits d'AlphaGo (2016), le rapport de l’eurodéputée Mady Delvaux sur l’évolution des règles de droit civil concernant la robotique (2017) et la Déclaration de Montréal pour un développement responsable de l'intelligence artificielle (2018) pour que le débat sur les dimensions éthiques et philosophiques de l’IA prenne un nouvel essor.
Depuis, les enjeux éthiques et juridiques autours des systèmes d’IA ont été formalisés par les Ethic Guidelines for Trustworthy AI de 2019 et l'AI Act de 2024, les dotant d’un cadre formel.
Plusieurs comités sont mis en place dans l’écosystème belge spécifiquement sur ces questions éthiques et juridiques :
- Le comité AI4Belgium Ethics and law
- Le Comité consultatif d’éthique des données et de l’IA
Dans le cadre de l’implémentation du AI ACT, plusieurs groupes de travail sont également mis en place :
- Le groupe de travail de la commission économique interministérielle (CEI)
- Le groupe de travail ad hoc de la digital taskforce