Réaction de Mathieu Michel, suite à l’article dans La Libre Belgique « Sans ces conversations avec le chatbot Eliza, mon mari serait toujours là ».
Il y a quelques jours, j’ai eu l’occasion de m’entretenir avec une famille endeuillée par le suicide d’un de ses proches qui avait conversé avec un chatbot pendant plusieurs semaines.
J’ai été particulièrement affecté par le drame subi par cette famille. Avec la popularisation de ChatGPT, le grand public a découvert, comme jamais auparavant, le potentiel de l’Intelligence artificielle sur nos vies. Si les opportunités sont innombrables, les dangers de son utilisation sont également une réalité. Ce qu’il s’est passé est un précédent grave qui doit être pris très au sérieux. Dans l’immédiat, il est indispensable d’identifier clairement la nature des responsabilités qui ont pu conduire à ce genre d’évènement. Certes, nous devons encore apprendre à vivre avec les algorithmes mais l’usage d’une technologie, quelle qu’elle soit, ne peut en rien permettre aux éditeurs de contenus de se soustraire à leur propre responsabilité. Pour qu’un tel drame ne se reproduise, nous devons agir. D’une part, il est essentiel de sensibiliser largement sur l’impact que les algorithmes ont sur nos vies en permettant à chacun de comprendre la nature des contenus auxquels nous sommes confrontés : deepfakes, chatbots, algorithmes de recommandation, etc. et aussi leur influence sur nos propres perceptions. D’autre part, il convient de protéger adéquatement le citoyen contre certaines utilisations de l’intelligence artificielle qui présentent un niveau de risque important. Depuis deux ans, l’Europe travaille sur l’AI Act, une régulation destinée à encadrer l’utilisation de l’intelligence artificielle. Il est indispensable de reconsidérer ce texte en relevant le niveau de risque de certaines applications de l’IA. A cette fin, j’ai mis en place un groupe de travail pluridisciplinaire afin d’analyser le texte en cours de préparation auprès de l’Union européenne et de proposer des adaptations indispensables. Le 28 octobre 2022, le Gouvernement fédéral a validé son plan IA. L’un des axes fondateurs est la construction d’une IA de confiance. Avec l’ensemble des acteurs de l’intelligence artificielle en Belgique et sous la coordination de AI4Belgium, nous sommes déterminés à construire l’indispensable équilibre entre confiance et innovation.