2025, l’année de l’IA en France


Depuis quelques années déjà, l’intelligence artificielle s’est développée de manière croissante à l’échelle mondiale et en France. Mais 2025 fait figure d’exception car les pouvoirs publics affichent aujourd’hui une volonté claire d’accélération de ses usages et de son extension à tous les domaines. Le sommet pour l'action sur l'intelligence artificielle qui s’est tenu du 6 au 11 février 2025 en est l’illustration.

 

IA en France

 

L’institut national de la consommation vous présente un panorama de l’IA en France et de son encadrement.

 


Depuis janvier 2025, le ministère de l’Education nationale, de l’Enseignement supérieur et de la recherche mène une consultation auprès des enseignants et de l’ensemble des acteurs de la communauté éducative, tant au niveau académique que national. Cette consultation a pour but de publier une charte (annoncée pour le printemps 2025) qui va encadrer les règles d’usage de l’IA dans l’éducation.

 

Un autre objectif de l’Education nationale est de former les élèves à l’utilisation de l’IA. Sur Pix.fr, la plateforme de certification et d’initiation aux pratiques du numérique, sera lancé un parcours de formation sur l’IA à la rentrée 2025 et qui sera obligatoire pour les élèves de 4e et de 2nde en voies générales, technologiques et professionnelles. D’une durée de 30 minutes à 1 heure 30, il formera notamment aux bases du prompting (comment formuler ses demandes à une IA conversationnelle).

Un domaine dans lequel l’intelligence artificielle pourrait apporter une aide précieuse est celui de la justice. En effet, avec un volume de dossiers colossal, la durée des procédures est une difficulté majeure dans le domaine, et qui décourage même certaines personnes à faire valoir leurs droits.

 

Pour pallier ce problème, le ministère de la Justice a identifié quatre cas d’usage pour lesquels l’IA serait un outil efficace :

 

  • La retranscription d’entretiens : automatiser la mise en texte des réunions, puis de tous les entretiens liés aux différents métiers de la justice.

 

  • Une aide à la recherche : faciliter l’accès aux jurisprudences et aux textes juridiques pour les professionnels du droit.

 

  • L’interprétariat et la traduction : améliorer l’accompagnement des justiciables et professionnels qui rencontrent des difficultés liées à la maitrise de la langue.

 

  • Le résumé de dossiers : synthétiser le volume important de documents juridiques pour un meilleur traitement des affaires.

 

Ainsi, cette implémentation de l’IA dans notre système judiciaire a de nombreux avantages, mais ne peut se faire sans une utilisation précautionneuse au vu de la sensibilité des données utilisées.

 

Dans cette optique, une charte d’usage de l’intelligence artificielle est en cours d’élaboration par le ministère de la Justice.

 

> Pour en savoir plus, lire l'article "Développer l’intelligence artificielle (IA) pour la Justice : entre innovation et sécurisation".

Depuis plusieurs années, les systèmes d’intelligence artificielle sont déployés au sein des différentes institutions publiques. C’est le cas du ministère de l’Economie et des Finances sur lequel la Cour des comptes a publié un rapport en octobre 2024. On y apprend notamment l’utilisation par la DGCCRF d’un système d’IA capable de proposer automatiquement les bons textes pour les courriers de réponses aux consommateurs.

 

Un autre système pour la DGCCRF nommé « Chatbot Code de la consommation » est en cours d’étude. Il serait destiné à informer les consommateurs ainsi que les professionnels.

 

Néanmoins, l’utilisation de systèmes d’IA dans les services publics nécessite un encadrement et une transparence pour les consommateurs. La Défenseure des droits avait alerté à ce sujet en fin d’année dernière.

Comme la majorité des activités humaines, qu’elles soient physiques ou dématérialisées, l’IA a un impact environnemental, et qui n’est pas des moindres.

 

En effet les coûts sont multiples : en électricité, en eau, en minéraux et métaux rares.

Selon l’Agence internationale de l’énergie (AIE), la consommation d’électricité du secteur de l’IA devrait se multiplier par 10 entre 2023 et 2026. L’impact direct de cette augmentation serait une multiplication par 2 de la consommation totale des centres de données, aujourd’hui responsable de 4 % de la consommation globale d’énergie.

 

A cela, il faut ajouter les émissions de gaz à effet de serre. Les géants de la tech ont vu leurs émissions de CO2 exploser avec l’utilisation de l’IA : selon un rapport de Google de juillet 2024, les émissions de l’entreprise ont atteint 14,3 millions de tonnes de CO2, ce qui représente une augmentation de 48 % par rapport à 2019.

 

La solution à cette contrainte de taille est l’utilisation de systèmes d’IA moins coûteux en ressources, et donc plus vertueux pour l’environnement : les IA frugales. Dans cette optique, le ministère de la Transition écologique, de la Biodiversité, de la Forêt, de la Mer et de la Pêche a publié en partenariat avec l’Afnor (Association Française de normalisation) un référentiel à destination des fournisseurs d’IA détaillant les bonnes pratiques pour développer des IA frugales.

Les réseaux sociaux et internet de manière générale sont un terreau fertile pour l’utilisation de l’intelligence artificielle à des fins malveillantes.

 

Le premier exemple et le plus répandu est celui des fake news. En effet, avec la génération de fausses photos, fausses vidéos ou mêmes de faux audio, les fausses informations peuvent se propager à grande vitesse. Il est donc impératif de vérifier une information depuis plusieurs sources différentes et fiables pour être sûr de sa véracité.

 

Une autre utilisation malveillante des outils de génération d’images par IA a récemment fait parler d’elle sur les réseaux sociaux. Sur Facebook, on peut voir circuler des photos mettant en scène des personnes posant à côté de sculptures invraisemblables, des enfants avec leurs gâteau d’anniversaire, ou encore des photos de personnes âgées. Le but de la manœuvre est double :

 

- créer de l’engagement avec des légendes qui poussent avoir le plus de réactions possibles, avec des phrases comme : "J’ai fait cette sculpture avec beaucoup d'amour, mais je suis triste car personne ne l'a aimé…". Les escrocs jouent ainsi sur l’émotion des utilisateurs pour engranger des revenus liés au publicités. Ils profitent de la crédulité de personnes âgées qui sont présent en nombre sur le réseau social.

 

- ou alors de profiter de ces mêmes personnes âgées en les contactant par message privé, après qu’elles ont réagi à la publication pour tenter de leur soutirer de l’argent.

 

Exemple de publication réalisée avec des IA et qui cumule des centaines de réactions sur Facebook
 

L’un des autres risques pour les consommateurs est l’utilisation de leurs données personnelles et les risques d’atteinte aux libertés individuelles. La CNIL a lancé des travaux depuis quelques années et a notamment publié récemment ses nouvelles recommandations pour une innovation responsable.

Le sujet d’une réglementation de l’intelligence artificielle dans l’Union européenne (UE) faisait l’objet de discussions depuis 2021, et c’est le 21 mai 2024 que le Conseil européen adopte officiellement l’AI Act, qui sera publié au Journal officiel de l’UE le 12 juillet 2024. Voici les étapes clés de sa mise en œuvre :

 

  • 1er août 2024 : entrée en vigueur de la loi, mais sans application de ses dispositions.

 

  • 2 février 2025 : les premières interdictions s’appliquent, notamment sur les systèmes d’IA à risque inacceptable (notation sociale, identification biométrique des individus dans les espaces publics).

 

  • 2 août 2025 : application des règles pour les modèles d’IA à usage général (ex : ChatGPT), qui doivent respecter des critères de transparence, de gouvernance des données. Les autorités nationales doivent également nommer les autorités compétentes pour l’évaluation et le contrôle des systèmes d’IA.

 

  • 2 août 2026 : application des règles aux systèmes d’IA à haut risque, comme ceux utilisés dans des outils biométriques, les infrastructures critiques (infrastructures essentielles à l’Etat), l’éducation ou la justice.

Mise en place de bacs à sable réglementaire, c’est-à-dire permettre à certaines entreprises désignées de bénéficier d’un cadre réglementaire plus souple pour tester leurs produits et services sous la supervision d’un régulateur. Le but de la manœuvre est de favoriser l’innovation tout en évaluant les risques et adapter la réglementation.

 

  • 2 août 2027 : application des règles aux systèmes d’IA à haut risque utilisés dans certains produits réglementés comme les jouets ou les dispositifs médicaux. 

Être averti d'une mise à jour
Cliquez ici pour ouvrir de nouveau le bandeau d’information et de réglage des cookies Haut de page