Intelligence artificielle, réalité augmentée, réalité virtuelle… des mots qui paraissaient il y a encore peu de temps dans le domaine de la fiction, sont aujourd’hui devenus des mots communs, grâce notamment à Chat GPT, même si l’IA existe depuis bien plus longtemps. Chacun dans leur espace, ils sont pour certains le devenir de la médecine, et pour d’autres le début des ennuis…
![]() |
Comme chacun le sait aujourd’hui, l'intelligence artificielle (IA) désigne des systèmes informatiques capables d'imiter des comportements humains (perception, raisonnement, apprentissage, compréhension) qui permettent aux machines d'analyser un nombre impressionnant de données en prenant des décisions d’une rapidité et d’une précision exceptionnelles. L'IA repose sur des composants clés comme les algorithmes avancés, les bases de données et les systèmes informatiques, en utilisant des sous-domaines tels que le machine learning, le deep learning, la vision par ordinateur, et le traitement du langage naturel.
L'IA est aujourd'hui omniprésente dans notre quotidien, que ce soit à travers les assistants vocaux, la reconnaissance faciale, la médecine, la sécurité, ou encore la création artistique, et continuera à l’avenir de transformer profondément notre société et notre économie.
L’intelligence artificielle se divise en deux types spécifiques qui sont l’IA faible (ou spécialisée), conçue pour exécuter des tâches spécifiques et l’IA forte (ou IA générale) qui tend à simuler l'intelligence humaine dans tous les domaines.
- L'IA faible est conçue pour accomplir une tâche précise et limitée, comme la reconnaissance vocale, la traduction de langues ou la conduite autonome. Elle fonctionne à partir d'algorithmes préprogrammés ou en se basant sur le machine learning, pour exécuter efficacement des fonctions spécifiques, sans compréhension ou conscience au-delà de sa programmation. Elle ne peut pas s’adapter à des domaines ou des tâches différentes de celles pour lesquelles elle a été conçue.
- L'IA forte, encore hypothétique dans certains sujets (mais pour combien de temps ?) et en cours de développement, reproduit l'intelligence humaine dans sa globalité en apprenant de son propre fait, en raisonnant, en comprenant le monde et en transférant ses connaissances dans tous les contextes demandés. Elle peut résoudre des problèmes variés, s’adapter à de nouvelles situations et posséder une forme de métacognition ou conscience artificielle.
L'EXPERTISE HUMAINE VS INTELLIGENCE ARTIFICIELLE, LA DIFFICILE ÉQUATION DE L’ÉQUILIBRE
Pensée en 1950, Alan Turing, mathématicien et cryptologue britannique, a publié un article mémorable sur la possibilité de créer des machines dotées d’une véritable intelligence. Le test de Turing a été la première hypothèse sérieuse dans le domaine de la philosophie de l'intelligence
artificielle.
Elle joue aujourd’hui un rôle clé dans de nombreux domaines stratégiques tels que la géopolitique, les finances, le changement climatique et bien sûr la santé, qui vont profondément changer nos comportements et notre vision de l’humain. Il est donc crucial de prendre du recul afin d’avoir une compréhension sur toutes les données concrètes de l’IA afin de comprendre où nous en sommes et ce vers quoi nous allons, car l’essentiel est là :
comprendre notre avenir.
Dans le domaine de la santé, le Comité consultatif national d’éthique (CCNE)1 s’était penché sur l’IA en reconnaissant que « le recours à l’intelligence artificielle peut être bénéfique au niveau du diagnostic » tout en observant que « la machine est capable d’opérations de calcul extrêmement plus complexes que l’être humain et sa mémoire est quasiment infinie ». Elle peut travailler sans relâche et produire un diagnostic « plus rapide et plus précis » dans une variété de champs d’application très larges.
L’intelligence artificielle, qui peut « accumuler un nombre de schémas d’interprétation médicale sans commune mesure avec les capacités d’un médecin », soulève des questions autour de la responsabilité : « Faut-il et, si oui, comment, rendre indispensable et responsable l’expertise humaine ? », et cela même si l’IA prend une place de plus en plus importante dans la décision finale ? En d'autres termes, où trouver l’équilibre
machine/homme ?
Selon Laurent Alexandre, médecin et spécialiste de l'intelligence artificielle : « On est face à une révolution technologique qui est complètement
sous-estimée par les Français. Chat GPT gagne un point de quotient intellectuel chaque semaine. Chat GPT O3 fait quatre fois mieux les diagnostics médicaux que les médecins spécialistes hospitaliers ». Le spécialiste de l'intelligence artificielle recommande de « complètement réorganiser le système de santé et les études de médecine vu la vitesse à laquelle galope l'intelligence artificielle ». L’avenir est juste à notre porte.
À nous donc d’anticiper l’IA.
L'IA EN CHIFFRES
En 2019, on estimait le marché de l’IA à 90 milliards de dollars pour 2025. Il est aujourd’hui estimé à 244 milliards de dollars. L’accroissement est donc terriblement exponentiel avec une perspective de 1000 milliards de dollars en 2031.
Cette technologie s’est fortement imposée dans tous les domaines, et nous l’utilisons sans nous en rendre compte :
- 66 % des personnes l’utilisent régulièrement.
- 78 % des organisations utilisent l’IA.
- 90 % des hôpitaux s’en servent pour le diagnostic.
- 92 % des étudiants ont recours à l’IA générative.
- 51 % du marketing ont été séduit par cette technologie.
Mais l’IA continue également sa folle avancée dans la consommation du grand public où seule 60 % de la population mondiale vit sous une législation encadrant l’IA.
LES RISQUES DE L’IA
Si l’IA offre des bénéfices potentiels indéniables, les risques qui y sont liés sont nombreux et préoccupants, tant sur le plan social et éthique que sécuritaire tels, la désinformation, les deepfakes malveillants, les vidéos avec des visages modifiés… La confiance n’est pas à sous-estimer devant un scepticisme ambiant qui va de pair avec les attaques sur le net.
La régulation des gouvernements, la transparence et l’éthique sont essentielles pour limiter ces dangers.
- Les préjugés humains : En s'appuyant sur ses recherches dans les bases de données (favorables à ces sujets), l'IA renforcera probablement le racisme, le sexisme ou d'autres sujets à risque en ciblant par exemple certains groupes ethniques ou de genre.
- Cybercriminalité : L'IA facilite la création de contenus falsifiés comme les deepfakes, qui peuvent être utilisés pour nuire, diffuser de fausses informations, de fausses vidéos ou des manipulations sur l’opinion publique.
- Impact environnemental (voir ci-dessous) : La consommation énergétique des data centers liés à l'IA est considérable, contribuant à la pollution et à l’épuisement des ressources naturelles, notamment dans les pays du Sud.
- Surveillance invasive et dérive autoritaire : L’IA permet une surveillance de masse, souvent discriminatoire, avec un renforcement de la répression, comme c’est le cas avec la reconnaissance faciale ou les systèmes de contrôle aux frontières, mettant en suspens la vie privée et les libertés fondamentales, notamment dans les pays à régimes dictatoriaux où l’intelligence artificielle peut être une aide considérable pour ces pouvoirs. Elle pourrait également compromettre les démocraties.
- Armes autonomes : La possibilité que des systèmes d’armes, comme les drones ou robots-tueurs, prennent des décisions de tuer sans contrôle humain représente une menace existentielle, avec des risques d’escalade de conflits.
- Perte de contrôle de la technologie : La course à la création d’une IA généralisée ou superintelligence pourrait échapper à tout contrôle humain dans le futur, avec des conséquences imprévisibles pouvant mettre en danger l’humanité tout entière.
- Contrefaçon : fabriquer de faux contenus, comme des oeuvres d’art en activant le style d’un peintre reconnu d’après une photo par exemple, ou en musique avec un générateur IA (paroles comprises), pouvant être vendus sous une fausse paternité.
L’EMPREINTE ENVIRONNEMENTALE
L’intelligence artificielle requiert des quantités considérables d’énergie avec les data centers, les algorithmes complexes et la consommation d’énergie nécessaire pour le fonctionnement de cette technologie. Et ce n’est pas près de s’arrêter avec la montée en puissance des modèles de type GPT-4, Perplexity ou encore Google Gemini. Les LLMs (Large Language Models) nécessitent des infrastructures de fonctionnement 24h/24 et 7j/7, une consommation énergétique qui pose des questions fondamentales sur la durabilité de ces technologies dans un monde confronté à une crise majeure du réchauffement climatique, notamment parce que cette énergie provient de sources non renouvelables. On estime qu’il faudrait 4 à 6 fois la consommation annuelle du Danemark en eau, juste pour refroidir les centres de donnés de l’IA d’ici à 2027.
Actuellement, les technologies de l’IA échappent encore à des réglementations écologiques strictes. Cela s’explique en partie par la nouveauté de ces technologies, mais également par la difficulté à mesurer précisément l’empreinte énergétique de chaque modèle d’IA.
SOURCES
1. Numerama
2. Inserm
![]() |

