TOUR D’HORIZON

L'intelligence artificielle ?
Je ne sais pourquoi Jean-Rémi m’a affublé du rôle de « M. IA Réditec » lors de notre première rencontre durant l’AG 2024, mais je me suis volontiers prêté au jeu qu’il m’a confié — rédiger un article sur la question — et qui m’a donné l’occasion de sérieusement me pencher sur un sujet qui anime actuellement nombre de questionnements, de craintes et de perspectives.
De plus en plus, au quotidien, nous pouvons entendre çà et là ces expressions : « J’ai demandé à 😼GPT de… », « C’est une IA qui a généré le nouveau… » ou encore « Est-ce qu’il y a de l’IA dans… ? »
Autant de synecdoques qui entretiennent les confusions en marche, lorsqu’il s’agit de s’emparer d’un domaine qui va (a) irrémédiablement bouleverser notre rapport à la technologie.
Commençons donc par un peu d’histoire pour éclairer notre lanterne :
L’Intelligence artificielle n’est certainement pas apparue en novembre 2022, lors du lancement grand public de 😼GPT3.0. Cela n’aura finalement été qu’une mise en scène longuement répétée.
Les premiers concepts évoquant la possibilité d’utiliser une machine pour imiter la pensée humaine sont nés au sortir de la Seconde Guerre mondiale, grâce aux travaux d’Alan Turing et de son incroyable machine de Turing[1], machine théorique, qui devait lancer les bases de l’informatique moderne. Le test qui porte son nom a été longtemps la référence pour mesurer la progression de la recherche en la matière. Il est en passe d’être dépassé.
L’expression Intelligence artificielle est consacrée quant à elle en 1956, lorsque les pères fondateurs de la discipline ont dû convaincre leurs tutelles du bien-fondé de leurs travaux. On peut raisonnablement penser que l’adossement de ces deux termes antinomiques a été suffisamment éloquent et provocateur d’imaginaires pour que les investisseurs de l’époque leur accordent une ovation.
S’en suit un âge d’or de la recherche. Les progrès en électronique et en algorithmique permettront des avancées fulgurantes, jusqu’à faire émerger un premier agent conversationnel, Eliza, en 1964.
Les avancées technologiques de l’époque connaissent cependant un retard sur la recherche théorique, et une première saison hivernale de l’intelligence artificielle débute au milieu des années 70.
Il faudra attendre les années 80 pour qu’apparaissent les systèmes dit experts, capables de reproduire des mécanismes déterministes dans des domaines de pointes. Leurs applications pratiques resteront néanmoins cantonnées aux cercles des ingénieur. es et de l’industrie.
Au tournant des années 90, un second hiver fera date et c’est finalement en 1997 que la première du spectacle fût programmée : IBM présentera au grand public les capacités de sa création, DeepBlue, qui viendra à bout du champion Kasparov, lors d’une partie d’échec restée mémorable. DeepMind poursuivra la compétition définitivement lancée, en faisant remporter à sa machine AlphaGo, la finale du jeu de Go, face à Lee Sedol, en 2016.
On remarquera que le jeu a toujours été intimement lié à l’avènement des IA.
Cette mise au point historique posée, quel est le champ d’investigation de l’Intelligence artificielle ?
Loin d’être UNE entité pseudo humaine, singulière et insaisissable, l’expression IA fait référence avant toute chose à un domaine de recherche très récent, qui mobilise des disciplines scientifiques fondamentales, que sont l’informatique et les mathématiques appliquées, mais aussi d’autres, et c’est important de s’en souvenir, plus humaines et moins évidentes de prime abord, telles que la psychologie cognitive, les neurosciences, la philosophie, les sciences sociales, la linguistique… L’espace de jeu n’est donc pas uniquement réservé qu’aux geeks.
La création de ce domaine de recherche a fait apparaitre des départements d’études spécialisées, qui ont tous leurs propres axes applicatifs. On peut citer pêle-mêle : la vision par ordinateur (les applications de tracking éclairage et vidéo déjà à l’œuvre, bientôt adaptées à l’audio – des plans de feux micros apparaitront-ils avec l’arrivée du mixage objet ?), la robotique[2], l’IA explicable, qui s’attèle à rendre compréhensible aux humains que nous sommes les systèmes d’intelligence artificielle, l’IA éthique, qui établit les principes pour garantir un développement respectueux de l’IA[3], l’IA embarquée (embarquée dans les consoles son et lumière ? Bientôt fini les recopies ou les incompatibilités de protocoles ?), l’IA symbolique, qui s’attache à comprendre la représentation de la connaissance humaine sous forme symbolique ou logique, l’IA émotionnelle, qui développe des systèmes capables de réagir aux émotions humaines, une piste non négligeable pour notre secteur créatif[4]. L’IA quantique (Einstein n’a qu’à bien se tenir ![5]), le machine learning*, et le deep learning* (le fait qu’un système d’IA puisse apprendre à reconnaitre un chat, qu’on lui en montre aucun, 1 ou 100 millions), l’IA générative (ça on connait : 😼GPT, Gemini, Mindjourney, Perplexity, Deepseek, LeChat, j’en passe et des pires ou des meilleures[6]).
A travers cette approche, nous percevons un peu mieux que la cohorte d’agents conversationnels, 😼GPT en tête, qui passionne les pauses-café depuis plusieurs mois, n’est bel et bien que le sommet de l’iceberg, qui lui par contre, n’a pas fini de fondre…
La révolution technologique que nous vivons en direct est finalement surtout celle du langage[7]. Les lettres sont devenues des chiffres, les nombres sont devenus verbes[8]. Et c’est bien ça la véritable révolution. Nous ne sommes désormais plus la seule espèce à être doté de langages articulés. Notre humanité a conçu un artefact capable de lui rivaliser cette prérogative. Mais rassurons-nous, cette nouvelle faculté est fondamentalement basée sur une approche intimement calculée de la construction linguistique. L’IA est un nouveau sophisme, l’espèce humaine restera la seule capable de sensibilités et de responsabilités.
Pour celles et ceux qui voudraient aller plus loin, je vous conseille la lecture du guide de Caroline Ponticelli[9] ou de celui-ci plus conséquent édité par cairn.info[10] ainsi que la lecture des travaux de Jean-Gabriel Ganascia, Axel Cypel et Giada Pistilli.
Alors finalement, c’est quoi une IA ???
Soyons clair, les experts raisonnables s’accordent pour dire que l’intelligence artificielle forte, celle capable des prouesses que seul le cerveau humain peut accomplir à moindres frais énergétiques, n’est pas pour demain, ni même pour après-demain. N’en déplaise aux prédicateurs d’apocalypse[11]. L’IA est donc dite faible. Cela doit-il nous rassurer pour autant ? Une réalité plus tangible serait que l’usage de l’IA au quotidien modifiera en profondeur notre façon d’accéder aux informations, tel que les Internets nous y avaient habitués depuis 25 ans[12].
Une manière simple d’appréhender l’IA serait peut-être celle-ci : Il s’agit de la combinaison à la fois, d’algorithmes* (complexes, paramétrés sur des millions voire des milliards de variables et entrainants des modèles des réseaux de neurones profonds*) ; d’infrastructures et de matériels (en premier lieu les datacenters* qui engouffrent des quantités gargantuesques d’énergie. Mais il faut aussi s’attarder sur les équipements locaux, équipés de NPU*, qui pourraient être des solutions alternatives intéressantes face aux problématiques de confidentialité des données[13]) ; et enfin (et surtout il faudrait dire) de données, beaucoup, beaucoup, beaucoup de données. Toutes celles que l’on n’a pas le temps de lire et de consulter ou de tout simplement comprendre…
Certes, cela peut paraitre simpliste et réducteur, mais en retirant l’une ou l’autre de ces composantes, pas d’IA !
Dès lors, il semble plus facilement envisageable de savoir comment en appréhender les enjeux : les algorithmes sont le domaine réservé des développeurs (qu’on pourrait aussi appeler les créatifs ?) Il nous faudra en étudier les outils mis à notre disposition, comment les adapter, voire les détourner. Les infrastructures et le matériel sont l’affaire des fabricants et des prestataires-hébergeurs. Il nous faudra en comprendre les spécificités techniques, pour ne pas s’équiper de machines à re. rouler le gaffer. Les données, par contre, nous concernent. Nous en sommes les producteurs et les consommateurs. Elles sont un bien précieux. Là est certainement l’enjeu le plus crucial, celui sur lequel nous pouvons et devons agir, en tant que citoyen.nes bien sûr, mais aussi en tant que professionnel.les.
RedIAtec
Réditec ready pour l’IA ?
Quels sont les enjeux pour nos métiers ? Quelles sont les attentes de nos adhérent. es ? Quelles positions peut adopter l’association ?
Les enjeux, comme précisés un peu plus haut, peuvent être à creuser du côté des données que nous manipulons. Établir nos dataset* — comme l’impose la novlangue apparue avec l’IA, notre corpus de données en d’autres termes. Un groupe de travail de nos directions (au sens orientations) techniques, de lieux, de spectacles et d’évènements pourrait se constituer autour de ce sujet. Un tas de données nous échappent, ou pas, mais sont dans tous les cas omniprésentes dans nos quotidiens : comment recueillir, analyser et traiter nos données de consommations énergétiques ? Électriques ? Thermiques, d’accidentologie du travail ? D’organisations, de planifications, managériales, nos données commerciales, contractuelles, documentaires, architecturales, scénographiques, sécuritaires, sanitaires… Quels en sont leurs formats ? Comment les harmoniser et les mettre en commun pour disposer d’un open data*, utile à tous.tes ? Le Foyer, quant à lui, repose sur une base de données voulue indépendante depuis sa mise en service, invisible aux GAFAM, nourrie par 10, et même 20 ans de riches échanges, et plus encore à venir. En voilà une source à explorer et à faire lire à un transformer* ! Quels sont les interlocuteurs à inviter à notre table pour nous aider à piloter ces richesses ? Data scientist*, ingénieur ML*, bureaux d’études, services gestionnaires, concessionnaires, centres de formation, tutelles, utilisateur.ices et usagers… Vaste chantier qui doit nous permettre le fine-tuning* de nos précieux savoirs.
Quelles sont les attentes pour nos membres ? Les échanges de pratiques, l’accompagnement à déceler les bonnes et les moins bonnes. L’appropriation des environnements, la vulgarisation des termes, la formation des équipes. La relecture des référentiels métiers est à mettre en parallèle des promesses annoncées pour en relever les bénéfices et les limites. De nouveaux métiers sont déjà apparus, d’autres disparaitront. Cela a toujours été le lot des périodes de transitions technologiques et il faut nous y préparer, encore une fois. De nouvelles fiches de postes seront à rédiger et les grands modèles de langages — LLM* — seront à coup sûr sollicités pour nous en soulager. Entre les prompts*, qui auraient l’outrecuidance de nous réapprendre à faire des phrases, les hallucinations*, qui doivent nous alerter sur la véracité des inférences* obtenues, et autres tokens* qui réinventent les syllabes dans le langage des machines, la compilation d’un glossaire pour ce nouveau champ lexical à assimiler est indispensable pour qui veut s’en saisir et l’animation d’espaces d’interconnaissances à travers les blablatec est un format à notre disposition.
Le positionnement de l’association enfin, qui doit sans nul doute passer par encore plus d’interconnexions, partagées et croisées, avec les autres réseaux professionnels et citoyens, et dont certain.es membres Réditec en sont déjà acteur.ices : faisons-le savoir à travers nos Rencontres. L’ère est définitivement aux réseaux de réseaux. Le rapprochement est déjà amorcé avec des organisations présentes depuis plusieurs années sur la question des nouvelles technologies, comme TMNLab, Hacnum,… Nous devons participer activement aux travaux en cours, mais aussi développer nos propres thématiques au sein de ces initiatives, pour ne pas risquer de laisser à d’autres le soin de s’en saisir et nous laisser regarder le spectacle depuis nos bureaux.
Plus que jamais donc, parlons-nous, écoutons-nous, rencontrons-nous !
IA plus qu’à…
Par Nicolas Nacry
[1] d’où le nom du film qui lui est consacré d’ailleurs : The imitation game
[2] voir à ce sujet le spectacle de Huang Yi https://www.youtube.com/watch?v=Q-sK-s_TzN0
[3] consulter à ce sujet l’initiative https://www.sorbonne-universite.fr/dossiers/intelligence-artificielle/communs-democratiques-lia-ethique-au-service-des-debats-citoyens
[4] https://dailyscience.be/02/12/2019/lintelligence-artificielle-entre-en-scene/
[6] Le gouvernement nous a mis à ce propos une plateforme à disposition pour les comparer : https://www.comparia.beta.gouv.fr/ . Instructif
[7] Je vous recommande pour vous en convaincre, l’écoute des épisodes passionnants du Code a changé à ce sujet https://www.radiofrance.fr/franceinter/podcasts/le-code-a-change/le-code-a-change-7-8131380, et finalement de tous les autres épisodes d’ailleurs.
[8] https://www.humensciences.com/livre/Parole-de-machines/131
[9] https://cdriml.ac-versailles.fr/2025/04/livret-ia-lessentiel/
[10] https://shs.cairn.info/guide-de-l-ia-generative–9782807361706?lang=fr
[11]Ecoutez à ce sujet l’épisode de l’émission de France Culture, La science CQFD : https://www.radiofrance.fr/franceculture/podcasts/la-science-cqfd/ia-forte-la-paranoia-5901100
[12] https://www.numerama.com/tech/1967897-pour-la-premiere-fois-un-geant-de-la-tech-affirme-que-lia-va-tuer-le-web.html
[14] Avez-vous déjà fait l’expérience de demander à 😼GPT de rédiger une fiche de poste d’une régie parking de festival ? Impressionnant !
[15] Retrouver dans le glossaire les définitions des termes *
[16] Lire à ce sujets l’article Hacnum dans ce tour d’horizon
Glossaire
Algorithme
Un algorithme est une série d’instructions ou une procédure logique permettant de résoudre un problème ou d’accomplir une tâche, en produisant un résultat précis. Une recette de cuisine est un algorithme. Une conduite plateau, son ou lumière aussi d’une certaine façon…
Datacenter
Infrastructure physique sécurisée où sont hébergés des équipements informatiques (serveurs, stockage, réseau) permettant le stockage, la gestion et la transmission de grandes quantités de données. Les centres les plus importants en France sont situés à Paris, mais aussi à Marseille, du fait de sa localisation d’interconnexion avec les câbles sous-marins de l’internet. Uniquement pour cette ville, leur puissance absorbée est de l’ordre de 100 MW, et celle-ci est prévue d’être doublée d’ici à 2030 pour les besoins de traitement IA.
Datascientist
Expert en analyse de données qui collecte, traite, interprète et exploite de vastes ensembles de données.
Dataset
Collection organisée de données qui peuvent inclure des valeurs numériques, nominales ou de tout autre type tel que des statistiques, des textes, des images, des sons ou des vidéos, et peuvent être représentées dans différents formats standardisés comme JSON, XML ou RDF. Les dataset sont souvent utilisés pour l’analyse, la modélisation, l’apprentissage automatique ou la visualisation. Ils constituent la matière première pour entraîner des modèles d’intelligence artificielle.
Fine-tuning
Méthode d’ajustement spécifique d’un modèle de machine learning généraliste. Elle consiste à réentraîner tout ou une partie du modèle déjà formé, en utilisant un dataset spécialisé, afin d’améliorer ses performances dans un domaine précis. Elle offre une solution efficace pour obtenir des modèles dans des contextes spécialisés.
Hallucinations
Dans le contexte de l’intelligence artificielle, désigne un phénomène où un modèle d’IA générative, comme un Large Language Model (LLM), produit une réponse incorrecte ou trompeuse qui semble crédible, mais qui n’a en réalité aucune base dans les données d’entraînement ou la réalité. Ces résultats peuvent prendre la forme d’informations inventées, de citations fictives ou de données erronées, présentées avec une grande assurance. Contrairement à une erreur technique ou un bug, l’hallucination résulte du mode de fonctionnement probabiliste des modèles, qui génèrent du contenu en se basant sur des prédictions statistiques sans vérification explicite de la véracité des faits.
Inférences
Dans le domaine de l’intelligence artificielle, processus par lequel un modèle d’IA, après avoir été entraîné sur un ensemble de données, utilise ses connaissances acquises pour analyser de nouvelles données et en tirer des conclusions, des prédictions ou des décisions. En d’autres termes, c’est la réponse à un prompt que fournit une IA générative, ou le comportement d’une voiture autonome lorsqu’elle reconnaît un panneau d’arrêt sur une route qu’elle n’a jamais empruntée auparavant. L’inférence permet ainsi à l’IA de fonctionner dans des environnements réels, en transformant les modèles entraînés en outils pratiques capables de prendre des décisions rapides et précises.
Ingénieur ML
Expert en développement d’algorithmes d’apprentissage automatique, qui conçoit, développe et déploie des modèles capables d’analyser de grandes quantités de données, d’identifier des patterns* et de faire des prédictions ou de prendre des décisions automatisées. Son rôle consiste à transformer des données brutes en systèmes intelligents, en intégrant ces modèles dans des infrastructures techniques complexes. Il intervient à l’intersection de l’informatique, des mathématiques, des statistiques et des applications métiers, afin d’améliorer la performance des systèmes et de répondre aux besoins spécifiques.
LLM
Large Language Model, ou Grand Modèle de Langage, sont des programmes informatiques entraînés pour comprendre et produire du langage naturel de façon fluide, rapide et précise, constituants une pierre angulaire de la révolution de l’intelligence artificielle générative en 2025.
Ces programmes sont construits à partir de réseaux de neurones profonds*, notamment grâce à l’architecture dite de Transformers*. Les LLM sont entraînés sur des ensembles de données très volumineux, souvent composés de plusieurs milliards de mots, afin de prédire la suite probable d’une séquence de mots ou de générer du texte cohérent en réponse à un prompt, sans véritable compréhension consciente.
Ils sont capables d’effectuer diverses tâches telles que la traduction, la rédaction automatique, la réponse à des questions, la classification de contenu ou encore la génération de contenu multimédia (images, vidéos, etc.), en étant souvent ajustés via des processus de fine-tuning* pour des applications spécifiques.
OPEN DATA
Désigne des données numériques accessibles à tous, souvent gratuitement, qui peuvent être utilisées, réutilisées et redistribuées sans restriction technique, juridiques ou financières. Ces données proviennent principalement de secteurs publics, mais aussi de source privée, et couvrent une large gamme de domaines tels que la météorologie, la cartographie, l’énergie, les transports ou encore les performances des services publics.
Les principes fondamentaux de l’Open Data sont :
Accessibilité et disponibilité : les données doivent être facilement accessibles en ligne, dans un format exploitable par une machine.
Réutilisation et redistribution : elles doivent pouvoir être combinées avec d’autres données et partagées librement.
Participation universelle : tout le monde doit pouvoir y accéder sans discrimination.
L’Open Data repose également sur des licences ouvertes qui garantissent la liberté d’utilisation, ainsi que sur une philosophie du bien commun, favorisant la transparence, l’innovation et l’engagement citoyen.
PATTERN
Dans le domaine de l’intelligence artificielle, désigne une structure ou un schéma récurrent qu’un système d’IA identifie dans un jeu de données, qu’il s’agisse de textes, d’images, de sons ou d’autres types de données.
NPU
Neural Processing Unit, ou unité de traitement neuronal, est un processeur spécialisé conçu spécifiquement pour exécuter des tâches liées à l’intelligence artificielle et à l’apprentissage automatique. Elle est optimisée pour traiter efficacement les opérations mathématiques complexes, notamment les multiplications de matrices, qui sont fondamentales dans les réseaux neuronaux et l’apprentissage automatique.
Les NPU se distinguent des CPU (processeurs polyvalents) et des GPU (processeurs graphiques spécialisés dans le rendu graphique) par leur capacité à réaliser des opérations en parallèle de manière très efficace tout en consommant moins d’énergie. Elles sont particulièrement adaptées pour gérer des tâches telles que la reconnaissance d’images, le traitement du langage naturel, la traduction en temps réel, la reconnaissance vocale et d’autres applications d’IA, souvent directement sur l’appareil (embarquées localement).
Les NPU sont devenues essentielles dans le développement de dispositifs modernes, car elles permettent d’améliorer les performances de l’IA tout en optimisant la consommation d’énergie.
Prompt
Instruction ou une série de directives données à une intelligence artificielle générative pour obtenir une réponse, une action ou un contenu spécifique. Il peut s’agir d’une question simple, d’une demande complexe ou d’un ordre précis, qui sert de point de départ pour orienter le fonctionnement de l’IA générative. Plus le prompt est clair, précis et détaillé, plus la réponse produite sera pertinente et adaptée aux attentes de l’utilisateur.
Token
Dans le domaine de l’intelligence artificielle générative, un token (ou jeton) est une unité fondamentale de traitement du texte. Il peut représenter : un mot entier, une partie de mot (par exemple : un fragment ou une syllabe) ou un caractère individuel (comme une ponctuation).
Les modèles d’IA utilisent ces tokens pour analyser, comprendre et générer du contenu textuel. Lorsqu’un texte est traité, il est découpé en tokens, qui sont ensuite convertis en nombres pour être manipulés par l’algorithme. La gestion efficace des tokens est essentielle pour la performance des systèmes d’IA, car elle influence la compréhension du langage, la fluidité des réponses et la capacité à traiter de longs textes ou dialogues. Il s’agit également de l’unité utilisée par les acteurs économiques de l’IA pour quantifier et monnayer les volumes de prompts et d’inférences des agents LLM dédiés et entrainés spécifiquement pour un usage professionnel.
Transformer
Technologie utilisée en intelligence artificielle qui permet aux machines de comprendre et de traiter des séquences de données, comme des phrases ou des images. Les Transformers sont une avancée technologique qui permet aux machines de mieux comprendre et de créer du contenu, en se concentrant sur ce qui est vraiment important dans chaque donnée. Leur grande innovation repose sur un mécanisme appelé « attention » qui aide la machine à se concentrer sur les éléments les plus importants d’un texte ou d’une image, peu importe leur position dans la séquence.
Contrairement aux anciennes méthodes, qui lisaient les données mot par mot ou pixel par pixel, les Transformers analysent tout en même temps, ce qui accélère leur traitement et améliore leur précision. Ils sont capables d’apprendre à représenter le contexte d’un mot ou d’une image en fonction de ce qui l’entoure, ce qui leur permet de mieux comprendre le sens et la nuance.
Ces modèles peuvent être entraînés sur de grands volumes de textes ou d’images, souvent sans avoir besoin d’être explicitement guidés, ce qui facilite leur apprentissage. Ils sont à la base de nombreuses applications modernes comme la traduction automatique, la génération de textes, la reconnaissance vocale ou la création d’images.
Réseaux de neurones profonds
Un réseau de neurones profonds est un type d’algorithme d’apprentissage automatique inspiré par la structure et le fonctionnement du cerveau humain.
Comme le cerveau humain composé de neurones interconnectés, un réseau de neurones artificiels est constitué d’unités appelées « neurones artificiels » qui sont organisées en couches. La couche d’entrée reçoit les données d’entrées, la couche de sortie produit le résultat ou la prédiction. Le terme « profond » fait référence au nombre de couches cachées entre la couche d’entrées et de sorties.
Pendant la phase d’entraînement, un réseau de neurones artificiels ajuste les connexions entre les neurones (appelées « poids ») pour minimiser l’erreur dans ses prédictions. C’est un peu comme ajuster les réglages d’une console son pour mettre au point le mixage. Les données d’entrées seraient alors les oreilles et les données de sorties le sont en provenance des enceintes.
Pendant la phase de fonctionnement, chaque neurone reçoit des données entrées, les traite en appliquant une fonction mathématique, et passe le résultat pondéré aux neurones de la couche suivante. La dernière couche produit la sortie, comme une prédiction ou une classification.