Se préparer à demain avec grâce et détermination : l’IA et ses défis, parlons-en. | Afi U.
afiU logo
Sessions garanties Catalogue complet
Apprentissage et coaching

Cultivez une organisation apprenante et développez les talents.

Expérience client

Optimisez vos processus pour une excellence opérationnelle.

Expérience employé

Engagez, fidélisez et améliorez le bien-être au travail.

Intelligence artificielle

Maîtrisez l’IA et automatisez vos processus.

Leadership

Développez des compétences clés pour inspirer et mobiliser.

Outils numériques

Boostez la collaboration et la productivité de vos équipes.

Stratégie et performance

Alignez vos objectifs pour une croissance durable.

Transformation numérique

Exploitez la technologie pour innover et accélérer votre croissance.

ContactFAQ

Se préparer à demain avec grâce et détermination : l’IA et ses défis, parlons-en.

2 février 2026, par Marie-Pierre Habas-Gerard

Préface de Marie-Pierre Habas-Gerard.

J’ai étudié en mathématiques computationnelles appliquées au calcul ab initio en chimie quantique, moléculaire et structurale. J’ai poursuivi ces années de R&D et d’enseignement en université par 25 ans dans des multinationales, des PME et des startups, dans des rôles de directrice de programmes, de responsable de produits et de patronne de pratiques en IA. Je viens compléter cette expérience sur trois continents par un rôle de leader de la Faculté de transformation des affaires et IA, puis leader du Campus IA au sein d’Afi U. École des organisations, à Montréal. J’ai navigué entre le monde universitaire et le privé, deux mondes bien distincts. J’en ai appris les codes, traversé quelques no man’s land, croisé quelques « spécimens » vite oubliés, revenue galvanisée par la passion de répondre concrètement à des besoins d’affaires, porté l’éthique à bras-le-corps, vaincu des résistances et des amalgames, toujours portée par l’amour de l’équipe, de l’humain et le goût des défis. Refuser le statu quo est dans mon ADN. Je fais part ici de quelques constats que j’ai pu faire et amène, je l’espère, quelques pistes de réflexion.

On me dit souvent que l’IA est une technologie et que les changements qu’elle engendre ne sont rien de plus que ceux observés lors de l’émergence d’internet. Avec cette perception, dans ce message, l’IA serait une transformation technologique qui serait adoptée comme le furent les précédentes.

Faux.

L’émergence d’internet a permis un accès à l’information et une révolution des communications. Plus de limites, plus de frontières, tout est accessible, les individus peuvent se connecter et créer des communautés. De nouveaux modèles économiques émergent et donnent le champ libre au commerce électronique, entre autres. Les réseaux sociaux s’en donnent à cœur joie et l’information, saine ou malsaine, d’intérêt ou médiocre, se déverse sur nos ordinateurs, cellulaires et tablettes. L’adoption d’internet s’est faite progressivement et, sur 20 ans, on peut encore faire le postulat qu’elle progresse. Elle fut souvent freinée par des comportements générationnels pouvant mener à certaines fractures sociétales, provoquant parfois des inégalités et la fragilisation de certaines catégories de notre société. Ceci étant dit, l’humain peut faire le choix de rester en contrôle de l’information qu’il diffuse ou qu’il consomme.

L’intelligence artificielle, c’est différent. Oui, l’IA permet d’accéder à des contenus exhaustifs très rapidement, pour ne restreindre l’argumentaire, à ce niveau de la rédaction, qu’à sa fonctionnalité de recherche. Mais sa caractéristique discriminante est qu’elle traite les données, les analyse, les classifie. On l’a compris avec le hype de 2022 qui a exposé les solutions d’OpenAI, de Microsoft ou d’autres et qui, en privilégiant l’aspect de gamification propre à ces outils (Je joue donc je suis), a rendu plus concret, pour la première fois, ce type d’IA auprès du grand public. J’y reviendrai dans la suite.

Cette IA peut bonifier les données, les orienter et en faire des recommandations à l’utilisateur sans qu’il les sollicite obligatoirement.

L’IA apprend.

C’est le fondement même des modèles et méthodes d’apprentissage classique et profond. Elle apprend certes des données sur lesquelles on l’entraîne, mais elle peut également extrapoler sur des données plus éloignées des données d’apprentissage. Elle peut, pour certains sujets et certains cas d’usage, remplacer l’humain et provoquer la transformation, voire la mutation, de certaines de ses compétences et savoirs. On mesure ici une des différences majeures entre la puissance d’internet, comment nous l’avons intégré à nos vies, et la capacité transformationnelle de l’IA, qui vient bousculer notre statu quo, favoriser de nouveaux comportements et chambouler, à certains égards, notre culture commune.

Alors, de quoi parle-t-on quand on mentionne la culture et sa transformation induite par l’IA ?

La culture, c’est un ensemble de valeurs, de croyances, de pratiques et de comportements partagés qui donnent une identité à un individu, à un groupe, à une organisation et à une société. On y retrouve ses piliers, qui sont des normes implicites qui gouvernent notre façon d’interagir avec d’autres individus, de décider (pensez aux règles au sein d’une entreprise, par exemple) ou d’innover (pensez au modèle des startups, des centres de recherche, par exemple). Les rituels et les symboles façonnent également cette culture, tout comme notre façon de nous exprimer par le langage, les codes qui peuvent exister dans certaines sociétés plus que dans d’autres, etc. Toutes ces pratiques et ces comportements sont alignés avec une vision collective qui fait de celui qui les respecte un membre intégré et reconnu de la société, assurant ainsi, à l’échelle d’un groupe, sa cohésion et sa stabilité.

L’intelligence artificielle vient perturber, au sens scientifique, cet ordre établi. L’IA vient transformer drastiquement les méthodes de travail, bouleversant à elle seule la vertu sociétale imposée de l’effort et de sa valorisation. Faire un effort est depuis longtemps la base de notre société, reconnu comme une valeur, récompensé et rétribué par un diplôme, une reconnaissance, une promotion ou un salaire. Quand l’IA automatise des tâches, crée de nouveaux rôles (métiers augmentés), elle vient inhiber certains efforts jusque-là valorisés par certaines professions et certains rôles. Elle vient créer un vide et pousse le professionnel à réfléchir différemment et à être force de proposition sur sa propre activité.

Que puis-je faire de plus, de différent, parce que pertinent pour moi, mon équipe et mon organisation ? 

Le processus de décision est également perturbé : le chemin décisionnel se voit aplani, moins de niveaux, plus de rapidité. Le processus d’innovation est chamboulé : la startup doit passer d’une logique d’outils à une logique de valeur, et le MVP n’est plus un livrable valorisable ; les centres de recherche doivent pousser l’effort de transfert technologique vers les entreprises, la publication scientifique est moins valorisable.

Les interactions au sein d’un groupe et d’une organisation sont également bouleversées par une sorte de démocratisation de la décision. L’IA peut recommander des actions, et ce, à n’importe qui. Là où, par une structure organisationnelle hiérarchique, la décision était autrefois entre les mains d’un exécutif et difficilement remise en question, elle devient plus accessible à quiconque souhaiterait confier à une IA un contexte suffisamment riche pour que la recommandation soit réaliste et applicable. Une sorte de délégation de pouvoir qui, non sans risque, vient faire exploser certaines routines, aplanir les structures organisationnelles multicouches et révéler des failles organisationnelles où certains rôles deviennent inutiles.

La culture centrée sur l’expertise humaine et l’effort vient de se muter en culture centrée sur l’information, les données, la rapidité et l’efficacité. Changement majeur à bien des égards.

Et la bonne nouvelle dans tout ça ? C’est que l’adoption de l’IA n’est pas encore majeure et que la transformation est lente et cantonnée à des domaines très spécifiques, nous laissant le temps de nous préparer pour l’accueillir.

Alors, pourquoi l’adoption est-elle lente ?

Une des raisons que je nommerai en premier est que l’IA n’est pas encore mature.

La maturité de l’IA ne se limite pas à la performance des modèles. Certains modèles sont extrêmement performants. Pour autant, leur intégration au processus d’ingénierie logicielle menant à une solution, voire à un produit utilisable par un non-technologue en production, est compliquée. Je ne les nommerai pas en listant leurs avantages, c’est largement accessible dans la littérature. Ce qui m’intéresse ici est de clarifier, en mots simples, pourquoi ils sont jugés performants et pourquoi, pour autant, leur déploiement est complexe.

Avant de citer les modèles d’IA plus contemporains, faisons un bref aparté sur les modèles mathématiques de la recherche opérationnelle, qui optimisent la prise de décision dans des systèmes complexes sous contraintes. La recherche opérationnelle est souvent considérée comme une branche de l’IA dite « symbolique » et est fortement utilisée dans l’optimisation de flottes de véhicules, par exemple. Bien que ces modèles soient anciens, ils sont relativement bien déployés en production, mais sont moins sous les projecteurs que les modèles d’IA statistiques que je présente dans la suite.

Dans une réalité plus contemporaine, les modèles les plus performants sont principalement des grands modèles de langage naturel (LLM) et des systèmes multimodaux, les premiers reposant sur des architectures Transformers, connues depuis des décennies. Les LLM sont aussi utilisés par les modules d’IA agentique pour effectuer des tâches complexes.

Ils offrent une polyvalence parfois exceptionnelle (rédaction, codage, planification, analyse), une multimodalité naviguant entre du texte, des images, de l’audio ou de la vidéo, une vitesse d’inférence très rapide, souvent une capacité de raisonnement avancée, et, pour certains, des propriétés d’explicabilité ainsi que le respect de certains cadres réglementaires indispensables dans l’industrie de la finance, par exemple, et s’intègrent dans des outils bureautiques. Tout ceci les rend utilisables et donc adoptables par le grand public. Ils répondent majoritairement à des problématiques bureautiques et administratives.

Il existe d’autres modèles d’IA performants. Moins publicisés, car plus utilisés par l’ingénierie et les opérations des secteurs industriels, donc moins utiles au grand public. C’est le cas de la vision par ordinateur, qui est l’un des piliers de l’IA industrielle et qui permet l’automatisation et l’optimisation de chaînes de production, l’accélération de processus d’assurance qualité, l’autonomie d’aéronefs ou l’accélération du diagnostic en santé. On y retrouve des architectures Transformers similaires à celles du langage naturel, mais cette fois-ci appliquées au traitement des images, comme les modèles Vision Transformers (ViT), qui remplacent les CNN traditionnels et offrent une meilleure capacité à capturer des relations globales dans les images pour détecter des objets en temps réel, pour certains, avec une précision élevée et une faible latence.

De même, il existe des modèles assez performants qui combinent vision et langage pour des tâches multimodales (VLM), qui interprètent des images, des vidéos et du texte simultanément. Sans compter des modèles spécialisés particulièrement performants et qui vont intégrer des spécificités métiers.

Cependant, comme je l’expliquais précédemment, une IA mature, ce n’est pas uniquement et exclusivement un modèle performant. C’est une IA qui va en production. Et encore trop peu de solutions en IA y parviennent. Voici pourquoi.

Répondre au besoin d’affaires est le premier défi. Souvent difficilement atteignable, car il faut considérer l’ensemble d’un processus d’affaires, les cas d’usage, le savoir-faire des experts métier et non seulement une fonctionnalité. Ne pas y répondre ne convaincra pas les utilisateurs finaux et la perte de confiance sera immédiate, venant ainsi ruiner un potentiel ROI.

Intégrer une IA embarquée sur un drone pour le rendre autonome dans la détection de maladies végétales avant qu’elles ne se propagent, réduisant les pertes et optimisant l’usage des intrants (pesticides, engrais), ou dans la détection des obstacles en temps réel, est essentiel pour éviter les collisions et garantir des missions en environnement complexe (forêts, serres, champs irréguliers). C’est le besoin d’affaires. Mais faire en sorte que l’inférence soit rapide, précise et permette à la mission de se réaliser avec 100 % de confiance reste un défi. Les drones ont des ressources limitées (batterie, puce ou processeur embarqué). Les modèles d’IA performants (CNN, Vision Transformers) sont gourmands en calcul et en mémoire. La latence est un facteur critique et l’inférence doit se faire en millisecondes, sans dépendre d’un cloud (connectivité incertaine en zone rurale). Sans compter que la nécessité de réduire la taille du modèle pour accélérer l’inférence peut nuire à la précision. Trouver l’équilibre entre la robustesse du modèle, l’optimisation du processus et définir le cadre de la dualité applicative sont autant de contraintes à lever pour déployer en production. Et ce n’est qu’un exemple dans un océan de cas.

Autre frein au déploiement des IA dans des contextes industriels extrêmement réglementés (exemples en santé, en aéronautique ou en manufacturier) : les contraintes de performance et de conformité sont imposées à n’importe quelle ingénierie logicielle, et c’est valable pour l’IA. Comment y parvenir, comment cadrer une politique de tests et de QA, quand il est encore difficile de garantir un comportement reproductible, sans variance, d’un modèle d’apprentissage machine ? Comment faire pour que l’IA utilisée dans la solution soit conforme aux normes et standards, aux réglementations du secteur industriel ?

Au-delà de ces contraintes, qui sont le blocage immédiat et actuel au déploiement massif de ces IA, le coût d’infrastructure (GPU, TPU/ASIC ou HPC, edge computing et autres) en est un autre, tout comme le manque de données de qualité. Tous ces défis ne permettant pas, ou difficilement, de répondre aux modèles de calcul de ROI, en particulier pour des initiatives complexes, font stagner ces initiatives à des niveaux de POC ou, dans le meilleur des cas, de MVP.

Je terminerai enfin sur l’un des facteurs majeurs qui doit contraindre la phase de conception de la solution en IA et, de façon générale, son déploiement : l’éthique.

Si l’IA est conçue sans cadre éthique, elle renforcera les biais qui sont toujours présents dans les données d’entraînement et de test, elle pourra porter atteinte à la vie privée et créer des zones d’opacité, les fameuses boîtes noires, qui ne permettent pas de comprendre le comportement d’un modèle et bloquent l’efficacité de l’action humaine censée en valider les extrants.

Ce point est directement lié à la notion de culture que j’évoquais en début. Si les pratiques, les codes et les comportements de l’IA ne sont plus alignés, mesurés et exposés au jugement humain, comme c’est le cas de tout individu dans notre société, alors nous créons une faille majeure de cohésion et de stabilité de notre société.

Comment devons-nous nous préparer à accueillir l’IA dans sa grande globalité ?

Je l’avoue : à la sortie de ChatGPT, je fus agacée. Agacée par le bruit, par cette vague d’enthousiasme qui semblait transformer un outil en messie technologique. Agacée par l’amalgame immédiat (il subsiste encore) : ChatGPT, c’est l’IA et l’IA, c’est ChatGPT. Agacée parce que, derrière la fascination, je voyais le risque : celui de croire que l’IA est magique, qu’elle résout tout, mais surtout parce que je voyais les biais inhérents à sa conception et à son utilisation.

Et pourtant… l’outil a obtenu une belle adoption du public. Les mystères du marketing, me direz-vous ? Ou les délices de la gamification pour un cerveau humain. Je vous laisse choisir…

Mais, avec le temps, j’ai compris que cette agitation pouvait être utile : elle nous force à parler d’IA, à différencier l’IA générative du reste du monde, à en débattre, à nous interroger sur ses impacts. Et surtout, elle nous oblige à nous préparer.

Se préparer à l’IA, c’est apprendre en conscience, à hybrider quand c’est utile et à humaniser en imposant le cadre éthique dès la conception de la solution en IA.

Pour réussir cette transformation culturelle, il faut travailler avec les compétences que nous avons au sein de nos organisations et mettre l’accent sur trois axes : l’apprentissage continu, la mutation des métiers existants et la multidisciplinarité des savoirs.

L’IA évolue vite, et ce qui est pertinent aujourd’hui sera dépassé demain. Cela impose une culture de veille permanente et d’apprentissage continu. Les organisations doivent créer des environnements où la curiosité est encouragée, où l’expérimentation est favorisée, où les risques sont identifiés clairement et où les démarches de mitigation sont obligatoires (directement applicables à l’utilisation des outils d’IA générative), et où l’on développe une approche de gestion de l’incertitude propre aux sciences non (encore) exactes, comme c’est le cas de l’IA. Gros impact sur une culture classique qui ne favorise pas l’expérimentation dans des métiers très analytiques, comme la comptabilité ou l’ingénierie, par exemple.

Faire appel à des métiers inédits propulsés par l’IA (comme, par exemple, ingénieur en sûreté des systèmes autonomes, spécialiste en vision industrielle ou concepteur d’interfaces humain-machine en aéronautique) est indéniablement une bonne initiative pour accompagner la transformation organisationnelle et le changement culturel au sein de l’entreprise. Mais cela nécessite d’être déjà engagé dans cette transformation et non de la planifier. Plus utile actuellement sera de comprendre l’impact de l’IA sur les métiers et les professionnels existants et de les former à leurs nouveaux rôles et responsabilités dans ce qu’on appellera leurs métiers augmentés. Idéalement, il s’agira de les impliquer dans le design de leur métier augmenté en les responsabilisant à prendre en charge de nouvelles tâches qu’ils n’avaient pas jusqu’alors, mais qui viennent compléter celles qu’ils ont déléguées à l’IA, une logique qui sous-tend notamment les approches de structuration des usages et des compétences proposées dans le cadre du Campus IA.

Enfin, et à court terme, les cursus universitaires doivent évoluer pour intégrer la multidisciplinarité dans un métier et nous permettre d’alimenter le marché d’ici deux à trois ans. Former un ingénieur en IA sans lui donner des notions d’éthique, de psychologie cognitive et de droit, c’est créer un expert incomplet. Former un juriste sans lui expliquer les bases des algorithmes, c’est le priver d’outils pour réguler efficacement.

L’avenir appartient aux profils hybrides, capables de naviguer entre la technique et l’humain. Les programmes doivent intégrer la science des données et l’algorithmique, l’éthique et la gouvernance, la communication et le design centré sur l’humain, ainsi que des compétences sectorielles (santé, aéronautique, finance, agriculture, etc.).

Conclusion

L’intelligence artificielle transforme déjà en profondeur nos organisations, nos pratiques et même notre pouvoir de décision. L’IA ne se contente pas d’automatiser : elle recompose les chaînes de valeur, redistribue les rôles, aplanit les structures hiérarchiques et bouscule la façon même dont les décisions sont prises et légitimées. Ce déplacement du centre de gravité, de l’expertise humaine vers la donnée, de la vitesse vers l’efficience, exige un repositionnement conscient, responsable et stratégique.

Se préparer, ce n’est pas seulement adopter le plus grand nombre possible d’outils et écouter le chant des sirènes : c’est revisiter nos représentations mentales, questionner nos normes organisationnelles et développer les compétences qui permettront d’évoluer dans cette nouvelle culture de l’information enrichie par l’IA. Cela implique une vigilance éthique constante, un apprentissage continu et une capacité à redéfinir nos métiers en restant confiants dans les capacités de l’humain.

Nous avons aujourd’hui une fenêtre d’opportunité rare : l’adoption est encore lente, l’IA, dans sa globalité et loin des outils domestiques, encore timide, les transformations encore fragmentées. À nous de saisir notre chance pour utiliser l’IA correctement, sans nous affranchir des cadres et des règles qui font qu’une société fonctionne au bénéfice de l’humain et de son bien-être.

Soyez au fait des tendances, innovations, bonnes pratiques et exclusivités

Restez en contact

Thématiques

Priorités organisationnelles

Formations certifiantes

Sur mesure

Formations

À propos

Ressources


La Famille Edgenda

Edgenda

AFI par Edgenda

Apprentx par Edgenda

Afi U.


EN

Besoin d’aide ? Parlez à un conseiller ou appelez au 1 877 624.2344

LinkedIn

Confidentialité | Centre de formation autorisé Emploi-Québec, Agrément : 0051460 | TPS : 141 582 528 - TVQ : 1019557738

Copyright © 2025 Edgenda conseil inc.

Personnaliser les témoins