Module 1 — Comment intégrer l'IA en entreprise

Bases de l'IA — vocabulaire, outils,
et cas d'usage pour une PME

Avant de décider comment intégrer l'IA, il faut comprendre ce que l'IA est devenue concrètement en 2026 : des modèles de langage capables de rédiger, résumer, analyser et dialoguer en français, accessibles via des interfaces simples. Ce premier module démystifie le vocabulaire (LLM, transformer, multimodal, hallucination), distingue l'IA générative de l'automatisation classique, et présente les cas d'usage typiques pour une PME québécoise — avec des exemples adaptés au secteur de la construction et des métiers spécialisés.

Contenu informatif. Premier des cinq modules de la formation Comment intégrer l'IA en entreprise.

Module 1 — Bases de l'IA pour comprendre ce qu'on adopte

L'objectif n'est pas de devenir spécialiste de l'IA — c'est d'avoir le vocabulaire et les repères pour décider en connaissance de cause, parler avec un fournisseur, lire un contrat, et comprendre ce qu'un employé fait quand il « utilise ChatGPT » au travail.

Public visé : dirigeant ou cadre de PME, pas de prérequis technique. Les exemples du module sont tirés du quotidien d'un entrepreneur électricien québécois (5-15 employés, 50-200 chantiers/an), mais les concepts s'appliquent à toute PME du secteur construction et des métiers spécialisés.

Qu'est-ce qu'un LLM en pratique?

Définition courte : un LLM (Large Language Model) est un modèle d'apprentissage automatique entraîné sur d'immenses quantités de texte. Sa fonction de base est de prédire le mot suivant le plus probable dans une séquence. À grande échelle, cette capacité simple devient une capacité de rédaction, de résumé, de traduction, de raisonnement et de dialogue.

Selon IBM, AWS et le consensus industriel, les LLM modernes utilisent une architecture appelée « transformer » — introduite en 2017 par des chercheurs de Google dans le papier Attention is All You Need. Cette architecture permet au modèle de tenir compte du contexte entier d'un texte (et pas seulement du mot précédent) pour produire ses sorties.

Les trois étapes du fonctionnement d'un LLM :

  1. Entraînement. Le modèle « lit » des centaines de milliards de mots (Wikipédia, livres, code, web public) et apprend les patterns statistiques du langage. Cette étape est faite une fois par le fournisseur (OpenAI, Anthropic, Google), coûte plusieurs millions de dollars, et ne se refait pas en production.
  2. Affinage (fine-tuning). Le modèle est ajusté pour suivre des instructions, refuser certaines requêtes, et produire des réponses utiles plutôt que de simplement compléter des phrases. C'est cette étape qui distingue ChatGPT du modèle GPT brut.
  3. Inférence (utilisation). Quand vous écrivez une question dans ChatGPT, le modèle génère sa réponse mot par mot, en évaluant à chaque étape la suite la plus probable étant donné votre question et son entraînement. C'est pourquoi le résultat varie d'un appel à l'autre.

Distinction LLM ≠ chatbot. Selon la formulation d'IBM Think et de Databricks : « Les LLM sont les cerveaux derrière les chatbots comme ChatGPT. Le LLM est la technologie sous-jacente, le chatbot est l'application construite par-dessus. » ChatGPT, Claude.ai, Gemini, Microsoft Copilot sont des chatbots qui s'appuient sur des LLM différents (GPT-4/5, Claude 3.x/4.x, Gemini 1.5/2.x, etc.).

À retenir

Un LLM est une machine statistique qui prédit la suite la plus probable d'un texte. C'est cette capacité simple, mise à très grande échelle, qui produit l'effet « intelligence ». Comprendre ce mécanisme dégonfle la magie et permet d'évaluer rationnellement ce que l'outil peut et ne peut pas faire.

Différences entre ChatGPT, Claude, Gemini, Copilot

Constat 2026 : les quatre grands chatbots grand public se ressemblent à l'usage. Ils diffèrent surtout sur les modèles sous-jacents, les politiques de confidentialité, l'intégration aux suites bureautiques et le prix. Pour une PME québécoise, le choix se joue moins sur la « qualité brute » (qui varie de mois en mois) que sur l'écosystème dans lequel l'outil s'inscrit.

Tableau comparatif (état 2026) :

  • ChatGPT (OpenAI). Le plus connu. Modèle GPT-4 et GPT-5. Forces : outils intégrés (génération d'images DALL-E, exécution de code, recherche web), GPT Store de chatbots personnalisés. Limites : les conditions d'usage de la version gratuite permettent l'utilisation des données pour entraîner les modèles. La version Team (~30 $/mois/user) interdit cet usage et permet un encadrement d'entreprise.
  • Claude (Anthropic). Modèle Claude 3.x et 4.x. Forces : qualité de raisonnement et de rédaction longue, fenêtre de contexte étendue (jusqu'à 200 000 mots — soit l'équivalent de plusieurs livres). Limites : moins d'intégrations natives que ChatGPT. Version pro autour de 20 $/mois.
  • Gemini (Google). Modèle Gemini 1.5 et 2.x. Forces : intégration native dans Google Workspace (Docs, Sheets, Gmail), capacité multimodale forte. Limites : pour une PME québécoise sur Microsoft 365, peu pertinent en l'état.
  • Microsoft Copilot. Tourne principalement sur des modèles GPT d'OpenAI plus une couche Microsoft. Forces : intégration native dans Word, Excel, Outlook, Teams. Pour une PME déjà sur Microsoft 365, c'est souvent le choix le plus naturel. Coût : ~30 $/mois/user en plus de la licence M365.

Critère de choix pour une PME québécoise :

  • Vous êtes sur Microsoft 365 et l'usage principal est la rédaction et la bureautique → Copilot M365.
  • Vous voulez un chatbot polyvalent séparé de la suite bureautique, avec génération d'images et automatisations → ChatGPT Team.
  • Vous travaillez sur des documents longs (contrats, devis détaillés, rapports techniques) et la qualité de rédaction prime → Claude Pro.
  • Vous êtes sur Google Workspace → Gemini.

Le choix n'est pas définitif. Beaucoup d'organisations utilisent deux outils en parallèle (Copilot pour la bureautique, Claude ou ChatGPT pour la rédaction longue). L'enjeu est de définir lequel est l'outil officiel — et donc à mettre dans la politique d'usage de l'IA (voir Module 3).

À retenir

Le choix de l'outil IA principal pour une PME se fait surtout sur l'écosystème logiciel existant (Microsoft 365 vs Google Workspace) et la nature des cas d'usage prioritaires. La qualité brute des modèles évolue trop vite pour servir de critère stable.

Multimodal — au-delà du texte

Définition (NVIDIA, Carlow CTRL) : un Multimodal Large Language Model (MLLM) est un modèle capable de comprendre et générer plusieurs types de contenu — texte, images, vidéo, audio. GPT-4o, Claude 3.5 Sonnet et Gemini 1.5 Pro sont multimodaux. Cette capacité élargit considérablement les cas d'usage pour une PME.

Capacités multimodales utiles pour une PME québécoise :

  • Analyse de photo de chantier. Téléverser une photo et demander : « Identifie les éléments visibles, propose une nomenclature pour le devis, signale les anomalies de sécurité. » L'IA peut produire une première liste à valider par le contremaître.
  • Lecture de plans architecturaux scannés. Extraire la liste des pièces, repérer les symboles électriques, vérifier la cohérence d'un schéma simple.
  • Transcription et résumé d'enregistrements. Réunion de chantier enregistrée → transcription + résumé en points décisionnels en quelques minutes.
  • Génération d'images marketing. Visuels pour publications Facebook ou LinkedIn, photos avant-après retouchées pour le site web, schémas simples pour expliquer un projet au client (par exemple « voici à quoi ressemblera votre tableau électrique une fois rénové »).
  • Analyse de documents PDF (devis fournisseurs, fiches techniques de produits). Comparer trois fiches techniques de luminaires et produire un tableau récapitulatif.

L'erreur fréquente est de penser à l'IA uniquement comme un outil de rédaction. Le multimodal change l'équation — beaucoup de tâches concrètes en PME impliquent des photos, des plans, des PDF, des enregistrements, et c'est précisément là où le gain de productivité est le plus tangible.

À retenir

Le multimodal n'est pas un gadget — c'est ce qui rend l'IA utile pour les métiers de terrain. Pour une PME du secteur construction, les cas d'usage les plus rentables impliquent souvent une photo, un plan ou un PDF en entrée.

Cloud vs local — souveraineté des données

Distinction critique pour la Loi 25 : exécuter un LLM via une API cloud (OpenAI, Anthropic, Google) signifie que vos données quittent votre infrastructure pour être traitées sur les serveurs du fournisseur. Exécuter un LLM en local (Ollama, LM Studio sur votre machine) signifie que les données ne sortent jamais.

Trois architectures possibles pour une PME :

  • Cloud public sans engagement contractuel (ChatGPT gratuit, Claude.ai gratuit). Les données saisies peuvent servir à entraîner les modèles. Incompatible avec un usage de RP en contexte Loi 25.
  • Cloud public avec engagement contractuel (ChatGPT Team/Enterprise, Claude for Business, Microsoft Copilot M365 enterprise). Le fournisseur s'engage par contrat (DPA) à ne pas utiliser les données pour entraîner et à respecter les exigences réglementaires. Compatible avec un usage encadré, à condition d'avoir une EFVP et un DPA conforme.
  • Local (auto-hébergé) avec un modèle ouvert comme Llama, Mistral, ou Qwen, exécuté via Ollama ou LM Studio sur votre serveur ou poste de travail. Les données ne sortent pas. Adapté aux usages les plus sensibles, mais demande du matériel adéquat (GPU NVIDIA ou Mac M-series, ou CPU avec modèles quantifiés) et plus de compétences techniques.

Choix pratique pour la majorité des PME québécoises : commencer par le cloud public avec engagement contractuel (Copilot M365 ou ChatGPT Team), avec une politique d'usage qui interdit l'input de données sensibles. Le local ne devient pertinent que pour les organisations avec des données très sensibles (santé, finance, défense) ou un volume d'usage qui rend le coût des API significatif.

À retenir

Le choix cloud vs local n'est pas idéologique — il dépend du type de données traitées, du volume d'usage, et des compétences disponibles. Pour la majorité des PME, le cloud avec engagement contractuel suffit, à condition que la politique d'usage soit claire et que la conformité Loi 25 soit en place.

Cas d'usage typiques pour une PME — exemples du secteur électrique

Approche pragmatique : au lieu de chercher « comment utiliser l'IA », commencer par identifier les tâches qui prennent du temps et qui demandent peu de jugement irremplaçable. C'est là que l'IA donne le meilleur retour. Les exemples qui suivent sont adaptés à un entrepreneur électricien type, mais transposables à toute PME du secteur construction.

Six cas d'usage à fort retour pour un entrepreneur électricien :

  1. Rédaction de soumissions. À partir d'un descriptif sommaire (notes prises au chantier, photos, mesures), produire une première version de soumission structurée — postes, quantités, libellés, conditions générales. Le contremaître valide et ajuste. Gain typique : passer de 90 minutes à 20 minutes par soumission.
  2. Triage et résumé de courriels. Boîte courriel surchargée → assistant IA classe par urgence (réponse client urgente, fournisseur, soumission, marketing) et résume les longs fils en 2-3 lignes. La décision reste humaine.
  3. Réponses aux questions techniques fréquentes. Construire une base interne (FAQ entreprise, procédures internes, Code de l'électricité simplifié) et utiliser un chatbot interne pour que les apprentis et les nouveaux employés trouvent rapidement les réponses standard. Réduction des interruptions du chargé de projet.
  4. Préparation d'appels d'offres publics. À partir du document SEAO, produire une grille d'analyse (exigences, critères de sélection, dates clés, risques), un brouillon de réponse aux sections standardisées, et une liste de questions à poser au donneur d'ouvrage.
  5. Génération de procédures et de matériel de formation interne. À partir d'une démonstration verbale ou écrite, produire une procédure documentée que l'entreprise peut diffuser aux apprentis. Renforce la transmission des savoirs.
  6. Rédaction marketing. Pages web, articles de blog, publications LinkedIn, réponses aux avis Google. L'IA produit la première version, le dirigeant valide le ton et la véracité.

Cas d'usage à éviter (ou à encadrer fortement) :

  • Décisions d'embauche ou d'évaluation de personnel. Les biais documentés (voir Module 4) rendent l'IA inadaptée pour ces décisions sans cadre rigoureux.
  • Décisions d'octroi ou de refus de service. Risque article 12.1 Loi 25 (décisions automatisées).
  • Conseil légal, médical ou financier au client. L'IA peut halluciner — la responsabilité professionnelle reste avec l'humain.
  • Saisie de RP de clients ou d'employés dans un outil grand public sans encadrement. Voir Module 3 (politique d'usage).

À retenir

Pour une PME, le bon premier cas d'usage IA n'est pas le plus impressionnant — c'est celui qui élimine la tâche la plus répétitive et la plus chronophage. La rédaction de soumissions et le triage de courriels sont presque toujours dans le top 3.

Limites et erreurs fréquentes — hallucinations, dérives, sur-confiance

Reconnaître les limites : un LLM est une machine statistique, pas une source de vérité. Il peut produire avec une grande assurance des informations fausses. Cette caractéristique — appelée hallucination — est intrinsèque à la technologie et ne sera jamais complètement éliminée. La gérer fait partie de l'usage responsable.

Cinq limites à connaître avant d'adopter un outil d'IA :

  • Hallucinations. Le modèle peut inventer des références, des citations, des chiffres, des articles de loi. Toujours vérifier les éléments factuels critiques. L'IA ne distingue pas ce qu'elle sait de ce qu'elle invente — c'est l'humain qui doit faire ce tri.
  • Date d'entraînement. Chaque modèle a une date au-delà de laquelle il ne sait rien. Pour des questions sur l'actualité, la jurisprudence récente, les prix courants, l'IA peut se tromper sans le savoir.
  • Biais. Les biais contenus dans les données d'entraînement se retrouvent dans les sorties. Cas documentés : biais selon le genre, l'âge, l'origine ethnique, le code postal. Le Module 4 développe ce point.
  • Dérive (drift). Quand le fournisseur met à jour le modèle, le comportement change. Une procédure qui fonctionnait peut donner des résultats différents. Le Module 5 détaille la surveillance.
  • Effet de sur-confiance. Le ton assuré du modèle donne une impression de fiabilité qui ne reflète pas son taux d'erreur réel. Des employés peuvent prendre pour acquis ce qui devrait être vérifié.

L'erreur structurelle la plus coûteuse : traiter l'IA comme un substitut au jugement humain plutôt que comme un assistant. L'IA est très efficace pour préparer une décision (résumer, structurer, proposer), beaucoup moins pour décider. La règle pratique : tout output IA destiné à un client, un partenaire ou une autorité doit être revu par un humain avant émission.

À retenir

L'IA n'est ni magique ni dangereuse en soi — c'est un outil avec des forces (vitesse, polyvalence, langage naturel) et des limites (hallucinations, biais, dérive). L'organisation qui maîtrise les deux côtés en tire un avantage concurrentiel. Celle qui en ignore un côté s'expose à des risques d'image, de conformité ou de qualité.

En résumé

Un LLM (Large Language Model) est un modèle d'apprentissage automatique entraîné sur de vastes corpus de texte qui prédit le mot suivant le plus probable. ChatGPT, Claude, Gemini et Microsoft Copilot sont des chatbots construits sur des LLM différents. Pour une PME québécoise, le choix de l'outil principal dépend surtout de l'écosystème existant (Microsoft 365 → Copilot, polyvalence → ChatGPT Team, rédaction longue → Claude). Les modèles multimodaux (texte + images + audio + PDF) ouvrent des cas d'usage concrets pour les métiers de terrain (analyse de photos de chantier, lecture de plans, transcription de réunions). Le choix cloud vs local engage la souveraineté des données — le cloud avec engagement contractuel suffit pour la majorité des PME, à condition d'avoir une EFVP et un DPA Loi 25. Les limites principales (hallucinations, biais, dérive, sur-confiance) sont structurelles à la technologie et doivent être gérées par une politique d'usage (Module 3) et une surveillance continue (Module 5).

Réponse rapide

Par où commencer pour une PME? Identifier la tâche la plus répétitive et chronophage (rédaction de soumissions, triage de courriels). Choisir un outil aligné sur l'écosystème logiciel existant. Adopter avec une politique d'usage et une revue humaine systématique des outputs.

Peut-on faire confiance à l'IA? On peut lui faire confiance pour préparer une décision (résumer, structurer, proposer), pas pour décider seule. Les hallucinations sont intrinsèques — la vérification humaine est la contrepartie incontournable.

Suite de la formation

Module 2 — Automatisation classique ou IA? Choisir consciemment. Comprendre les préalables structurels et de conformité Loi 25 avant d'intégrer l'IA, et savoir quand préférer une simple automatisation n8n/Zapier à un agent IA.

Module 2 — Automatisation ou IA? →

↩ Retour au plan de la formation

Démystifier l'IA dans votre organisation?

Pour les organisations qui veulent comprendre concrètement ce que l'IA peut et ne peut pas faire avant d'investir, un accompagnement structuré aide à identifier les premiers cas d'usage et à éviter les erreurs courantes. Réservez un appel d'orientation gratuit pour discuter de votre situation.

Planifier un appel d'orientation →