Catégorie : Générale

En général

  • Grâce au LLM, Une mine d’or sous exploitée dans l’entreprise : la valorisation des documents non structurés

    Les LLM sont très efficaces par nature pour analyser et rédiger des textes. Maintenant ils deviennent très puissants pour faire des recherches approfondies, extraire et compiler des informations pertinentes a partir de plusieurs sources Internet et rédiger des rapports.

    Mais comment faire pour utiliser cette puissance sur les données de l’entreprise ?

    La plus grande partie des données en entreprise sont ce qu’on appelle des données non structurée par opposition aux données structurées généralement stocké dans des base de donnée dite SQL. Ces informations sont très riches et généralement très mal exploitée.

    On parle par exemple, des emails clients ou fournisseurs, des tickets de support, des avis et réclamations des clients, réseaux sociaux, des rapports internes, des notes de réunion, des présentation ppt, des devis, factures et bons de commande, des documents RH, des retex collaborateurs, réclamation, des ordres d’achat, des inventaires, contenus marketing, contrats.

    Grâce à l’IA générative, on peut maintenant plus facilement exploiter efficacement ces informations pour 

    • Mieux connaître ses clients et personnaliser l’offre, 
    • Capitaliser sur l’expérience et les savoirs de l’entreprise
    • Accélérer la recherche et la prise de décision
    • Améliorer la gestion administrative
    • anticiper les problèmes à venir

    Par exemple, il est possible de poser des questions en langage naturel comme :

    • « Pouvez-vous analyser les tendances dans les retours clients sur les 6 derniers mois ? » En analysant les mails internes , les forums publique, les litiges, les remboursements” 
    • “Quels sont les problèmes internes récurrents mentionnés dans les rapports d’incidents techniques ?
    • question rh collab, onboarding : ex comment gérer les congés exceptionnels
    • « question capitaliser sur les savoir faires : « 
    • « une question signal faible récurrent »
    • « Quels sont les derniers échanges avec [nom du client] sur le projet X ? »

    Mette en oeuvre des premières solutions pour mieux exploiter toutes ces informations peut être très rapide. Toutes les tailles d’entreprises peuvent en bénéficier de la PME aux grands groupes.

    Mais comment démarrer exploiter concrètement ses solutions ?

    Chaque jour de nouveaux outils apparaissent toujours plus puissant, très différents et apparement très facile d’accès.

    Mais comment identifier les produits vraiment pertinent ? Comment organiser leur intégrations dans l’entreprise de manière cohérente et sécurisé pour l’ensemble des collaborateurs ?

    Certain outils sont cantonnés à des utilisations individuelles et gèrent très mal la sécurité. D’autres sont très complexe à appréhender pour commencer.

    Des solutions sans programmation

    Les produits les plus efficace tout en restant simple sont par exemple NotebookLlm de Google ou ChatGpt Projects d’OpenAI.

    Le principe est simple, il suffit dans un premier temps de télécharger ou téléverser un ou plusieurs documents, des pdf concernant les procédures RH de l’entreprise par exemples.

    On peut ensuite de poser des questions en langage naturel sur les informations contenu dans ces documents. On peut demander, par exemple, « quelle est la procédure pour demander un congé exceptionnel? »

    C’est une démarche individuelle qu’il faut relancer à chaque évolution des documents.

    Des solutions d’automatisation plus techniques mais sans programmation

    Pour des besoins récurrents, et plus complexe,  il est possible d’automatiser les traitements.

    Les outils à envisager sont par exemple n8n, make, zapier …

    Ils permettent , sans programmation, uniquement avec la souris, d’enchainer des appels d’outils déja existant dans l’entreprise accès au si. C’est des outils d’automatisation qui on intégrés les LLM.

    On peut par exemple charger un ensemble de documents issue d’un répertoire google drive, les transformer pour les insérer dans une base sémantique. compléter par l’appel des documents de la semaine dans l’application de Support/CRM. puis lancer une analyse et la génération d’un rapport que l’on peut envoyer par mail à chaque responsables.

    Pour les plus téméraires, les possibilités d’automatisation sont énormes.

    La difficulté apparait quand les enchainements de traitement se complexifie. ça devient un plat de spaghetti.

    Ces traitements sont aussi difficiles à maintenir et faire évoluer. La réutilisation à l’échelle de l’entreprise est difficile.

    Des solutions spécialisées sur les LLM

    Avec les LLM de nouveaux outils sont apparue pour manipuler le sens des phrases

    Avec les LLM est arrivée une nouvelle possibilité pour capturer le sens des phrases et le traduire en représentation numérique (un vecteur).

    On savait déjà vectoriser individuellement des mots mais sans tenir compte de leur position dans la phrase. L’arrivée des Transformers, qui à permis les LLM, a amené aussi la capacité à distinguer la position du mot dans la phrase lors de la vectorisation, c’est l’ »embeddings positionnels ».

    On peut donc maintenant capturer le sens d’une phrase entière dans une représentation numérique et l’enregistrer dans une base de donnée.

    On peut vectoriser un roman entier dans une base de donnée dite sémantique et retrouver, par exemple, tout les passages où le héros exprime des doutes.

    C’est bien plus puissant que les solutions précédente qui ne permettaient de faire des recherche uniquement sur des suite de lettres, des mots clefs.

    De nouvelles boites à outils sont alors apparue pour manipuler les LLM et les vecteurs, dans le cadre de manipulation de texte avec notament une architecture qui s’appelle RAG (Retrieval Augmented Generation).

    Pour citer les outils les plus connu : LangChain et LlamaIndex.

    On a donc deux approches pour travailler sur des documents non structurée en entreprise :

    Choisir entre ces 2 approches très différentes

    Certain traitements sont plus une intégration de LLM dans un enchainements d’outils reliés aux applications de l’entreprise (drive, base de données, gmail, calendrier) — > N8N, make …

    ex de traitement orienté valorisation document non structuré

    D’autres sont très centrée sur des traitements à base de recherche sémantique ou d’enchaiment de LLM avec des prompts complexes. –> LangChain et LlamaIndex.

    Ex traitement orienté valorisation document non structuré

    Des solutions robustes pour toute l’entreprise

    Quand on passe de quelques applications développés par des utilisateurs avancé à des applications utilisables par l’ensemble des collaborateurs, il faut changer d’approche.

    Des solutions adaptés à l’ensemble de l’entreprise doivent pouvoir proposer un ensemble de services minimum que l’on trouve plus difficilement dans les outils d’automatisation simples.

    • la mutualisation des projets (réutilisation de sous ensembles de fonctions, gestion des versions)
    • la garantie de performance en fonction du nombre d’utilisateur (scalabilité)
    • la gestion centralisé de la sécurité (autorisation et contrôle des droits d’accès).

    Le nombre ou la variété des documents à prendre en compte augmente, il faut concevoir une chaine d’ingestion documentaire dédié, avec par exemple de l’OCR et un stockage centralisé dans une base sémantique/vectorielle.

    architecture RAG, avec agents

    1 – Commencer par des solutions no-code qui savent évoluer

    Google par exemple propose Vertex AI Agent Builder qui s’appuit sur toutes les briques habituelle de ses services cloud et une intégration maximum des fonctionnalités d’IA Générative.

    En quelque click on peut construire une solution dite RAG (Retrieval Augmented Generation) : on sélectionne les documents concernés dans le cloud de l’entreprise et après quelques paramétrages rapides, on peut intégrer l’outils de question réponse dans des pages existante du site interne et tous les collaborateurs pourront questionner cette ensemble de documents.

    Mais ici il est beaucoup plus facile d’enrichir l’application avec des fonctionnalité plus poussées.

    2 – Ou investir sur du plus difficile a appréhender au départ mais 100% maitrisé

    Langraph

    puis pour garder la maitrise se construire une plateforme IA Gén avec : base de prompts, évaluation des performances, centralisation des liens avec les outils externes …

    Voir l’article xxx.

    Et la confidentialité ?

    Lorsque l’on manipule des informations coeur de l’entreprise, la sécurité est cruciale.

    Il est possible de construire des solutions 100% interne ou aucune information ne sort de l’entreprise (dont le LLM)

    Mais le plus souple/agile/puissant est de s’appuyer sur des solutions SaaS qui savent s’adapter facilement au évolution et la variation de la charge.

    Les solutions locales sont plus chers ?

    partir sur des POC en SaaS pour valider les use cases puis construire la solution en production en local une fois le périmètre circonscrit.

    A l’avenir, pour améliorer 

    Pour profiter au maximum des informations non structurer de l’entreprise, il faut porter une attention sur les DATA (exploitation temps réel, au fils de l’eau).

    On peut aussi construire une synergie avec le SQL

    une plateforme pour préparer l’arrivé des agents IA pour aller plus loin que la valorisation des données non structurée et aller vers l’automatisation des processus de l’entreprise.

    Conclusion

    Pour commencer à mieux exploiter vos document d’entreprise dès demain, contactez moi

  • IA générative, IA traditionnelle, 2 approches très différentes pour l’entreprise

    Ce que l’on appelle Intelligence artificielle regroupait jusqu’alors principalement deux sous domaines, le Machine Learning pour l’apprentissage automatique et le Deep Learning pour l’apprentissage à base de réseaux de neurones. Fin 2022, un nouveau domaine s’est ouvert, l’IA Générative avec principalement les LLM (Large Language Model).

    Bien que l’IA générative soit issue des mêmes avancées technologiques que le machine learning et le deep learning, elle nécessite une approche très différentes dans les projets IA des entreprises : les usages, les outils et les compétences nécessaires ne sont pas les mêmes. Ce ne sont pas nécessairement les mêmes interlocuteurs pour piloter les projets. Avec l’IA Générative, il n’est pas nécessaire de posséder de gros volumes de données pour entraîner les modèles, toutes les entreprises peuvent en bénéficier. 

    Précisons ces termes pour bien en comprendre les enjeux pour l’entreprise.

    Le Machine Learning

    Les premiers premiers programmes d’apprentissage en autonomie par des ordinateurs sont apparus avec les jeux de stratégies. En particulier, Arthur Samuel en 1952 avec un jeu de dames qui pouvait déjà défier un bon amateur. Cet apprentissage est fondé sur des approches mathématiques et statistiques. C’est le démarrage du Machine Learning.

    Aujourd’hui, elle au coeur de notre quotidien, pour des usages comme la classification (ex derterminer des types films preferés en fonction de l’age, du sexe et de la situation de famille) , la prédiction de valeur (la régression), (ex: prédire la valeur d’un bien immobilier (sortie) à partir d’entrées telles que le nombre de pièces, l’année de construction, la surface du terrain, l’emplacement) ou  la recherche de regroupements (Clustering) sur des données non préparées (ex : analyse de clientèle, segmentation de marché).

    En entreprise, le Machine learning nécessite des jeux de données importants, un savoir faire pour retravailler ces données ainsi que de bonnes compétences en mathématiques et en statistique pour déterminer le bon algorithme à utiliser pour entraîner les modèles algorithmiques.

    Le Deep Learning

    Les réseaux de neurones sont apparus au niveau théorique aussi très tôt dans les années 60. Mais peu de gens y ont cru jusqu’aux travaux de Yann Lecun, Geoffrey Hinton et Yoshua Bengio dans les années 2000-2010. Ce fut le début du Deep Learning. En 2012, Geoffrey Hinton et son équipe  gagnent brillamment la compétition ImageNet ILSVRC avec des améliorations d’algo et surtout l’utilisation de la cpu de carte graphique / GPU qui accélèrent les calculs.. C’est le vrai démarrage des réseaux de neurones. Tout le monde s’y intéresse. C’est le début de beaucoup d’applications autour de l’image, texte, audio. c’est l’apparition de brique technique bien connue encore aujourd’hui (TensorFlow, PyTorch)

    Le Deep Learning offre des possibilités bien plus riches que le Machine Learning traditionnel, notamment dans des domaines comme le traitement du langage naturel (compréhension, traduction), la reconnaissance d’images ou les moteurs de recommandation (par exemple, dans le streaming). 

    Naissance de l’IA Générative

    En 2017, la publication de l’article “Attention Is All You Need” (Vaswani et al.) à été décisive. Il ouvre la voie à de un nouveau type d’algo d’IA les transformers (le principale apport : ils peuvent analyser en parallèle (et non plus séquentiellement comme avant) les différents composants d’une phrase  ce qui permet notamment des entraînements sur de plus gros volumes de  données).

    Deux projets concurrent prometteurs démarrent à ce moment là (2018) sur cette base des transformers dédiés au traitement du langage : Google avec nouvelle génération de modèle BERT centré sur la compréhension du sens de phrase et une petite société Open AI créée 2 ans auparavant avec GPT (Generative Pre-trained Transformer), un algorithme plutôt centré sur la génération de texte comme les humains. 

    OpenAI et les LLM

    Le cout de génie d’OpenAI a été de de choisir d’entraîner leur modèle sur un volume de données très important (110 millions de paramètres en 2018, puis 1,5 milliards avec GPT2 et 175 milliard avec GPT3). Dans une première phase sur des données brutes issues d’Internet puis dans un deuxième temps de l’affiner pour le rendre capable de converser par un système de récompense avec retour d’information humain (RLHF).

    Mais ils avaient besoin de ressources de calcul énormes. C’est ici que Microsoft est arrivé en proposant ses énormes ressources de calcul (investissement 1 milliard en 2019).

    La qualité des résultats à surpris tout le monde, y compris les acteurs déjà bien établis sur le sujet comme Google. Les premières versions étaient centrées uniquement sur la génération de texte (GPT1,2) : écriture d’articles de presse et de fiction. 

    Gpt3 sort en version bêta en juillet 2020 puis officiellement en mars 2022 et le mode conversationnelle, le fameu  CHATGpt ouvre au public en nov 2022 : ce fut pour le grand public  le début des LLM (Large Langage Model) et de l’IA Générative par référence à l’IA Prédictive avec  le machine learning.

    Aujourd’hui les LLM, en plus de savoir générer des textes, ont la capacité d’analyser, de résumer, de traduire et générer du code informatique, de simuler des interactions humaines. Ils peuvent aussi solliciter l’appel de fonctions externes pour enrichir leurs connaissances. Les améliorations en cours concernent le raisonnement et la génération de plan d’actions.

    Concrètement pour l’entreprise, on peut distinguer 3 types d’usage : 

    • les aides pour le collaborateur au quotidien, 
    • la valorisation des données non structurées de l’entreprise (RAG) et 
    • l’automatisation de  tâches complexes (agent autonome).

    L’IA Générative intégrer plus que la gestion de texte grâce au LLM, ils savent aussi comprendre et gérer des images, des sons et des vidéos. C’est le multi-modal

    Différences entre Machine Learning/Deep Learning et LLM pour l’entreprise

    Une fois précisées les technologies en présence, voyons pourquoi les approches pour l’entreprise sont différentes.

    Ce ne sont pas les mêmes compétences techniques car pas d’entraînement en IA Gen.

    Un projet de ML/DL en entreprise suit toujours le même cycle : collecte des données, préparation des données, choix du type d’algorithme, entraînement et amélioration des réglages, déploiement et surveillance.

    Les deux profils techniques nécessaires sont l’ingénieur data et le data scientist.

    A l’inverse un projet à base d’IA Générative ne nécessite pas d’entraînement (1) de données car l’entraînement a été réalisé en amont une fois pour toute par le fournisseur du modèle LLM. Le travail consiste à connaître et assembler des briques techniques IT existantes tel que les LLM en fonction de leurs spécificités, les bases vectorielles, les frameworks agentiques …

    Le profil technique nécessaire est un ingénieur IT connaissant les spécificités des LLM. Il  devra assembler des composants techniques existant. 

    (1)Hypothèse : dû au volume de données nécessaire et coût de l’entraînement IA Gén (GPU) pour des performances correctes, l’entraînement  n’est pas dans le périmètre de la plupart des entreprises (éventuellement le fine tuning) sauf pour des besoin verticaux (Small language model)

    Ce ne sont pas les même interlocuteurs pour piloter les projets

    Chaque projet de Machine Learning/Deep Learning demande des compétences techniques pointues (data/ia), des compétences métiers multiples, se déroule sur plusieurs semaines et nécessite de collecter des données au niveau de l’informatique d’entreprise (SI) : les projets d’IA sont plutôt pilotés par la direction informatique.

    Un projet d’IA générative consiste, en plus des compétences métiers pour l’expression du besoin,  à assembler des briques techniques standardisées. Quand les données de l’entreprise sont nécessaires, par exemple, dans des architectures RAG, elles sont souvent  circonscrites à un services de l’entreprise. Les interactions avec les utilisateurs dans les phases de validation sont plus fréquentes.

    Les projets sont plutôt pilotés par les équipes métiers.

    Ce ne sont pas les mêmes tailles d’entreprises 

    Une projet de Machine Learning/Deep Learning nécessite de gros volumes de données pour pouvoir entraîner efficacement les modèles ce qui restreint souvent ce type projet aux grandes entreprises.

    En revanche, pour les projets d’IA générative, les cas d’utilisations possibles sont plus nombreux, il n’y pas de restriction sur les volumes de données, toutes les tailles d’entreprise peuvent en bénéficier.

    Ce ne sont pas les même outils

    Les projets de ML/DL nécessitent des outils bas niveaux qui sont  sollicités différemment pour chaque projet. Il est difficile de les standardiser pour les rendre accessibles à des non spécialistes.

    En revanche, pour les projets à base d’IA générative, vu le potentiel, beaucoup d’éditeurs proposent déjà de nombreux outils. Il en arrive de très nombreux toutes les semaines soit sous forme de service SaaS (API) ou dans des framework open sources à installer localement. 

    Il est possible, par exemple,  de répondre à des cas d’utilisation d’exploitation de document en mode RAG simple par du glisser/déposer dans une interface graphique.

    On commence à voir apparaître des plateformes techniques pour l’ensemble de l’entreprise qui rassemble et homogénéise les outils nécessaires pour des projets IA Générative : chaîne d’ingestion standardisé, persistance des conversations centralisée, appel standardisé à tous les LLM, base de centralisation des prompts, outils de contrôle qualité des réponses, orchestration d’agents …

    Conclusion

    Pour les projets ML/DL, il faut nécessairement des équipes Data Scientist en prise directe sur les données brut de l’entreprise pilotées par le service informatique.

    Pour les projets d’IA Générative, les projets modestes peuvent être traités par des solutions sur étagères (par exemple en SaaS via des Studios) sans compétences techniques poussées. 

    Les projets plus ambitieux peuvent se traiter avec un outillage standardisé et la compétence d’un ingénieur informatique sans compétence poussée en IA.

    ML/DLIA Générative
    UsageClassificationPrédictionRegroupementTexteAnalyse RésuméTraductionGénération de codePlanification
    CompétencesData Ingénieur + Data Scientistenn
    OutillageOutils bas niveau spécialisés en IABrique technique standardFramework
    Type d’entrepriseGrande entreprise possédant de gros jeux de donnéesTous types d’entreprise
    Pilotage projetDirection informatiqueDirection métier

    En 2025, la tendance à la multiplication des projets d’IA génératives en entreprise, commence à nécessiter la mutualisation des outils dans des plateformes techniques d’entreprises.

    Ne manquez pas mon prochain article : 

         “comment mettre en place une plateforme IA Gen dans l’entreprise”