Auteur/autrice : admin

  • IA générative, IA traditionnelle, 2 approches très différentes pour l’entreprise

    Ce que l’on appelle Intelligence artificielle regroupait jusqu’alors principalement deux sous domaines, le Machine Learning pour l’apprentissage automatique et le Deep Learning pour l’apprentissage à base de réseaux de neurones. Fin 2022, un nouveau domaine s’est ouvert, l’IA Générative avec principalement les LLM (Large Language Model).

    Bien que l’IA générative soit issue des mêmes avancées technologiques que le machine learning et le deep learning, elle nécessite une approche très différentes dans les projets IA des entreprises : les usages, les outils et les compétences nécessaires ne sont pas les mêmes. Ce ne sont pas nécessairement les mêmes interlocuteurs pour piloter les projets. Avec l’IA Générative, il n’est pas nécessaire de posséder de gros volumes de données pour entraîner les modèles, toutes les entreprises peuvent en bénéficier. 

    Précisons ces termes pour bien en comprendre les enjeux pour l’entreprise.

    Le Machine Learning

    Les premiers premiers programmes d’apprentissage en autonomie par des ordinateurs sont apparus avec les jeux de stratégies. En particulier, Arthur Samuel en 1952 avec un jeu de dames qui pouvait déjà défier un bon amateur. Cet apprentissage est fondé sur des approches mathématiques et statistiques. C’est le démarrage du Machine Learning.

    Aujourd’hui, elle au coeur de notre quotidien, pour des usages comme la classification (ex derterminer des types films preferés en fonction de l’age, du sexe et de la situation de famille) , la prédiction de valeur (la régression), (ex: prédire la valeur d’un bien immobilier (sortie) à partir d’entrées telles que le nombre de pièces, l’année de construction, la surface du terrain, l’emplacement) ou  la recherche de regroupements (Clustering) sur des données non préparées (ex : analyse de clientèle, segmentation de marché).

    En entreprise, le Machine learning nécessite des jeux de données importants, un savoir faire pour retravailler ces données ainsi que de bonnes compétences en mathématiques et en statistique pour déterminer le bon algorithme à utiliser pour entraîner les modèles algorithmiques.

    Le Deep Learning

    Les réseaux de neurones sont apparus au niveau théorique aussi très tôt dans les années 60. Mais peu de gens y ont cru jusqu’aux travaux de Yann Lecun, Geoffrey Hinton et Yoshua Bengio dans les années 2000-2010. Ce fut le début du Deep Learning. En 2012, Geoffrey Hinton et son équipe  gagnent brillamment la compétition ImageNet ILSVRC avec des améliorations d’algo et surtout l’utilisation de la cpu de carte graphique / GPU qui accélèrent les calculs.. C’est le vrai démarrage des réseaux de neurones. Tout le monde s’y intéresse. C’est le début de beaucoup d’applications autour de l’image, texte, audio. c’est l’apparition de brique technique bien connue encore aujourd’hui (TensorFlow, PyTorch)

    Le Deep Learning offre des possibilités bien plus riches que le Machine Learning traditionnel, notamment dans des domaines comme le traitement du langage naturel (compréhension, traduction), la reconnaissance d’images ou les moteurs de recommandation (par exemple, dans le streaming). 

    Naissance de l’IA Générative

    En 2017, la publication de l’article “Attention Is All You Need” (Vaswani et al.) à été décisive. Il ouvre la voie à de un nouveau type d’algo d’IA les transformers (le principale apport : ils peuvent analyser en parallèle (et non plus séquentiellement comme avant) les différents composants d’une phrase  ce qui permet notamment des entraînements sur de plus gros volumes de  données).

    Deux projets concurrent prometteurs démarrent à ce moment là (2018) sur cette base des transformers dédiés au traitement du langage : Google avec nouvelle génération de modèle BERT centré sur la compréhension du sens de phrase et une petite société Open AI créée 2 ans auparavant avec GPT (Generative Pre-trained Transformer), un algorithme plutôt centré sur la génération de texte comme les humains. 

    OpenAI et les LLM

    Le cout de génie d’OpenAI a été de de choisir d’entraîner leur modèle sur un volume de données très important (110 millions de paramètres en 2018, puis 1,5 milliards avec GPT2 et 175 milliard avec GPT3). Dans une première phase sur des données brutes issues d’Internet puis dans un deuxième temps de l’affiner pour le rendre capable de converser par un système de récompense avec retour d’information humain (RLHF).

    Mais ils avaient besoin de ressources de calcul énormes. C’est ici que Microsoft est arrivé en proposant ses énormes ressources de calcul (investissement 1 milliard en 2019).

    La qualité des résultats à surpris tout le monde, y compris les acteurs déjà bien établis sur le sujet comme Google. Les premières versions étaient centrées uniquement sur la génération de texte (GPT1,2) : écriture d’articles de presse et de fiction. 

    Gpt3 sort en version bêta en juillet 2020 puis officiellement en mars 2022 et le mode conversationnelle, le fameu  CHATGpt ouvre au public en nov 2022 : ce fut pour le grand public  le début des LLM (Large Langage Model) et de l’IA Générative par référence à l’IA Prédictive avec  le machine learning.

    Aujourd’hui les LLM, en plus de savoir générer des textes, ont la capacité d’analyser, de résumer, de traduire et générer du code informatique, de simuler des interactions humaines. Ils peuvent aussi solliciter l’appel de fonctions externes pour enrichir leurs connaissances. Les améliorations en cours concernent le raisonnement et la génération de plan d’actions.

    Concrètement pour l’entreprise, on peut distinguer 3 types d’usage : 

    • les aides pour le collaborateur au quotidien, 
    • la valorisation des données non structurées de l’entreprise (RAG) et 
    • l’automatisation de  tâches complexes (agent autonome).

    L’IA Générative intégrer plus que la gestion de texte grâce au LLM, ils savent aussi comprendre et gérer des images, des sons et des vidéos. C’est le multi-modal

    Différences entre Machine Learning/Deep Learning et LLM pour l’entreprise

    Une fois précisées les technologies en présence, voyons pourquoi les approches pour l’entreprise sont différentes.

    Ce ne sont pas les mêmes compétences techniques car pas d’entraînement en IA Gen.

    Un projet de ML/DL en entreprise suit toujours le même cycle : collecte des données, préparation des données, choix du type d’algorithme, entraînement et amélioration des réglages, déploiement et surveillance.

    Les deux profils techniques nécessaires sont l’ingénieur data et le data scientist.

    A l’inverse un projet à base d’IA Générative ne nécessite pas d’entraînement (1) de données car l’entraînement a été réalisé en amont une fois pour toute par le fournisseur du modèle LLM. Le travail consiste à connaître et assembler des briques techniques IT existantes tel que les LLM en fonction de leurs spécificités, les bases vectorielles, les frameworks agentiques …

    Le profil technique nécessaire est un ingénieur IT connaissant les spécificités des LLM. Il  devra assembler des composants techniques existant. 

    (1)Hypothèse : dû au volume de données nécessaire et coût de l’entraînement IA Gén (GPU) pour des performances correctes, l’entraînement  n’est pas dans le périmètre de la plupart des entreprises (éventuellement le fine tuning) sauf pour des besoin verticaux (Small language model)

    Ce ne sont pas les même interlocuteurs pour piloter les projets

    Chaque projet de Machine Learning/Deep Learning demande des compétences techniques pointues (data/ia), des compétences métiers multiples, se déroule sur plusieurs semaines et nécessite de collecter des données au niveau de l’informatique d’entreprise (SI) : les projets d’IA sont plutôt pilotés par la direction informatique.

    Un projet d’IA générative consiste, en plus des compétences métiers pour l’expression du besoin,  à assembler des briques techniques standardisées. Quand les données de l’entreprise sont nécessaires, par exemple, dans des architectures RAG, elles sont souvent  circonscrites à un services de l’entreprise. Les interactions avec les utilisateurs dans les phases de validation sont plus fréquentes.

    Les projets sont plutôt pilotés par les équipes métiers.

    Ce ne sont pas les mêmes tailles d’entreprises 

    Une projet de Machine Learning/Deep Learning nécessite de gros volumes de données pour pouvoir entraîner efficacement les modèles ce qui restreint souvent ce type projet aux grandes entreprises.

    En revanche, pour les projets d’IA générative, les cas d’utilisations possibles sont plus nombreux, il n’y pas de restriction sur les volumes de données, toutes les tailles d’entreprise peuvent en bénéficier.

    Ce ne sont pas les même outils

    Les projets de ML/DL nécessitent des outils bas niveaux qui sont  sollicités différemment pour chaque projet. Il est difficile de les standardiser pour les rendre accessibles à des non spécialistes.

    En revanche, pour les projets à base d’IA générative, vu le potentiel, beaucoup d’éditeurs proposent déjà de nombreux outils. Il en arrive de très nombreux toutes les semaines soit sous forme de service SaaS (API) ou dans des framework open sources à installer localement. 

    Il est possible, par exemple,  de répondre à des cas d’utilisation d’exploitation de document en mode RAG simple par du glisser/déposer dans une interface graphique.

    On commence à voir apparaître des plateformes techniques pour l’ensemble de l’entreprise qui rassemble et homogénéise les outils nécessaires pour des projets IA Générative : chaîne d’ingestion standardisé, persistance des conversations centralisée, appel standardisé à tous les LLM, base de centralisation des prompts, outils de contrôle qualité des réponses, orchestration d’agents …

    Conclusion

    Pour les projets ML/DL, il faut nécessairement des équipes Data Scientist en prise directe sur les données brut de l’entreprise pilotées par le service informatique.

    Pour les projets d’IA Générative, les projets modestes peuvent être traités par des solutions sur étagères (par exemple en SaaS via des Studios) sans compétences techniques poussées. 

    Les projets plus ambitieux peuvent se traiter avec un outillage standardisé et la compétence d’un ingénieur informatique sans compétence poussée en IA.

    ML/DLIA Générative
    UsageClassificationPrédictionRegroupementTexteAnalyse RésuméTraductionGénération de codePlanification
    CompétencesData Ingénieur + Data Scientistenn
    OutillageOutils bas niveau spécialisés en IABrique technique standardFramework
    Type d’entrepriseGrande entreprise possédant de gros jeux de donnéesTous types d’entreprise
    Pilotage projetDirection informatiqueDirection métier

    En 2025, la tendance à la multiplication des projets d’IA génératives en entreprise, commence à nécessiter la mutualisation des outils dans des plateformes techniques d’entreprises.

    Ne manquez pas mon prochain article : 

         “comment mettre en place une plateforme IA Gen dans l’entreprise”