Catégorie : Générale

En général

  • IA générative, IA traditionnelle, 2 approches très différentes pour l’entreprise

    Ce que l’on appelle Intelligence artificielle regroupait jusqu’alors principalement deux sous domaines, le Machine Learning pour l’apprentissage automatique et le Deep Learning pour l’apprentissage à base de réseaux de neurones. Fin 2022, un nouveau domaine s’est ouvert, l’IA Générative avec principalement les LLM (Large Language Model).

    Bien que l’IA générative soit issue des mêmes avancées technologiques que le machine learning et le deep learning, elle nécessite une approche très différentes dans les projets IA des entreprises : les usages, les outils et les compétences nécessaires ne sont pas les mêmes. Ce ne sont pas nécessairement les mêmes interlocuteurs pour piloter les projets. Avec l’IA Générative, il n’est pas nécessaire de posséder de gros volumes de données pour entraîner les modèles, toutes les entreprises peuvent en bénéficier. 

    Précisons ces termes pour bien en comprendre les enjeux pour l’entreprise.

    Le Machine Learning

    Les premiers premiers programmes d’apprentissage en autonomie par des ordinateurs sont apparus avec les jeux de stratégies. En particulier, Arthur Samuel en 1952 avec un jeu de dames qui pouvait déjà défier un bon amateur. Cet apprentissage est fondé sur des approches mathématiques et statistiques. C’est le démarrage du Machine Learning.

    Aujourd’hui, elle au coeur de notre quotidien, pour des usages comme la classification (ex derterminer des types films preferés en fonction de l’age, du sexe et de la situation de famille) , la prédiction de valeur (la régression), (ex: prédire la valeur d’un bien immobilier (sortie) à partir d’entrées telles que le nombre de pièces, l’année de construction, la surface du terrain, l’emplacement) ou  la recherche de regroupements (Clustering) sur des données non préparées (ex : analyse de clientèle, segmentation de marché).

    En entreprise, le Machine learning nécessite des jeux de données importants, un savoir faire pour retravailler ces données ainsi que de bonnes compétences en mathématiques et en statistique pour déterminer le bon algorithme à utiliser pour entraîner les modèles algorithmiques.

    Le Deep Learning

    Les réseaux de neurones sont apparus au niveau théorique aussi très tôt dans les années 60. Mais peu de gens y ont cru jusqu’aux travaux de Yann Lecun, Geoffrey Hinton et Yoshua Bengio dans les années 2000-2010. Ce fut le début du Deep Learning. En 2012, Geoffrey Hinton et son équipe  gagnent brillamment la compétition ImageNet ILSVRC avec des améliorations d’algo et surtout l’utilisation de la cpu de carte graphique / GPU qui accélèrent les calculs.. C’est le vrai démarrage des réseaux de neurones. Tout le monde s’y intéresse. C’est le début de beaucoup d’applications autour de l’image, texte, audio. c’est l’apparition de brique technique bien connue encore aujourd’hui (TensorFlow, PyTorch)

    Le Deep Learning offre des possibilités bien plus riches que le Machine Learning traditionnel, notamment dans des domaines comme le traitement du langage naturel (compréhension, traduction), la reconnaissance d’images ou les moteurs de recommandation (par exemple, dans le streaming). 

    Naissance de l’IA Générative

    En 2017, la publication de l’article “Attention Is All You Need” (Vaswani et al.) à été décisive. Il ouvre la voie à de un nouveau type d’algo d’IA les transformers (le principale apport : ils peuvent analyser en parallèle (et non plus séquentiellement comme avant) les différents composants d’une phrase  ce qui permet notamment des entraînements sur de plus gros volumes de  données).

    Deux projets concurrent prometteurs démarrent à ce moment là (2018) sur cette base des transformers dédiés au traitement du langage : Google avec nouvelle génération de modèle BERT centré sur la compréhension du sens de phrase et une petite société Open AI créée 2 ans auparavant avec GPT (Generative Pre-trained Transformer), un algorithme plutôt centré sur la génération de texte comme les humains. 

    OpenAI et les LLM

    Le cout de génie d’OpenAI a été de de choisir d’entraîner leur modèle sur un volume de données très important (110 millions de paramètres en 2018, puis 1,5 milliards avec GPT2 et 175 milliard avec GPT3). Dans une première phase sur des données brutes issues d’Internet puis dans un deuxième temps de l’affiner pour le rendre capable de converser par un système de récompense avec retour d’information humain (RLHF).

    Mais ils avaient besoin de ressources de calcul énormes. C’est ici que Microsoft est arrivé en proposant ses énormes ressources de calcul (investissement 1 milliard en 2019).

    La qualité des résultats à surpris tout le monde, y compris les acteurs déjà bien établis sur le sujet comme Google. Les premières versions étaient centrées uniquement sur la génération de texte (GPT1,2) : écriture d’articles de presse et de fiction. 

    Gpt3 sort en version bêta en juillet 2020 puis officiellement en mars 2022 et le mode conversationnelle, le fameu  CHATGpt ouvre au public en nov 2022 : ce fut pour le grand public  le début des LLM (Large Langage Model) et de l’IA Générative par référence à l’IA Prédictive avec  le machine learning.

    Aujourd’hui les LLM, en plus de savoir générer des textes, ont la capacité d’analyser, de résumer, de traduire et générer du code informatique, de simuler des interactions humaines. Ils peuvent aussi solliciter l’appel de fonctions externes pour enrichir leurs connaissances. Les améliorations en cours concernent le raisonnement et la génération de plan d’actions.

    Concrètement pour l’entreprise, on peut distinguer 3 types d’usage : 

    • les aides pour le collaborateur au quotidien, 
    • la valorisation des données non structurées de l’entreprise (RAG) et 
    • l’automatisation de  tâches complexes (agent autonome).

    L’IA Générative intégrer plus que la gestion de texte grâce au LLM, ils savent aussi comprendre et gérer des images, des sons et des vidéos. C’est le multi-modal

    Différences entre Machine Learning/Deep Learning et LLM pour l’entreprise

    Une fois précisées les technologies en présence, voyons pourquoi les approches pour l’entreprise sont différentes.

    Ce ne sont pas les mêmes compétences techniques car pas d’entraînement en IA Gen.

    Un projet de ML/DL en entreprise suit toujours le même cycle : collecte des données, préparation des données, choix du type d’algorithme, entraînement et amélioration des réglages, déploiement et surveillance.

    Les deux profils techniques nécessaires sont l’ingénieur data et le data scientist.

    A l’inverse un projet à base d’IA Générative ne nécessite pas d’entraînement (1) de données car l’entraînement a été réalisé en amont une fois pour toute par le fournisseur du modèle LLM. Le travail consiste à connaître et assembler des briques techniques IT existantes tel que les LLM en fonction de leurs spécificités, les bases vectorielles, les frameworks agentiques …

    Le profil technique nécessaire est un ingénieur IT connaissant les spécificités des LLM. Il  devra assembler des composants techniques existant. 

    (1)Hypothèse : dû au volume de données nécessaire et coût de l’entraînement IA Gén (GPU) pour des performances correctes, l’entraînement  n’est pas dans le périmètre de la plupart des entreprises (éventuellement le fine tuning) sauf pour des besoin verticaux (Small language model)

    Ce ne sont pas les même interlocuteurs pour piloter les projets

    Chaque projet de Machine Learning/Deep Learning demande des compétences techniques pointues (data/ia), des compétences métiers multiples, se déroule sur plusieurs semaines et nécessite de collecter des données au niveau de l’informatique d’entreprise (SI) : les projets d’IA sont plutôt pilotés par la direction informatique.

    Un projet d’IA générative consiste, en plus des compétences métiers pour l’expression du besoin,  à assembler des briques techniques standardisées. Quand les données de l’entreprise sont nécessaires, par exemple, dans des architectures RAG, elles sont souvent  circonscrites à un services de l’entreprise. Les interactions avec les utilisateurs dans les phases de validation sont plus fréquentes.

    Les projets sont plutôt pilotés par les équipes métiers.

    Ce ne sont pas les mêmes tailles d’entreprises 

    Une projet de Machine Learning/Deep Learning nécessite de gros volumes de données pour pouvoir entraîner efficacement les modèles ce qui restreint souvent ce type projet aux grandes entreprises.

    En revanche, pour les projets d’IA générative, les cas d’utilisations possibles sont plus nombreux, il n’y pas de restriction sur les volumes de données, toutes les tailles d’entreprise peuvent en bénéficier.

    Ce ne sont pas les même outils

    Les projets de ML/DL nécessitent des outils bas niveaux qui sont  sollicités différemment pour chaque projet. Il est difficile de les standardiser pour les rendre accessibles à des non spécialistes.

    En revanche, pour les projets à base d’IA générative, vu le potentiel, beaucoup d’éditeurs proposent déjà de nombreux outils. Il en arrive de très nombreux toutes les semaines soit sous forme de service SaaS (API) ou dans des framework open sources à installer localement. 

    Il est possible, par exemple,  de répondre à des cas d’utilisation d’exploitation de document en mode RAG simple par du glisser/déposer dans une interface graphique.

    On commence à voir apparaître des plateformes techniques pour l’ensemble de l’entreprise qui rassemble et homogénéise les outils nécessaires pour des projets IA Générative : chaîne d’ingestion standardisé, persistance des conversations centralisée, appel standardisé à tous les LLM, base de centralisation des prompts, outils de contrôle qualité des réponses, orchestration d’agents …

    Conclusion

    Pour les projets ML/DL, il faut nécessairement des équipes Data Scientist en prise directe sur les données brut de l’entreprise pilotées par le service informatique.

    Pour les projets d’IA Générative, les projets modestes peuvent être traités par des solutions sur étagères (par exemple en SaaS via des Studios) sans compétences techniques poussées. 

    Les projets plus ambitieux peuvent se traiter avec un outillage standardisé et la compétence d’un ingénieur informatique sans compétence poussée en IA.

    ML/DLIA Générative
    UsageClassificationPrédictionRegroupementTexteAnalyse RésuméTraductionGénération de codePlanification
    CompétencesData Ingénieur + Data Scientistenn
    OutillageOutils bas niveau spécialisés en IABrique technique standardFramework
    Type d’entrepriseGrande entreprise possédant de gros jeux de donnéesTous types d’entreprise
    Pilotage projetDirection informatiqueDirection métier

    En 2025, la tendance à la multiplication des projets d’IA génératives en entreprise, commence à nécessiter la mutualisation des outils dans des plateformes techniques d’entreprises.

    Ne manquez pas mon prochain article : 

         “comment mettre en place une plateforme IA Gen dans l’entreprise”

  • pourquoi Chat GPT est une rupture

    pourquoi Chat GPT est une rupture

    Tout le monde à été surpris (article de microsoft)

    pourquoi maintenant : rencontre des 3 elements : puissance de calcul, centralisation de la connaisance via internet, les algos dispo.

    une découverte majeure qui a rencontrée son public

    Lorem Ipsum is simply dummy text of the printing and typesetting industry. Lorem Ipsum has been the industry’s standard dummy text ever since the 1500s, when an unknown printer took a galley of type and scrambled it to make a type specimen book. It has survived not only five centuries, but also the leap into electronic typesetting, remaining essentially unchanged. It was popularised in the 1960s with the release of Letraset sheets containing Lorem Ipsum passages, and more recently with desktop publishing software like Aldus PageMaker including versions of Lorem Ipsum.

    Why do we use it?

    It is a long established fact that a reader will be distracted by the readable content of a page when looking at its layout. The point of using Lorem Ipsum is that it has a more-or-less normal distribution of letters, as opposed to using ‘Content here, content here’, making it look like readable English. Many desktop publishing packages and web page editors now use Lorem Ipsum as their default model text, and a search for ‘lorem ipsum’ will uncover many web sites still in their infancy. Various versions have evolved over the years, sometimes by accident, sometimes on purpose (injected humour and the like).

    Where does it come from?

    Contrary to popular belief, Lorem Ipsum is not simply random text. It has roots in a piece of classical Latin literature from 45 BC, making it over 2000 years old. Richard McClintock, a Latin professor at Hampden-Sydney College in Virginia, looked up one of the more obscure Latin words, consectetur, from a Lorem Ipsum passage, and going through the cites of the word in classical literature, discovered the undoubtable source. Lorem Ipsum comes from sections 1.10.32 and 1.10.33 of « de Finibus Bonorum et Malorum » (The Extremes of Good and Evil) by Cicero, written in 45 BC. This book is a treatise on the theory of ethics, very popular during the Renaissance. The first line of Lorem Ipsum, « Lorem ipsum dolor sit amet.. », comes from a line in section 1.10.32.

    The standard chunk of Lorem Ipsum used since the 1500s is reproduced below for those interested. Sections 1.10.32 and 1.10.33 from « de Finibus Bonorum et Malorum » by Cicero are also reproduced in their exact original form, accompanied by English versions from the 1914 translation by H. Rackham.