IA générative : comment se préparer aux changements à venir
Depuis les origines de l’intelligence artificielle, l’IA générative représente l’un de ces bouleversements majeurs qui nous force à reconsidérer tout, depuis nos stratégies de différenciation jusqu’à nos méthodes de fonctionnement interne, incluant la productivité et les méthodes de travail.
En tant qu’experts en intelligence artificielle, il est essentiel pour nous d’aborder ce sujet. Non seulement parce que cette technologie est omniprésente sur le marché, mais aussi parce que nous l’utilisons régulièrement pour automatiser nos processus, accéder à nos bases de données et augmenter notre propre productivité. D’ailleurs, améliorer l’IH (intelligence humaine) avec l’IA (intelligence artificielle) est l’essence même de Datacook, depuis sa genèse.
Nous avons donc choisi de publier ce livre blanc qui résume notre expérience, les enseignements tirés, les contraintes opérationnelles identifiées, les solutions disponibles, ainsi que les incroyables opportunités que cette innovation offre et offrira à l’avenir.
Car il s’agit bien là de la plus grande révolution dans notre secteur depuis l’émergence du machine learning et de la data science : je parle bien sûr de l’intelligence artificielle générative.
I. Qu’est-ce que l’IA générative ?
Commençons par comprendre ce que signifie l’IA générative et clarifions aussi ce qu’elle n’est pas. L’IA générative est tout simplement une branche de l’intelligence artificielle qui s’intéresse à l’utilisation d’algorithmes pour générer tout type de contenu, que ce soit du texte, du code, de l’image, du son et voix, des processus et même des structures protéiques 3D.
Le cas de la génération de texte est particulièrement intéressant car nous sommes à l’aube de réaliser un rêve ancien : celui de communiquer avec les machines comme nous le faisons entre humains, sans avoir à utiliser le langage binaire des ordinateurs, composé de zéros et de uns. L’objectif est de permettre à tout un chacun d’interagir avec la technologie de manière intuitive, sans nécessiter de compétences techniques spécifiques.
Cet exploit est en grande partie la raison de l’excitation et des investissements considérables dans les Large Language Models (LLM) qui vont au-delà des capacités d’une entreprise individuelle. Les progrès récents sont suffisamment significatifs pour rendre cette vision réaliste, ce qui motive le développement de nouvelles entreprises et technologies qui exploitent le langage naturel.
II. Problématiques autour du Big Data
Cela est devenu réalisable grâce à l’ère du big data et à l’immense quantité de textes que l’Internet met à notre disposition. Les modèles LLM ont besoin d’énormément de données pour fonctionner et nous disposons aujourd’hui d’une quantité de données textuelles plus grande que jamais. Cependant, le but ultime d’une IA alimentée au big data devrait être d’atteindre l’efficacité maximale, tout en minimisant l’impact écologique. Et sachant que le modèle de DeepMind consomme 440 000 watts face aux 22 watts d’un cerveau humain, il est clair qu’il y a encore un long chemin à parcourir avant d’atteindre la sobriété énergétique.
L’équation est simple ; plus il y a de données, plus il faut d’énergie pour faire fonctionner et refroidir les centres de données. En 2022, la consommation mondiale des data centers chiffrait à 360 milliards de Kwh, ce qui dépasse la consommation du Royaume-Uni. Ce modèle économique ne sera donc durable que lorsque nous aurons des technologies plus économes en énergie. Cela implique qu’il est nécessaire d’améliorer l’efficacité des algorithmes et d’adopter des modèles de small data. Car contrairement au big data, le small data regroupe les données en ensembles plus petits et plus gérables.
Des progrès dans ce sens ont été réalisés pour minimiser le volume de données requis pour l’entraînement des modèles d’IA.
Par exemple, OpenAI a réussi à équilibrer la taille et la précision de ses modèles en simplifiant les chiffres après la virgule dans les résultats des matrices, grâce à des techniques telles que la quantification. Cette méthode augmente significativement l’efficacité en réduisant le nombre de tokens produits par seconde et la quantité de mémoire utilisée.
De son côté, MistralAI a créé un modèle de 7Mld de paramètres (vs 175Mld pour chat gpt4 turbo) qui égale quasiment les performances d’OpenAI. Cela rend l’utilisation de ces technologies accessible sur des ordinateurs standards, et ce, localement !
III. Avancées sur la qualité des données
Les points d’attention liés à l’IA
Malgré ces grandes avancées, l’efficacité et la fiabilité des modèles d’IA pour une utilisation à grande échelle restent incertaines. La qualité des données reste influencée par la variabilité des sources, car elles sont produites par des humains comme vous et moi. On se retrouve alors avec de la donnée subjective, fausse ou contradictoire qui entraîne les modèles et compromet leur fiabilité dans les milieux professionnels. Il en existe de plusieurs sortes :
- Les hallucinations, ou la création d’informations fausses ou mal adaptées au contexte, surviennent quand il manque des données fiables. Le système peut alors fournir une réponse à n’importe quelle question qui semble correcte dans la forme, mais qui est incorrecte dans les faits. Il peut même inventer des sources.
- Les biais causés par les données d’entrainement principalement anglo-saxonnes ou bien d’une mauvaise appréciation de nos hypothèses ou celle des autres lors du fine-tuning du modèle.
- L’obsolescence naturelle des données ; une information vraie aujourd’hui peut être dépassées et erronées demain. Et les données vont continuer à évoluer encore plus vite à l’avenir.
Il reste évident que les entreprises ne peuvent pas accepter de tels problèmes lors de la délivrance du contenu généré à leurs clients. C’est pourquoi il existe aujourd’hui plusieurs solutions pour réduire ces phénomènes.
La réponse technique à ces points d’attention
Et c’est bien le facteur humain qui permet de faire ce pont aujourd’hui. Les entreprises comme Datacook qui ont recours à de l’hébergement autonome (ou self-hosting) utilisent déjà l’ajustement fin (fine-tuning) et le RAG (Retrieval-Augmented Generation) pour adapter ces modèles à des tâches ou à des domaines spécifiques.
Pour le fine-tuning, nous récoltons des données spécialisées qui représentent les types de tâches, le jargon ou les situations spécifiques que l’on retrouve dans des documents techniques, des conversations client, des rapports de recherche, etc. Puis nous appliquons à un modèle pré-entrainé sur un large set de données, des données supplémentaires et spécifiques pour qu’il ajuste ses poids internes afin d’être plus performant.
L’approche RAG consiste à chercher des informations pertinentes en réponse à une requête, puis à générer la réponse en utilisant un modèle pré-entraîné, basé sur les données choisies. Cette méthode est efficace pour se baser exclusivement sur des faits et des connaissances spécialisées issues de sources externes, plutôt que sur les prédictions internes d’un modèle généraliste.
Ces deux approches, que l’on peut coupler, offrent plusieurs avantages significatifs par rapport aux modèles généralistes. Ils gagnent en précision dans leur domaine spécifique, offrent un potentiel de personnalisation illimité, et permettent de réduire considérablement le temps et les ressources nécessaires à leur fonctionnement. Actuellement, ils représentent la solution la plus efficace pour adapter un modèle aux besoins spécifiques d’un secteur, tout en minimisant les risques d’« hallucinations ».
Sans ces approches, il est impossible à l’heure actuelle d’utiliser de l’IA générative et leur donner une autonomie complète sur leurs productions. Leur tendance à générer des résultats imparfaits nécessite de répéter la génération de texte jusqu’à obtenir le niveau de finesse et de qualité attendu d’un travail humain.
IV. Applications concrètes de l’IA générative
Si vous envisagez d’adopter une IA générative de texte dans votre organisation, il est bon de savoir que cette technologie se divise actuellement en trois grandes catégories d’applications :
La première est la synthèse d’information en grande quantité sous une forme digeste et pratique. Par exemple, il pourrait s’agir de déterminer les priorités de votre programme de fidélisation client, point par point.
La seconde est l’utilisation de l’IA générative comme assistant intégré à une application ou sur son site sous forme de chatbot. Aujourd’hui, vous pouvez faire des requêtes sur vos CRM ou ERP pour collecter les informations désirées sous la forme que vous préférez. Le meilleur exemple que nous puissions vous donner est notre solution Datacook « SelfAI », qui permet de faire des requêtes dans votre base de données en utilisant le langage courant pour obtenir immédiatement des observations précises et chiffrées, tout en offrant la possibilité d’activer des segments prédictifs instantanément.
Enfin, la troisième application concrète que va permettre l’IA générative est la complétion automatique, applicable à toutes les tâches. Pour toutes les tâches disgracieuses, longue ou qu’on souhaiterait déléguer, il sera possible de le générer en tout ou partie. On peut envisager par exemple les rapports, slides PowerPoint, les comptes rendu détaillé, etc. Mais ce n’est pas tout ; Le concept de remplissage automatique s’étend aussi à la personnalisation des campagnes marketing, que ce soit pour les emails ou les SMS. Qui n’a jamais rêvé d’une segmentation ultra-personnalisée atteignant une dimension littéralement individuelle ?
Si vous vous identifiez à au moins une des trois catégories mentionnées ci-dessus, il est temps de vous lancer. Vos concurrents pourraient rapidement prendre de l’avance, tant l’implémentation de ces technologies est simple et largement accessible.
V. Comment intégrer l’IA générative dans son organisation
De nombreuses entreprises effectuent des audits pour déterminer quelles technologies intégrer à leurs différents départements et métiers, dans le but de faire des économies et d’augmenter la productivité. Actuellement, tous les secteurs d’activité des entreprises, qu’elles soient grandes ou moyennes, sont en train d’être examinés à cet égard. La question des compétences techniques nécessaires pour utiliser ces modèles commence à trouver des réponses à mesure que le marché devient plus professionnel ; de nouveaux métiers liés à ces technologies commencent déjà à émerger :
- Prompt engineer
- Scénariste IA
- Artiste IA
- Spécialiste en éthique IA
- Formateur en modèle génératif
- Avocat spécialisé en IA
- Analyste de données générative
- Concepteur de modèle IA génératif
- etc.
Plusieurs questions se posent alors : Est-il préférable d’intégrer certaines compétences au sein de l’entreprise ? Faut-il privilégier la formation interne et chercher des formations adaptées, ou bien externaliser en recrutant des experts compétents ? Comment juger la qualité des nombreuses ressources disponibles en ligne ? Comment gérer les coûts d’intégration et leur évolution face aux changements significatifs des tarifs des API et des solutions sans serveur, où le paiement se base uniquement sur la consommation ?
De l’urgence/importance de faire appel à un spécialiste de l’IA.
À chaque organisation sa solution, cependant il est crucial d’anticiper l’évolution à moyen terme de votre produit. Examinez la compatibilité de votre solution avec le langage naturel et ce que votre entreprise ne perd en n’automatisant pas les tâches simples. Il pourrait être judicieux de réaliser des études approfondies pour envisager la création progressive d’un département IA avec des experts internes. Cependant, ne vous précipitez pas si faire appel à des spécialistes externes est suffisant pour le moment.
Une approche souple est clé pour naviguer à travers les changements et innovations constants. Ainsi, intégrer à votre équipe une personne passionnée par ce domaine peut véritablement dynamiser vos projets. Cette personne devrait idéalement être proactive dans la veille technologique et posséder une influence décisionnelle significative pour impulser le changement. Opter pour un profil à la fois technique et orienté produit, capable de travailler de manière indépendante, constitue également une excellente stratégie.
VI. Maturité du marché en vue d’une adoption large et globale
L’IA est en passe de révolutionner toutes les entreprises, à tous les niveaux de postes. La maturité en IA double chaque année : en ce sens, le moindre retard sur l’intégration de l’IA dans votre entreprise peut être regrettable dans l’avenir.
Et d’ailleurs, l’adoption large de l’IA s’en ressent déjà sur le plan légal et le plan sociétal.
Adoption de l’IA dans le cadre légal
Actuellement, certains modèles de LLM répondent aux critères d’interprétabilité définis par l’« AI Act », le projet de loi européen destiné à réguler l’utilisation de l’intelligence artificielle, qui devrait être adopté en 2025. En ce qui concerne la réversibilité, c’est-à-dire la capacité de retracer l’output jusqu’aux données d’entrée pour comprendre le processus de décision, les modèles ne sont techniquement pas encore à la hauteur. Des efforts supplémentaires sont nécessaires pour respecter le droit à l’oubli, permettant de supprimer les données personnelles de l’ensemble de formation d’un modèle. Toutefois, le fait que ces obligations légales s’appliqueront sur le vaste marché européen peut offrir une certaine assurance quant à l’utilisation future sereine des modèles de LLM.
Adoption de l’IA dans le contexte sociétal
Sur le plan sociétal, l’acceptation et l’adoption de ces technologies sont cruciales. Selon les prévisions de The Brainy Insights, le marché mondial de l’IA générative pourrait passer de 8,65 milliards USD en 2022 à 188,62 milliards USD d’ici 2032, montrant une croissance impressionnante. Cela pourrait entraîner une augmentation des attentes en termes de productivité des employés, potentiellement source de stress accru. Toutefois, cette pression devrait être équilibrée par un intérêt grandissant des entreprises pour le bien-être et le développement professionnel et personnel de leurs salariés. Bien que cette évolution nécessite plus de flexibilité pour s’adapter au déplacement progressif des compétences, l’introduction de l’IA générative ne bouleverse pas notre utilisation de la technologie comme un soutien croissant dans le travail, quel que soit le secteur.
VII. Utilisations pionnières des LLM
Lors de la dernière NRF (le grand salon du retail à New York), certaines entreprises ont brillé par leur utilisation astucieuse de l’IA générative. Une d’elles a introduit un service permettant aux consommateurs de recevoir des conseils personnalisés, comme des suggestions de tenues pour des rendez-vous professionnels à l’étranger, directement sur les boutiques en ligne, grâce à des modèles de langage avancés (LLM). Cette stratégie ne se concentre pas uniquement sur la vente mais intègre aussi le conseil, mettant en évidence le besoin pour les commerces traditionnels d’améliorer leur expérience client afin de rester dans la course.
Une entreprise axée sur la santé animale a incorporé Mistral AI à ses systèmes de suivi GPS et à ses dispositifs connectés de santé pour animaux. Les résultats obtenus sont aussi impressionnants que ceux d’OpenAI. Mistral AI a été utilisé à chaque phase, allant de l’analyse des données de santé à la rédaction de rapports quotidiens, à la fois clairs et pratiques, pour les propriétaires d’animaux.
Un nombre croissant d’entreprises se tournent par ailleurs vers OpenAI pour améliorer l’expérience client, en particulier avec des chatbots plus personnalisés. Cependant nous avons déjà discuté des défis de l’humanisation des chatbots dans le service client et des solutions envisagées dans un article spécifique de notre site, que je vous suggère de consulter.
Conclusion :
Il y a un an, il était peut-être prématuré de prendre position, mais aujourd’hui, la technologie des LLM (et bientôt peut-être la génération de vidéo, à la suite de l’annonce récente de Sora par OpenAI) montre une maturité suffisante dans un marché qui s’organise rapidement, pour envisager une adoption large en entreprise.
Des alternatives existent désormais, et l’AI Act devrait efficacement jouer son rôle de régulateur à temps pour prévenir les abus dans l’utilisation de ces modèles.
La prudence reste de mise, et certaines entreprises choisissent de ne pas utiliser ChatGPT en interne pour éviter le risque de fuite des données d’entraînement. Cette inquiétude est renforcée par les premières démarches d’OpenAI, qui ont suscité des interrogations sur le respect des droits d’auteur. Cependant, il se pourrait que dans quelques années, nous ayons une approche plus ouverte concernant le partage des données internes des entreprises.
Nous avons atteint un point de non-retour dans le progrès technologique. Il est vital de s’impliquer dès maintenant pour rester compétitif dans les différents domaines d’application.
Parallèlement, il faut avancer avec prudence et méthode pour créer un service axé sur l’IA générative, en suivant l’évolution du marché. Cela vous préparera aussi à accélérer lorsque de nouvelles technologies apparaîtront. Elles aideront à surmonter les obstacles techniques qui bloquaient la personnalisation des modèles de données pour vos besoins spécifiques.