Cet article est destiné à expliquer des termes complexes de manière simple. Nous allons démystifier ensemble des concepts comme LLM, GPT-4, prompt et bien d’autres, en les rendant accessibles à toutes et tous.
Au programme :
- Qu’est-ce qu’un LLM et que signifie GPT ?
- Les modèles OpenAI
- L’art du prompt
- Les instructions personnalisées
- GPT sur mesure, pourquoi faire ?
- GPT Free, GPT Plus, GPT Team, GPT Entreprise, quel plan choisir ?
- Une API
- Conclusion et bonus
Qu’est-ce qu’un LLM et que signifie GPT ?
Un Large Language Model (LLM) est un modèle de langage très avancé conçu pour comprendre et générer du texte de manière cohérente et contextuelle. Ces genres de modèles sont entraînés sur d’énormes ensembles de données textuelles, couvrant divers domaines et styles d’écriture, ce qui leur permet d’acquérir une vaste connaissance du langage. En utilisant des architectures de réseaux de neurones avancées, comme les Transformeurs, les LLM sont capables de capturer des relations complexes entre les mots et les phrases, permettant des applications telles que la génération de texte, la traduction automatique, l’analyse de texte, etc.
GPT, ou Generative Pre-trained Transformer, est un exemple de LLM. Ce modèle se distingue par sa capacité à générer du texte qui imite de manière convaincante le langage humain. Pré-entraîné sur un large corpus de données textuelles avant d’être ajusté pour des tâches spécifiques, GPT utilise l’architecture des Transformeurs pour comprendre le contexte et produire des réponses pertinentes et cohérentes.
ChatGPT est donc l’interface de conversation (chat) qui permet d’échanger avec ce modèle dernière génération !
Les modèles OpenAI disponibles
OpenAI (l’entreprise qui développe ChatGPT) propose différents modèles qui représentent chacun une version d’un LLM. Chaque modèle a des capacités spécifiques. Voici les différences entre les principaux modèles de ChatGPT :
- GPT-3.5 : Produit des textes naturels et cohérents. C’est le modèle qui était disponible au lancement de ChatGPT en novembre 2022.
- GPT-4 : Plus puissant et précis que le 3.5, ce modèle comprend mieux les contextes complexes et ses sources sont actualisées régulièrement. Il est capable de créer/analyser plus de choses. Il est disponible depuis mars 2023.
- DALL-E-3 : Ce modèle permet de générer des images, il est disponible de façon transparente à travers GPT4. Ca veut dire que si l’on demande à GPT4 de générer une image, il va de lui même faire appel à Dall-e pour la générer.
- GPT-4o : « o » pour « omnicanal ». Ce modèle peut accepter plusieurs sources de données différentes : texte, audio, image, vidéo de façon à pouvoir se rapprocher d’un échange humain multi-dimensionnel. Disponible depuis mai 2024, il est aussi précis que GPT4 mais plus rapide.
L’art du prompt
Un prompt est une consigne ou une question que l’on donne à l’IA pour obtenir une réponse appropriée : C’est le message qui est rédigé au démarrage d’une conversation.
Il y a plusieurs techniques possibles pour faire un bon prompt et obtenir un résultat intéressant de la part de l’IA :
- Décrire le contexte : expliquez qui vous êtes, votre entreprise, vos problématiques, vos connaissances, votre niveau, etc.
- Expliquez correctement la tâche à effectuer
- Décrire le format attendu : un texte long, un texte court, 3 paragraphes, 150 mots, en français, en anglais, en HTML, en json, etc.
Quand on démarre avec ChatGPT, on a tendance à faire des prompts très courts, quelques mots ou une phrase, et on peut être déçu du résultat. Avec un peu d’expérience, on prend l’habitude de faire des prompts plus longs et donc d’obtenir des résultats plus précis.
Un prompt de 5 à 10 lignes est tout à fait normal, et on peut faire encore (beaucoup) plus long, sans soucis pour l’IA. Et c’est sans compter les informations qu’on peut lui transmettre en plus des instructions. Il est possible de copier/coller le contenu d’un mail, d’un article de blog, envoyer un fichier Excel à analyser, etc.
Pour exprimer la taille maximale d’un prompt, on parle de contexte. Il est différent selon les outils et les versions de modèles. Et ce contexte s’exprime en nombre de tokens. C’est une unité de mesure de caractères propre au fonctionnement des LLM. Un token correspond à une portion de mot. Cette portion peut être un caractère, une lettre, un mot entier ou une partie de mot, selon la complexité et la langue du texte.
Les instructions personnalisées
Ce sont des directives spécifiques qui permettent de guider l’IA pour qu’elle fournisse des réponses adaptées aux besoins particuliers de l’utilisateur.
Il faut voir ça comme le contexte à intégrer au début d’un prompt, sauf que ChatGPT permet de mutualiser ce contexte pour tous les échanges ! Expliquez clairement vos enjeux, vos problématiques, les outils que vous utilisez, etc.
Il y a 2 sections à remplir :
- Avez-vous des informations à fournir à ChatGPT pour l’aider à mieux vous répondre ?
- Quel type de réponse souhaitez-vous de la part de ChatGPT ?
C’est dans la première section que vous pouvez mettre toutes les informations vous concernant : métier, contexte, problématiques du moment, etc.
Dans la seconde, vous pouvez lui spécifier des formats de retour attendus, comme le ton, la longueur des réponses. Mais vous pouvez aussi lui indiquer par exemple que si votre question n’est pas assez claire, il commence par VOUS poser 2 à 3 questions pour préciser le contexte. De cette façon, vous engagez une conversation, ce qui permet toujours d’avoir des résultats de meilleur qualité, car plus la discussion avance, plus l’IA va préciser ses réponses.
Attention, il faut avoir au minimum un compte GPT Plus pour bénéficier de cette fonctionnalité.
GPT sur mesure, pourquoi faire ?
Un GPT sur mesure peut être vu comme un « mini Chat GPT » que l’on paramètre et personnalise soi même. C’est à dire que l’on spécialise sur une ou un ensemble de tâches. Et pour cela, on peut lui fournir des instructions personnalisées, des fichiers à consulter, des fonctionnalités à activer ou non, etc.
Tout se gère directement dans les interfaces de ChatGPT et ne nécessite aucune connaissance technique particulière. On peut même paramétrer un GPT sur mesure… juste en discutant avec ChatGPT !
Il y a aussi un GPT store qui recense les GPT sur mesure créé (et partagé) par d’autres utilisateurs. On retrouve par exemple :
- Générateur de logo
- Assistant cuisinier
- Spécialiste d’un langage ou d’une technologie
- Analyse de données
- Coach d’écriture
- Etc.
C’est vraiment une fonctionnalité très puissante. Il peut y avoir un peu de temps à passer pour bien paramétrer et calibrer son GPT sur mesure. Mais c’est vraiment un investissement pour du long terme. On peut obtenir de meilleurs résultats avec un GPT sur mesure qu’avec la version générale de Chat GPT.
GPT Free, GPT Plus, GPT Team, GPT Entreprise, quel plan choisir ?
Juin 2024. Voici les différents plans mis à disposition par Open AI pour bénéficier d’une expérience premium avec leur IA. Mais concrètement, quel plan faut-il choisir ?
- GPT Free : Nombre de requêtes illimitées pour GPT-3.5 mais accès limité au dernier modèle le + performant : GPT-4o → Idéal pour les tâches simples mais vite limité dans son utilisation.
- GPT Plus : Une version améliorée avec plus de fonctionnalités et de meilleures performances. Donne accès à tous les modèles (3.5, 4, 4o), permet l’analyse de données, de documents type PDF et autres mais permet aussi la génération d’images et d’infographies
- GPT Team : Idéal pour les petites et moyennes entreprises, avec des outils de collaboration et une gestion de comptes centralisée. Permet de créer des “GPT sur mesure” utilisables par tous les membres de l’espace de travail
- GPT Entreprise : Conçu pour les grandes entreprises, avec des options avancées de sécurité et de gestion → Une version “grand compte” du plan Team
Une API
Une API permet aux développeurs et développeuses d’intégrer les fonctionnalités de Chat GPT dans leurs applications. Les possibilités offertes par ce process sont très puissantes et permettent de créer des fonctionnalités innovantes dans les applications et les sites web. Que ce soit en développant de nouveaux outils ou en intégrant de nouvelles fonctionnalités dans des outils existants.
On parle en détails de ces possibilités dans la présentation de l’intelligence artificielle et dans certains de nos cas clients.
Et si vous êtes développeur ou développeuse, découvrez comment intégrer les API d’OpenAI en PHP.
Conclusion et bonus
On espère que ces définitions et explications vous permettent de mieux comprendre les différents éléments autour de ChatGPT et OpenAI. On tâchera de mettre à jour cet article au fil des mises à jour.
Quelques podcasts si vous voulez encore creuser le sujet de l’IA et de ChatGPT :
- Laurent Alexandre dans GDIY. Un peu excessif par moment, mais une bonne écoute pour se projeter loin (?) dans les usages de l’IA
- Yann Lecun dans GDIY. Plus terre à terre et technique, un tour d’horizon des avancées scientifiques autour de l’IA et des usages associés.
- L’approche de l’IA générative en entreprise par BPI, sur Comptoir IA. De bonnes recettes pour deployer l’IA dans son entreprise.
- Les GPT sur mesure, sur Comptoir IA. Un peu technique mais très inspirant pour créer ses propres GPT.
N’hésitez pas à nous contacter si vous en souhaitez en savoir plus sur l’IA ou si vous avez un projet en cours ou en réflexion, nous pourrons vous aider à y voir plus clair en terme de faisabilité, et développer ensemble une solution sur mesure !