Skip to content

IA Générative & RAG : Comment passer de l’idée au POC en quelques minutes

9 Minutes

Pourquoi implémenter des outils IA dans son activité ?

Développer sa créativité, ce n’est pas toujours évident.

C’est un savant mélange entre connaissance et intuition.

La connaissance, on sait comment l’acquérir, mais l’intuition, elle, se développe à force d’essayer, de discuter et de confronter ses usages/apprentissages avec ses pairs et ses homologues.

Il est donc important de commencer à s’emparer des produits GenAI pour soi ou pour son équipe, en créant des use cases simples, afin de pouvoir s’émanciper de la barrière technique et mental.

Justement, nous avons mis en place chez IKXO un @BuddyRH, accessible via Slack et basé sur notre documentation hébergée dans Notion, afin de répondre aux questions les plus posées à notre responsable RH grâce à l’outil DUST 😇

Mais attention à l’effet Dunning-Kruger ⚠️ : les nouveaux outils no-code peuvent rendre les usages personnels simple et attrayant, mais ça devient plus complexe une fois que l’on souhaite le faire à l’échelle.

Pourquoi commencer par le RAG (Retrieval-Augmented Generation) ?

Le RAG est sans doute l’une des meilleures portes d’entrée pour s’emparer concrètement de l’IA générative.

Pourquoi ? – Parce qu’il permet de rester simple techniquement, tout en intégrant de la personnalisation métier via des documents existants.

Pas besoin d’entraîner un modèle : on connecte l’IA à sa propre base de connaissance, et on obtient immédiatement des réponses contextualisées, fiables et utiles.

C’est un excellent moyen de prototyper rapidement, de tester des usages concrets, et surtout de créer de la valeur dès les premières heures.

👉 Le ROI reste maître dans une approche AI pragmatique.

C’est quoi un RAG ? 🧠📄

Le RAG est une approche hybride de l’IA générative.

Cette technique a été conçue pour compenser les limites classiques des LLM :

  • Les LLM ne savent répondre qu’à partir de leur training statique (souvent figé dans le temps).
  • Ils peuvent halluciner (inventer des réponses) s’ils n’ont pas assez de contexte.
  • Leur connaissance repose sur des données web figées, souvent incomplètes ou contradictoires, ce qui limite leur fiabilité sur des sujets métier.

Le RAG résout cela en donnant au modèle un accès en temps réel à une base de connaissance spécifique (Notion, Slack, docs internes, FAQ, bases clients, mails, etc.).

👉 Le modèle ne devine plus, il répond à partir de faits vérifiés qu’on lui fournit dynamiquement.

Voici les 3 points clés pour un RAG :

1. 📚 Données – La base de connaissances (retrieval)

Le cœur du RAG, c’est l’accès à des données externes et spécifiques.

On ne se contente pas de ce que le LLM “sait”, mais on lui demande de baser ses réponses sur notre documentation.

Indexation

  • Les documents sont découpés en chunking (découpage d’un texte en petits blocs exploitables) et vectorisés via un embedding (c’est la version “mathématique” d’un texte, utilisée pour mesurer la similarité entre des contenus.).
  • Stockés dans une base vectorielle (ex : OpenAI, FAISS, Pinecone, Weaviate, etc.).

Recherche

  • Lorsqu’un utilisateur envoie une question, on génère un embedding de la requête.
  • On cherche les documents les plus pertinents (Top-k : sélection des k vecteurs les plus proches d’une requête pour extraire les contenus les plus pertinents.) dans la base vectorielle.

2. ✏️ Le prompt – La génération contextuelle

On construit un prompt enrichi avec les résultats de la recherche.

Structure du prompt

  • La structure d’un prompt dans un RAG repose sur des éléments clés : l’instruction de l’utilisateur, le contexte extrait de la base documentaire, et une consigne système pour guider la formulation de la réponse (par exemple : “réponds de manière synthétique”, “utilise un ton professionnel”, ou “formate la réponse en bullet points”).

Avantage

  • Réduction des hallucinations : en injectant du contexte précis, le LLM ne « devine » plus la réponse.
  • Personnalisation des réponses : les consignes permettent de cadrer le ton, le format et le niveau de détail.
  • Réponses plus fiables et actionnables : le modèle s’appuie sur des données vérifiées et à jour.
  • Expérience utilisateur améliorée : le résultat est plus clair, pertinent et adapté aux attentes.

3. 🤖 Le choix du LLM – Quel modèle utiliser ?

Le LLM est responsable de la réponse finale, basée sur le contexte injecté.

Critères de choix

  • Taille : GPT-3.5/4, Claude, Mistral, LLaMA…
    • La taille d’un modèle correspond à son nombre de paramètres : plus il est grand, plus il est puissant, mais aussi plus lent et coûteux. Cela dit, une grande taille n’est pas toujours synonyme de qualité pour ton cas d’usage. 👉 Il est souvent utile de tester plusieurs modèles, car un modèle plus petit peut suffire — voire mieux performer — selon le contexte.
  • Capacité à suivre le prompt (instruction-following).
  • Coût / vitesse : plus petit modèle si le contexte suffit, possibilité d’utiliser un modèle en local.
  • Qualité des réponses générées :
    • Ce critère est central. Il ne dépend pas uniquement de la taille du modèle, mais aussi de la qualité du contexte injecté, et parfois du type de base utilisée (vectorielle ou Knowledge Graph).
    👉 Pour l’évaluer, il est recommandé d’utiliser des frameworks comme Ragas ou Helm, qui mesurent la pertinence et la factualité des réponses selon les cas d’usage.

Rôle du LLM

  • Comprendre le prompt enrichi.
  • Générer une réponse fluide, pertinente, sourcée.

Comment je m’y prends pour faire un RAG ? 🛠️

Il existe une multitude d’outils no-code pour y arriver, certains très accessibles comme DUST, ou d’autres un peu plus complexes mais bien moins coûteux comme Flowise ou encore Langflow.

Aujourd’hui, on va se concentrer sur DUST car c’est celui qui permet de faire des POC et RAG en quelques minutes.

C’est aussi l’outil de référence actuellement, et on ne va pas se mentir, on n’a pas tout le temps de prendre en main de nouveaux outils 😅.

Comment fonctionne DUST ? 🚀

DUST, c’est vraiment la meilleure porte d’entrée pour créer un RAG facilement et en quelques minutes.

Tu peux faire un compte gratuit de 15 jours : largement suffisant pour tester la puissance de l’outil avant de passer a un niveau supérieur.

Voici les 4 étapes pour faire ton propre agent RAG sur DUST :

  1. Création de la base documentaire : Tu peux importer des documents facilement (dans Knowledge) et brancher Notion, Google Drive ou encore Confluence en quelques secondes.
  2. Sélection du LLM et de la température : Dust ne permet pas d’importer un LLM de notre choix. Voici la liste à date des LLM dispo sur DUST : OpenAI, Anthropic, Mistral et Gemini. Pour chacun, il est possible de sélectionner la taille du LLM que l’on souhaite. La température (Creativity level) permet d’avoir des réponses strictes ou alors plus inventives quand notre base documentaire n’est pas exhaustive ou mal structurée.
  3. Prompt (instruction) : On te conseille de faire un prompt avec l’aide d’une autre IA 🤓. C’est ultra-puissant et bien plus rapide. Exemple : demande à chat GTP de te faire un prompt en lui donnant le contexte de ton rag.
  4. Recette : Sur ta base documentaire, tu peux trouver une dizaine de questions types auxquelles tu comptes répondre, et en fonction des réponses, tu modifies ton prompt. Avec DUST, en quelques minutes, tu peux déjà avoir un agent très performant ✅.

Et voilà, en 10 minutes, tu viens de faire un RAG basé sur ta doc que tu peux appeler dans Slack si tu le souhaites, ou utiliser directement dans l’interface de DUST.

Merci DUST ! 🎉

Bon maintenant, parlons des mauvais côtés… car oui, tout n’est pas rose 🌹

La sca..la..bi..li..té…

En effet, DUST n’est pas vraiment fait pour scaler (aujourd’hui).

L’abonnement coûte 29 € par utilisateur, et seuls les membres peuvent interagir avec l’agent.

Il y a une API, mais elle est disponible pour les forfaits de type “Enterprise”, qui commencent à partir de 100 users.

Donc, tu l’auras compris, c’est pas super scalable. Mais… !

Tout le travail est mâché, et c’est un super moyen de multiplier les POC internes et de valider des hypothèses avant de se lancer dans le grand bain des outils no-code à notre dispo ou bien de le faire avec une équipe dédiée.

Et un point à ne pas négliger : la data préparation

Même si Dust facilite grandement la mise en place d’un agent intelligent, la qualité des résultats dépend directement de la qualité des données injectées.

Il est assez rare d’obtenir un résultat pertinent dès la première tentative. Il faut prévoir un minimum de travail de structuration, de tests, et d’itérations sur la base documentaire pour affiner les réponses et atteindre un niveau de qualité satisfaisant.

Ce n’est pas “plug-and-play” à 100 %, et c’est normal.

Un agent efficace repose toujours sur une bonne data prep.

Disclaimer :

Article rédigé en mai 2025, qui ne sera peut-être plus d’actualité dans quelques mois.

On ne le répétera jamais assez mais : reste en veille et surtout devient le maître du POC

🔁 TEST, TEST et TEST !

Cet article vous a plu ? Retrouvez notre article IA & Product Management : Comment se lancer dans l’utilisation de l’IA en tant que Product Manager ?

© IKXO 2025 – Mentions Légales

Site Créé par DOPE