Les LLMs comme ChatGPT ou DeepSeek sont incroyablement puissants. Mais ils ne fonctionnent pas comme les logiciels traditionnels. là où un programme classique donne toujours une réponse exacte et prévisible (via des cliques 🙂 ), les LLMs, eux, font des hypothèses. Ils devinent, en fonction du contexte, ce qui semble être la meilleure réponse possible. Et parfois… ils se trompent.
J’ai voulu en faire l’expérience moi-même. L’idée était simple : connecter une base de données MySQL à une interface propulsée par un ChatGPT. L’utilisateur pose une question sur ses données, le modèle génère la requête SQL, et hope, on exécute ça dans le server MySQL. Problème : la requête générée est parfois imparfaite. ça peut passe côté syntaxe, mais elle ne renvoie rien, ou pas ce que j’attendais. c’est pas parce que le modèle est “bête”, mais parce qu’il n’a pas toujours toute l’information, ou qu’il fait un mauvais raisonnement à partir d’une formulation ambigüe.
J’ai aussi envisagé une autre approche : uploader les données directement dans la conversation pour que le modèle ait toute la vue d’ensemble et toutes les “informations”. Sauf qu’au-dela d’un certain volume de données, ce n’est plus viable. D’abord pour des raisons de coût (ça devient cher très vite 🙁 ), mais aussi pour des raisons de confidentialité.
Tout ça m’a ramené à une évidence : avec les LLMs, la vérifiabilité parfaite n’existe pas. Que ce soit pour générer du code, manipuler des données ou simplement répondre à une question, on ne peut jamais être sûr à 100 % du résultat. Et c’est normal. Ce qu’il faut, c’est intégrer cette incertitude dans le design des outils!
Leave a Reply
You must be logged in to post a comment.