Fine-tuning

20 MOTS DE L’IA FORMATIVE, LE PETIT TEMNA EXPLIQUE

Le fine-tuning est littéralement un ajustement fin, un ajustement des grands modèles d’intelligence artificielle aux besoins spécificités de l’entreprise.

De quoi s’agit-il ?

Si la RAG permet l’ajustement de la donnée, le fine-tuning s’intéresse à l’ajustement du traitement de la donnée.

Comment faire ?

3 étapes.

La première consiste à sélectionner ses documents internes pour entraîner spécifiquement la machine avec par exemple les manuels de formation existants et de la veille métier.

Les données doivent être nettoyées pour éviter les biais dommageables ou des documents obsolètes.

La question qui se pose est de savoir ce qui est spécifique ou ce qui est général : savoir ce qui doit rester dans l’entreprise parce que cela produit un avantage concurrentiel et ce qui peut être mis au général.

Il s’agit d’éviter le syndrome Samsung qui début 2023 où le Conseil d’administration de l’entreprise pour tester Chat GPT l’avait interrogé sur leur propre stratégie, à l’époque, il n’existait pas de compte entreprise, l’ensemble de ses données se sont trouver visible pour la concurrence.

La deuxième étape est le choix du modèle d’entraînement.

Il existe plusieurs milliers de modèles d’entraînement : Chat GPT, Claude, Geminai, Llama, Mistral, Kyutai… et le nombre ne cesse de croître avec la création de startups, les laboratoires ou les universités.

Le choix est important, car il est aujourd’hui encore difficile de passer d’un modèle à l’autre faute de standardisation des architectures ou du traitement des données et les modèles ont des performances évolutives, faute d’avoir choisi le bon, il est encore nécessaire de fine-tuner un nouveau modèle.

La troisième étape est l’évaluation de la performance du modèle fine-tuné pour atteindre le taux d’erreur acceptable.

A ce stade, il y a un risque de surinterprétation qu’il faut surveiller : à trop insister sur les spécificités métiers, on risque de perdre les avantages du système global.

Le taux d’hallucination calculé par Vectara (https://github.com/vectara/hallucination-leaderboard) montre au 24 septembre 2024 que le taux d’hallucination de GPT 4o est de 1,5 %, soit un taux de précision de 98,5 %. Mais 1,5 % parfois ce n’est pas acceptable.

Et l’optimisation de la performance du modèle fine-tuné nécessite une évaluation régulière pour tenir compte de la variation des paramètres de la machine et d’un ajustement éventuel pour maintenir le bon taux de performance.

Faut-il encore fine-tuner ?

Si le fine-tuning permet une autonomie dans le traitement de la data, les risques ne sont pas neutres.

Outre le risque de performance comme le risque de surajustement, en insistant trop sur les spécificités métier, on risque de perdre la polyvalence du modèle, les biais et même des risques de sécurité, le hacking est plus facile sur des modèles finetunés n’ayant pas les mêmes moyens de sécurisation.

D’autant que les LLM proposent de plus en plus de comptes entreprise qui permettent de garder ses données et de personnaliser les réponses et qu’en matière d’opérationnalité, il existe les « GPTs », appelés aussi « Custom GPTs » des outils qui permettent de personnaliser avec des propositions ergonomiques sécures.

La course aux fonctionnalités dans ce moment schumpétérien nécessite de trouver le bon arbitrage pour garder une agilité stratégique dans la politique numérique de l’entreprise.

Fait à Paris, le 28 novembre 2024

@StephaneDIEB pour vos commentaires sur X