La startup Liquid.ia a annoncé il y a quelques jours la sortie d’un nouveau modèle LLM (LFM pour Liquid Foundation Model), proposé en 3 typologies basées entre autres sur le nombre de paramètres gérés : de 1,3 Milliards pour le plus petit à plus de 40 milliards pour le plus gros, il promet une gestion plus efficace du « Context Lenght » avec une capacité de 32K et des performances égalant ou surpassant les meilleurs modèles actuels.
Très bien me direz vous mais finalement est-ce une bonne nouvelle ?
Au sein de notre société SEDONA nous sommes amenés à proposer des solutions IA pour nos clients en travaillant au préalable avec eux sur un ensemble de points clés : la cible de l’application, le type d’échanges avec l’agent conversationnel, les données à exploiter et à traiter etc..
A partir de ces points entre autres nous bâtissons une application reposant la plupart du temps sur un modèle LLM qu’il soit installé en local, ou hébergé chez un fournisseur comme Hugging Face par exemple.
La sélection d’un modèle LLM pour une typologie d’application est une opération complexe, très longue et coûteuse car de nombreux paramètres doivent être pris en considération. Notamment le Context Length qui permet d’obtenir un prompt plus important et une mémoire persistante avec l’agent, le corpus sur lequel le modèle a été entrainé (spécialiste ou généraliste avec la langue prédominante), son adéquation avec les « orchestrateurs » techniques comme Llamaindex ou Langchain et bien sur, ses performances/consommation de ressources etc..
L’apparition d’un nouveau modèle nécessite donc une étude approfondie pour s’assurer qu’il peut s’intégrer dans le contexte de notre client et nous contraint donc à le tester dans des conditions opérationnelles. En effet un modèle peut convenir pour un usage « TextToSql » (transformer une interrogation en langage naturel en requête SQL) mais peut être inefficace pour traiter des documents (résumé, synthèse). De la même manière un modèle spécialisé répondra beaucoup mieux sur un sujet précis plutôt qu’un modèle plus « généraliste » pour certaines circonstances.
Les principaux éditeurs (OpenAI, Mistral, etc…) sortent fréquemment de nouvelles versions. Cela nous impose de réévaluer continuellement nos Benchmarks déjà difficilement acquis (au vue de la multiplicité des LLMs) et donc de relancer nos tests sur nos environnements avec un coût qui devient très rapidement exorbitant. Nous sommes contraint par la force des choses de présélectionner les modèles et d’en délaisser d’autres par manque de temps et de budget.
Alors bien entendu, l’arrivée d’un nouvel LLM est toujours synonyme d’une promesse de compétences « enrichies », de performances accrues mais cela implique d’être constamment en veille et tests pour en tirer la quintessence.
Est-ce que cette course effrénée ne va t-il pas laisser de côté certains LLMs et complexifier d’autant les futurs projets à venir ? Affaire à suivre….
Rémy Poulachon
Responsable avant-vente & Innovation