Mise à jour du module Assistants IA : Mistral, DeepSeek et modèles de raisonnement et de recherche approfondie d'OpenAI

Après presque deux mois de préparation, je vous présente la nouvelle mise à jour du module « Assistants IA » pour Dolibarr. Cette version intègre d’importantes nouveautés qui élargissent considérablement ses capacités.

Nouveaux modèles intégrés

DeepSeek

Le modèle chinois disruptif DeepSeek a été toute une révélation :

  • Extrêmement rapide
  • Véritablement multilingue (même en catalan)
  • Son modèle de raisonnement R1 montre de façon transparente la « chaîne de pensée » (CoT)

image

Mistral

J’ai également intégré l’API de Mistral, le prometteur LLM européen qui offre :

  • Grande vitesse de réponse
  • Prix très compétitifs
  • Excellente performance dans les langues européennes
  • Capacités de vision (analyse d’images) à des prix économiques

Mises à jour des fournisseurs existants

  • OpenAI : Intégration des modèles de raisonnement économiques o1-mini et o3-mini
  • Perplexity : Mise à jour vers la famille Sonar et Sonar-pro avec des variantes « Reasoning » et « DeepResearch »

Améliorations de l’interface

J’ai repensé le sélecteur de modèles, les regroupant en deux catégories :

  • Conversation
  • Génération d’images

Les modèles conversationnels incluent maintenant des icônes indiquant leurs capacités spéciales :

  • :eye: Vision
  • :mag_right: Recherche web
  • :brain: Raisonnement

N’oubliez pas que vous pouvez changer de modèle à tout moment pendant une conversation pour optimiser les coûts.

Complexité dans la tarification des API

La tarification devient plus complexe en raison des diverses capacités :

Modèles avec vision

Ils facturent par cadres de NxN pixels dans les images analysées, et les prix varient même selon le modèle du même fournisseur.

Modèles de raisonnement

En plus des tokens d’ENTRÉE (prompt de l’utilisateur) et des tokens de réponse du modèle (SORTIE), ils facturent également les tokens générés pendant la chaîne de pensée.

Modèles de recherche web

Ils facturent pour :

  1. Tokens du prompt (ENTRÉE)
  2. Prix par millier de recherches
  3. Tokens des résultats de recherche (comme ENTRÉE)
  4. Tokens de la réponse finale (SORTIE)

Bien que les prix restent abordables, je recommande de surveiller la consommation, en particulier avec les fonctions de recherche et de raisonnement.

Prochain développement : connexion avec des modèles auto-hébergés

Plusieurs utilisateurs ont manifesté leur intérêt pour se connecter à des solutions comme Ollama ou LLM Studio pour exécuter leurs propres modèles. Je prévois de travailler sur un « connecteur générique » compatible avec la norme OpenAI au cours du mois prochain.

Seriez-vous intéressés par cette fonctionnalité ? Vos commentaires m’aideront à prioriser ce développement.

J’apprécie toute suggestion ou retour sur cette mise à jour

2 « J'aime »

Merci pour votre travail. L’IA devient centrale mais nous restons sur la réserve dû aux risques de fuites de données confidentielles (surtout R&D). Sera-t-il possible d’héberger un LLM léger en local de façon sécurisée pour le laisser exploiter les données Dolibarr ?

Salut, bien sûr que oui… en fait ça fait plus d’un an que c’est « très simple » d’installer ton propre LLM grâce au projet open source ollama par exemple avec docker. Ça te permet de faire tourner « ta propre API LLM », compatible avec l’API d’OpenAI, dans le sens où tu peux utiliser ce endpoint comme celui d’OpenAI, par exemple.

Par contre, les modèles que tu pourras faire tourner sur un VPS seront TRÈS LIMITÉS en capacités de réponse et compétences ! Rien à voir avec les modèles hébergés sur les serveurs de DeepSeek, OpenAI, Anthropic ou Mixtral.

Mais pour certains usages basiques, ça peut suffire. Par exemple pour faire un résumé de document ou comprendre des requêtes utilisateur et les convertir en appels API… ce genre de choses, ça peut le faire. Mais disons que leurs connaissances sont assez limitées.

En clair, ça pourrait t’aider à comprendre les questions des utilisateurs et à produire des textes de qualité basés sur d’autres sources (documents internes, données de ta base, résultats de recherche etc.). Mais ces modèles auront eux-mêmes des connaissances très limitées, y compris leur capacité « multilingue ».

Perso, avec ollama j’ai testé sur mon PC plusieurs modèles réduits à 4B de paramètres max (rien à voir avec les centaines/milliers de B des LLM payants), et ils écrivent très mal hors de l’anglais. Peut-être qu’un modèle réduit de Mistral pourrait bien comprendre/écrire en français, bien sûr.

Je te mets un guide à peu près officiel pour démarrer avec ollama via docker :

Pour mon module « Assistants AI », j’ai prévu d’ajouter la possibilité de configurer un endpoint personnalisé (autre que ceux déjà intégrés : OpenAI, Perplexity, DeepSeek, Anthropic, Mistral) - que ce soit sur ton serveur ou chez un autre hébergeur.

Quand ce sera fait, il suffira d’ajouter l’URL du endpoint et la clé d’authentification. Et hop, tu pourras l’utiliser pour « discuter » dans le système :slight_smile:

Désolé pour la longueur, mais j’en ai profité pour donner des infos basiques qui pourraient aider d’autres utilisateurs moins calés sur le sujet.

Salutations !


Note: translated from spanish using AI.

Ah, au fait ! :eyes: La grosse nouvelle de la semaine dernière (et plutôt surprenante !) : Docker s’apprête à intégrer une nouvelle commande model dans son logiciel. Ça nous permettra de créer directement un conteneur avec un endpoint LLM fonctionnel en UN SEUL COMMANDO (!!!), sans outils externes comme ollama.

Imagine : avec un truc aussi simple que :

docker model run ai/smollm2  

…et hop, tu aurais instantanément un serveur LLM avec API compatible OpenAI ! :rocket:
C’est pas génial ? :blush:


Petite précision : :test_tube: Actuellement en phase BETA, mais tu peux déjà tester le fonctionnement et voir les détails techniques dans la doc officielle de Docker ici :

:backhand_index_pointing_right: https://docs.docker.com/model-runner/