Ce projet est une AI local conçu pour fournir une expérience de conversation interactive. Il utilise LM Studio comme environnement de développement et un modèle de langage de grande taille (LLM) pour générer des réponses aux requêtes de l'utilisateur.
Avant de lancer le projet, assurez-vous d'avoir les éléments suivants installés :
- LM Studio : Disponible sur site officiel de LM Studio
- Un modèle de langage (LLM) : Nous recommandons le téléchargement de Mistral instruct v0 1 7B Q4_K_M, disponible sur LM Studio.
- Local Inference Server : Assurez-vous que le serveur d'inférence local est en cours d'exécution pour permettre au chatbot de fonctionner correctement.
-
Clonez ce dépôt GitHub sur votre machine locale :
git clone [email protected]:goumix/local-llm.git
-
Téléchargez toutes les dépendances nécessaires en exécutant la commande suivante :
pip install streamlit pip install openai
Une fois que vous avez installé les prérequis et téléchargé les dépendances du projet, vous pouvez lancer le chatbot AI local en suivant ces étapes :
-
Lancez LM Studio sur votre machine.
-
Chargez le modèle de langage (LLM) téléchargé (Mistral instruct v0 1 7B Q4_K_M).
-
Assurez-vous que le serveur d'inférence local est en cours d'exécution.
-
Ouvrez un terminal dans le répertoire du projet cloné.
-
Exécutez la commande suivante pour démarrer l'interface du chatbot :
streamlit run interface.py
-
Une fois que l'interface est lancée, vous pouvez commencer à interagir avec le chatbot en saisissant vos requêtes dans la zone de texte prévue à cet effet.