Utilisation des LLM en local dans Spring Boot avec Ollama
Dans cet article, nous allons explorer comment utiliser des modèles de langage (LLM) localement sur nos ordinateurs avec Spring Boot et Ollama. Qu’est-ce que Ollama ? Ollama est un projet open source qui permet d’exécuter des LLM localement sur nos ordinateurs, sans nécessiter de grandes ressources. Téléchargement d’Ollama Pour télécharger Ollama, rendez-vous sur le site officiel….