Plan du cours

Introduction à Ollama

  • Qu'est-ce qu'Ollama et comment fonctionne-t-il ?
  • Avantages de l'exécution des modèles IA localement
  • Aperçu des LLMs supportés (Llama, DeepSeek, Mistral, etc.)

Installation et configuration d'Ollama

  • Configuration matérielle requise et considérations sur le matériel
  • Installation d'Ollama sur différents systèmes d'exploitation
  • Configuration des dépendances et de l'environnement

Exécution de modèles IA localement

  • Téléchargement et chargement de modèles IA dans Ollama
  • Interaction avec les modèles via la ligne de commande
  • Ingénierie de base des prompts pour les tâches d'IA locales

Optimisation des performances et de l'utilisation des ressources

  • Gestion des ressources matérielles pour une exécution efficace de l'IA
  • Réduction de la latence et amélioration du temps de réponse du modèle
  • Benchmark des performances pour différents modèles

Cas d'usage pour le déploiement local de l'IA

  • Chatbots et assistants virtuels alimentés par l'IA
  • Tâches de traitement de données et d'automatisation
  • Applications de l'IA axées sur la confidentialité

Résumé et étapes suivantes

Pré requis

  • Compréhension de base des concepts d'IA et d'apprentissage automatique
  • Familiarité avec les interfaces en ligne de commande

Public cible

  • Développeurs exécutant des modèles IA sans dépendances cloud
  • Professionnels d'entreprise intéressés par la confidentialité et le déploiement rentable de l'IA
  • Enthusiastes de l'IA explorant le déploiement local des modèles
 7 Heures

Nombre de participants


Prix ​​par Participant

Cours à venir

Catégories Similaires