Users Group Artificial Intelligence Andorra (U.G.A.I.A.)
Groupe d'Utilisateurs Intelligences Artificielles Andorre - Veille technologique - GUILD4AI - Europe.
lundi 21 octobre 2024
L’application ChatGPT est DISPONIBLE sur Windows ! (Tuto complet)
samedi 19 octobre 2024
NVIDIA a créé une IA Nemotron 70b
NVIDIA a créé une IA qui SURPASSE ChatGPT ?! (Nemotron 70b)
Chapitres de la vidéo :
0:00 Introduction0:59 Présentation de Nemotron 70b2:33 Les performances de ce modèle4:10 Pourquoi ce modèle est si bon ?5:07 Les 3 avantages de cette méthode5:41 Comment tester Nemotron 70b ?6:27 Test et comparaison de ce modèle14:21 Conclusion
Sources de la vidéo :
llama-3_1-nemotron-70b-instruct | NVIDIA NIM :
[2410.01257] HelpSteer2-Preference: Complementing Ratings with Preferences
GitHub - NVIDIA/NeMo: A scalable generative AI framework built for researchers and developers working on Large Language Models, Multimodal, and Speech AI (Automatic Speech Recognition and Text-to-Speech) :
https://github.com/NVIDIA/NeMo
Quickstart with NeMo-Run — NVIDIA NeMo Framework User Guide latest documentation :
library nemotron :
Nemotron-Mini :
Llama-3.1-Nemotron-70B
Installation de Llama 3.2 sur un PC-AI sous Windows.
Installation de Nemotron 70b sur un PC-AI sous Windows, et son plan de gouvernance :
---
Pierre Erol GIRAUDY
jeudi 17 octobre 2024
L'Intelligence Artificielle en Afrique : Réalisations, Problèmes, Enjeux...
mercredi 16 octobre 2024
Sommet Inter-régional du Numérique en Afrique (SIN Africa 2024)
Sommet Inter-régional du Numérique en Afrique (SIN Africa 2024)
Nous sommes en plein lancement de la deuxième édition du 𝐒𝐢𝐧 𝐀𝐟𝐫𝐢𝐜𝐚.
Cliquez sur le lien de connexion pour participer : https://lnkd.in/eciMHbPZ
Rejoignez-nous dès maintenant pour suivre les interventions inspirantes en direct !
Sommet Inter-régional du Numérique en Afrique (SIN Africa 2024)
https://visio.clusterdigitalafrica.com/b/clu-1qk-2vf-ynq
Cluster Digital Africa : https://clusterdigitalafrica.com/
Permettre aux enseignants d’explorer le potentiel de l’intelligence artificielle | Le Cercle GUILD4AI
---
Pierre Erol GIRAUDY
lundi 14 octobre 2024
Gouvernance et Paramétrages d'OLLAMA
Paramétrages OLLAMA :
Un aperçu des paramètres et de l'administration
Ollama est une plateforme open-source qui vous permet d'exécuter des modèles de langage de grande taille (LLM) directement sur votre machine. Elle offre une grande flexibilité et une personnalisation poussée, mais nécessite une certaine compréhension technique pour être configurée de manière optimale.
Les paramètres clés d'Ollama
La console d'Administration d'OLLAMA / settings
General Settings
RAG Settings
Ollama Settings
Chrome AI Settings
Beta
Manage Models
Manage Knowledge
Manage Prompts
Manage Share
About
Page Assist Version1.2.4
Ollama Version0.3.13
CommunityDiscord Server
X (formerly Twitter)@page_assist
Paramètres d'inférence :
Nombre de threads : Détermine le nombre de cœurs de votre processeur utilisés pour les calculs.
Mémoire : La quantité de mémoire allouée au modèle.
Précision : Le niveau de précision souhaité pour les calculs.
Paramètres du serveur :
Port : Le port sur lequel le serveur Ollama écoute les requêtes.
Adresse IP : L'adresse IP à laquelle le serveur est lié.
Autres paramètres :
Interface utilisateur : Vous pouvez choisir entre une interface en ligne de commande ou une interface graphique.
Personnalisation :
De nombreux autres paramètres permettent de personnaliser le comportement du modèle, comme la température (qui contrôle la créativité du modèle), le top_p (qui limite le vocabulaire utilisé), etc.
Paramètres du modèle :
Choix du modèle : Vous pouvez sélectionner différents modèles (Llama, Mistral, etc.), chacun ayant ses propres forces et faiblesses.
Taille du modèle : La taille du modèle affecte la qualité des réponses et la quantité de ressources requises (mémoire, puissance de calcul).
Quantification : Cette technique permet de réduire la taille du modèle pour une inférence plus rapide sur des machines moins puissantes.
Inférence :
Nombre de threads: Détermine le nombre de cœurs de votre CPU à utiliser pour l'inférence.
Mémoire: La quantité de mémoire allouée au modèle.
Précision: Le niveau de précision souhaité pour les calculs.
Serveur:
Port: Le port sur lequel le serveur Ollama écoute les requêtes.
Adresse IP: L'adresse IP à laquelle le serveur est lié.
Interface utilisateur:
Type d'interface : Ollama peut être utilisé via une interface en ligne de commande ou une interface graphique.
Personnalisation : L'interface peut être personnalisée pour répondre à vos besoins spécifiques.
Administration et paramétrage
L'administration d'Ollama se fait principalement via la ligne de commande. Voici quelques commandes courantes :
Démarrer Ollama : ollama serve
Arrêter Ollama : ollama stop
Charger un modèle : ollama load llama3.2
Générer du texte : ollama run llama3.2 "Traduis ceci en espagnol : Hello, how are you?"
Paramétrage avancé:
Pour un paramétrage plus fin, vous pouvez modifier le fichier de configuration d'Ollama (généralement config.yaml). Ce fichier vous permet de personnaliser de nombreux aspects, tels que :
Chemin vers les modèles : Indiquez où sont stockés vos modèles.
Paramètres du serveur : Configurez le serveur HTTP.
Journalisation : Configurez les niveaux de journalisation.
Plugins: Ajoutez des plugins pour étendre les fonctionnalités d'Ollama.
Outils d'aide
Ici j'indexe et travaille sur des documents personnels (un livre)
L'indexation de documents avec Ollama consiste à transformer vos fichiers (PDF, texte, etc.) en une base de données que vous pouvez interroger à l'aide d'un langage naturel. Cela signifie que vous pouvez poser des questions à votre ordinateur comme vous le feriez à une personne et obtenir des réponses pertinentes basées sur le contenu de vos documents.
En conclusion
Ollama offre une solution simple et efficace pour indexer vos documents personnels et créer votre propre assistant virtuel. En suivant ces étapes et en explorant les fonctionnalités avancées de LlamaIndex, vous pourrez tirer pleinement parti de cette technologie.
En résumé :
Ollama est un outil flexible et puissant pour travailler avec des LLM. En ajustant les paramètres, vous pouvez personnaliser l'expérience pour l'adapter à vos besoins spécifiques.
Pour aller plus loin :
Si vous souhaitez approfondir vos connaissances sur Ollama, je vous recommande de consulter :
La documentation officielle d'Ollama : Elle contient des informations détaillées sur tous les paramètres et les fonctionnalités.
La communauté Ollama : Vous y trouverez de l'aide et des conseils auprès d'autres utilisateurs.
Des tutoriels en ligne : De nombreux tutoriels sont disponibles pour vous guider dans l'installation et la configuration d'Ollama.
Unlocking the Power of Ollama: Advanced Configuration Settings
https://www.arsturn.com/blog/advanced-configuration-settings-for-ollama
GitHub - ollama/ollama: Get up and running with Llama 3.2, Mistral, Gemma 2, and other large language models.
ollama/docs/modelfile.md at main · ollama/ollama · GitHub
L’application ChatGPT est DISPONIBLE sur Windows ! (Tuto complet)
ChatGPT (Early Version for Plus, Team, Enterprise, and Edu). L'application ChatGPT : https://openai.com/chatgpt/download/ OpenAI a annon...
-
Manage users, licenses, guests, and contacts in Microsoft 365. Manage users, licenses, guests, and contacts in Microsoft 365....
-
Voici un outil de reconnaissance de texte. Cependant, pour la généalogie, le logiciel Transkribus semble être le plus appropr...
-
Quelles sont les applications de l'IA avec le monde animal ? L'IA va-t-elle changer votre relation avec les animaux ...