REX sur OLLAMA et la Cybersécurité.
Phase 1 : Analyses initiales :
Ollama : Installation, Configuration et Entraînement LLM | StudyRaid (un cours complet en français)
Ollama : Installation, Configuration et Entraînement LLM
https://app.studyraid.com/fr/courses/18986/ollama-installation-configuration-et-entrainement-llm
Phase d'activation de NPU :
Comment installer un RAG pour Ollama 3.2 afin de permettre la lecture des documents qui sont dans ce RAG et quel code faut¡-il faire ?
Parametrage-OLLAMA-1-RAG :
Prompt de recherche Web et Prompt de suivi de recherche Web
Dans cette vidéo nous découvrons comment faire du Retrival Augmented Generation (RAG) avec Page Assist.
RESSOURCES ollama introduction


Sauvegarde du modèle entraîné - Ollama : Installation, Configuration et Entraînement LLM | StudyRaid
Comprendre les paramètres de génération pour un contrôle précis :
Modifier les paramètres de génération dans Ollama vous permet d’ajuster finement la manière dont le modèle produit ses réponses. Ces réglages influencent la créativité, la cohérence et la longueur des textes générés. Par exemple, en jouant sur la température, vous pouvez rendre les réponses plus audacieuses ou plus conservatrices. C’est un levier puissant pour personnaliser vos interactions selon vos besoins spécifiques.
Voici les principaux paramètres que vous pouvez modifier :
Température : contrôle la diversité des réponses. Une température basse (0.1-0.3) produit des résultats plus prévisibles, tandis qu’une température élevée (0.7-1.0) génère des réponses plus variées et créatives.
Top-p (nucleus sampling) : limite la sélection des mots aux plus probables cumulant une probabilité p. Cela permet de garder un bon équilibre entre cohérence et diversité.
Max tokens : définit la longueur maximale de la réponse générée, vous permettant de limiter ou d’étendre la taille du texte.
Frequency penalty : pénalise la répétition excessive de mots, ce qui améliore la fluidité et évite les redondances.
Presence penalty : encourage l’introduction de nouveaux concepts en pénalisant la répétition des mêmes idées.
Ces paramètres sont essentiels pour adapter la génération à votre contexte, que ce soit pour un texte formel, une conversation créative ou une réponse concise.
Exemple pratique : ajuster la température et la longueur de la réponse
Le code suivant montre comment modifier la température et la longueur maximale d’une réponse dans une session Ollama. Vous définissez ces paramètres dans la requête pour influencer directement la génération.
Ce code initialise une session de chat avec un modèle, puis envoie une commande en spécifiant la température à 0.5 (équilibre entre créativité et cohérence) et la limite de tokens à 150 pour une réponse concise.
python
# Ce script configure une session Ollama et envoie une requête avec des paramètres personnalisés.# La température est fixée à 0.5 pour un bon équilibre, et la réponse est limitée à 150 tokens.import ollama
session = ollama.ChatSession(model="nom_du_modele")response = session.send( "Expliquez les avantages de l'énergie solaire.", temperature=0.5, max_tokens=150)print(response)
Modifier ces paramètres vous donne un contrôle direct sur la tonalité et la longueur des réponses, ce qui est idéal pour adapter le modèle à différents usages.
Ajuster les pénalités pour améliorer la qualité des réponses Les pénalités de fréquence et de présence sont des outils puissants pour éviter que le modèle ne se répète ou ne reste bloqué sur les mêmes idées. En augmentant ces valeurs, vous encouragez le modèle à diversifier son vocabulaire et ses concepts.
Par exemple, si vous trouvez que les réponses sont trop redondantes, vous pouvez appliquer une fréquence penalty de 0.8 et une presence penalty de 0.6. Cela pousse le modèle à varier ses formulations et à introduire de nouvelles idées, rendant les échanges plus dynamiques et intéressants.
Voici comment intégrer ces pénalités dans une requête Ollama :
python
# Ce code montre comment appliquer des pénalités pour réduire les répétitions dans les réponses.# Frequency penalty à 0.8 et presence penalty à 0.6 pour plus de diversité.response = session.send( "Donnez-moi des conseils pour améliorer la productivité.", frequency_penalty=0.8, presence_penalty=0.6)print(response)
Ces réglages sont particulièrement utiles pour des tâches créatives ou des dialogues longs où la variété est essentielle.
Personnaliser la génération pour chaque contexte d’utilisation
Chaque projet ou interaction peut nécessiter des paramètres différents.
Par exemple :Pour un chatbot professionnel, privilégiez une température basse (0.2-0.4) et une max_tokens modérée pour des réponses claires et précises.
Pour un assistant créatif, augmentez la température (0.7-1.0) et la max_tokens pour favoriser l’originalité et la richesse des idées.
Pour des résumés ou synthèses, limitez la longueur avec max_tokens et utilisez une température basse pour la cohérence.
N’hésitez pas à expérimenter ces paramètres pour trouver la combinaison parfaite qui correspond à votre style et à vos objectifs. Ollama vous offre cette flexibilité incroyable pour rendre chaque interaction unique et adaptée à vos besoins.
Avec ces outils, vous êtes prêt à maîtriser la génération de texte comme un pro, en ajustant précisément chaque aspect pour obtenir des résultats toujours plus pertinents et engageants !
ollama --help
Large language model runner
Usage: ollama [flags] ollama [command]
Available Commands: serve Start ollama create Create a model show Show information for a model run Run a model stop Stop a running model pull Pull a model from a registry push Push a model to a registry list List models ps List running models cp Copy a model rm Remove a model help Help about any command
Flags: -h, --help help for ollama -v, --version Show version information
Use "ollama [command] --help" for more information about a command.
LLM local ultra simple avec Ollama + Mistral (moins de 10 min !)
À partir de l’adresse <https://www.youtube.com/watch?v=7x7GQPnUe0s>
Mets en place ton LLM local super facilement avec Ollama et Mistral, et profite de ta propre IA comme ChatGPT, même sans connexion internet ! Tutoriel accessible à tous. 👉 Décrochez votre job de rêve - formation exclusive (offre limitée !) :🚀 https://devart.podia.com/ 👉 Un like 👍, un partage 🔄 ou un commentaire 💬 m’aide énormément à faire grandir la chaîne.
À partir de l’adresse <https://www.youtube.com/watch?v=7x7GQPnUe0s>
🛡️ Objectif de LawZero
- Organisation à but non lucratif dédiée à la sécurité de l’IA, fondée par Yoshua Bengio.
- Vise à prioriser la sécurité sur les intérêts commerciaux dans le développement de l’IA.
- Répond aux risques croissants posés par les modèles d’IA avancés : tromperie, piratage, auto-préservation, désalignement des objectifs.
LoiZéro est une organisation à but non lucratif dédiée à faire progresser la recherche et à développer des solutions techniques permettant de concevoir des systèmes d'IA sécuritaires.
Présentation de LawZero - Yoshua Bengio.
Conséquences de l'intelligence artificielle générale sur la sécurité nationale et internationale - Yoshua Bengio.
Mon Carnet du 1er aout 2025 by Mon Carnet, le podcast :
Mon Carnet, le podcast de Bruno Guglielminetti
Le grand magazine francophone de l'actualité numériqueVendredi 1er août 2025
Débrief transatlantique avec Jérôme Colombain (3:32)
Entrevues :
Pour une IA plus sûre : Philippe Beaudoin de LoiZero (27:46)
Marché des agents IA d'AWS : Retour d'experience de Coveo (45:52)
IA souveraine : Bell s’allie à Cohere (1:00:36)
Jeu vidéo avec Carl-Edwin Michel :
Martin Brouard (Studio Imugi) présente Bonaparte (1:12:02)
Billets :
Weber : La déception de Proton (1:19:55)
Ricoul : Technologies portables (1:25:27)
Entrevue :
Poulin : Une nouvelle formation UX à l’ÉTS (1:34:27)
Musique : Bruno Guglielminetti
Collaborateurs :
Jérôme Colombain, Carl-Edwin Michel, Thierry Weber, Stéphane Ricoul, Jean-François Poulin
www.MonCarnet.com
Une production de Guglielminetti.com
Août 2025
Les agents superintelligents présentent des risques catastrophiques : l’IA scientifique peut-elle offrir une voie plus sûre ?
Ce texte est un extrait du papier de recherche publié sur arXiv par Yoshua Bengio et ses collègues, intitulé « Les agents superintelligents présentent des risques catastrophiques : l’IA scientifique peut-elle offrir une voie plus sûre ? ». Voici une synthèse des points clés :
🧠 Problème identifié : les risques des agents d’IA généralistes
- Les grandes entreprises d’IA développent des agents capables d’agir de manière autonome dans une large gamme de tâches humaines.
- Ces systèmes, bien que puissants, peuvent poser des risques graves :
- Tromperie intentionnelle
- Objectifs non spécifiés par les humains
- Auto-préservation conflictuelle avec les intérêts humains
- Perte de contrôle humain irréversible
🛡️ Proposition : une IA non agentique appelée Scientist AI
- Objectif principal : expliquer le monde à partir d’observations, sans chercher à agir ou imiter les humains.
- Architecture :
- Un modèle du monde générant des théories explicatives
- Une machine d’inférence question-réponse
- Caractéristique centrale : gestion explicite de l’incertitude pour éviter les prédictions trop confiantes.
🎯 Avantages et applications
- Accélération des progrès scientifiques en collaboration avec les chercheurs humains.
- Renforcement de la sécurité de l’IA en servant de garde-fou contre les agents autonomes.
- Maintien de l’innovation tout en réduisant les risques liés à l’autonomie des systèmes.
🧭 Vision stratégique
Les auteurs appellent à une réorientation des efforts de recherche et de développement vers des systèmes d’IA explicatifs, transparents et sûrs par conception. Ils espèrent que cette approche motivera les chercheurs, développeurs et décideurs à adopter une trajectoire plus prudente et responsable.
-----------------------------
Pierre Erol GIRAUDY.
https://www.erolgiraudy.eu/2024/10/mes-15-livres.html
Pour Info : Mon livre https://amzn.eu/d/eTuHn56 sur AMAZON
Users Group Artificial Intelligence Andorra (U.G.A.I.A.) : Liste des Certificats PDF Microsoft Learn