Affichage des articles dont le libellé est REX. Afficher tous les articles
Affichage des articles dont le libellé est REX. Afficher tous les articles

jeudi 9 avril 2026

Claude Managed Agents

  Claude Managed Agents :


<< arrêtez de vous battre avec les infrastructures, on va gérer vos agents >>.

Si vous avez déjà essayé de mettre un agent en production, vous savez vraiment ce qui vient après les << démos fonctionnent ». Cf : Copilot 365 et Claude Code.

 Il faut un bac à sable pour exécuter du code, une gestion des identifiants, des points de contrôle pour que la session survive à une déconnexion, des autorisations avec champ d'application, un traçage de bout en bout, et un système d'orchestration qui décide quand appeler quel outil. Il faut des mois de travail d'infrastructure avant que l'utilisateur ne voie quoi que ce soit. Le bac à sable n'est qu'une étape  ensuite il faut impérativement la pré production avant la mise en production. 

Managed Agents simplifie tout cela en partie. 

Vous définissez l'agent en langage naturel ou avec un YAML, vous mettez les garde-fous, et il fonctionne sur la plateforme Anthropic. Travail en sandbox, authentification, exécution d'outils, mémoire persistante et analyses dans la console. Les sessions subissent des déconnexions, ce qui fait casser les agents longs dès que vous les retirez de la démo.

Ce qui a le plus attiré le plus mon attention, c'est le prix. Vous payez les jetons au prix régulier de l'API plus 0,08 $ par heure d'exécution active, mesurés en millisecondes.

Le ralenti ne compte pas, donc un agent en attente pour une entrée ou pour une réponse d'outil...

Recherche web séparée : 10 $ pour 1 000 recherches. C'est l'un des prix les plus honnêtes que j'aie vus dans ce domaine.

Notion, Rakuten, Asana et Sentry sont déjà dedans, voir les exemples plus avant dans cet article.

 Rakuten précise qu'elle met en place les agents pour le produit, les ventes, le marketing et les ressources humaines en une semaine à chaque déploiement. 

Sentry a connecté son débogueur Seer à un agent Claude qui ouvre les PR directement avec la correction. 

Avant, c'était des mois, maintenant des semaines. Bientôt...

Ce qui est intéressant en arrière-plan, c'est le mouvement. Il y a deux semaines, Anthropic a fermé OpenClaw et d'autres outils tiers pour ne pas accéder aux abonnements Pro et Max parce que l'économie ne collait pas.

 Et maintenant, ils ouvrent leur propre couche d'orchestration gérée. 

Ce n'est pas un hasard. Anthropic passe de << nous vendons des modèles » à « nous vendons toute l'infrastructure pour faire tourner des agents en production ».

 C'est le même choix qu'AWS a fait avec Lambda à l'époque.

Si vous construisez des agents sérieux, cela vaut le coup d'y jeter un oeil avant de créer votre propre orchestrateur à partir de zéro.

Et si vous l'avez déjà en place, regardez au moins les prix, car le coût réel de la maintenance de votre propre infrastructure d'agents est presque mal calculé.

Les serviceet solutions évoluent très vite il faut suivre ou mieux anticiper ces mouvements.

Informations Claude du 9 avril

 -‐----‐-----

Claude Managed Agents — Lancé hier (8 avril 2026), en beta publique

C'est une nouveauté très fraîche. Voici l'essentiel :

---

Qu'est-ce que c'est ?

Claude Managed [Claude API Docs](https://platform.claude.com/docs/en/managed-agents/overview) Agents est un **harness agent préconstruit et configurable** qui s'exécute sur l'infrastructure gérée d'Anthropic. Il est conçu pour les tâches longues et le travail asynchrone. Au lieu de construire soi-même la boucle agent, l'exécution des outils et le runtime, on bénéficie d'un environnement entièrement managé où Claude peut lire des fichiers, exécuter des commandes, naviguer sur le web et exécuter du code de façon sécurisée.

---

Le problème qu'il résout

Déployer un agent en production requiert : exécution de code sandboxée, checkpointing, gestion des credentials, permissions scopées, et traçage de bout en bout. C'est **plusieurs mois de travail d'infrastructure** avant de livrer quoi que ce soit aux utilisateurs. [The New Stack](https://thenewstack.io/with-claude-managed-agents-anthropic-wants-to-run-your-ai-agents-for-you/) Managed Agents prétend réduire ce délai par **10x**.

---

Architecture technique

Le modèle de configuration se décompose en trois niveaux :

1. **Agent** — Définir le modèle, le system prompt, les outils, les serveurs MCP et les Skills. Créer l'agent une fois, le référencer par ID entre les sessions. [Claude API Docs](https://platform.claude.com/docs/en/managed-agents/overview)

2. **Environnement** — Configurer un conteneur cloud avec des packages préinstallés (Python, Node.js, Go…), des règles d'accès réseau et des fichiers montés. [Claude API Docs](https://platform.claude.com/docs/en/managed-agents/overview)

3. **Session** — Lancer une session qui référence la configuration agent et environnement. Il est possible d'envoyer des événements utilisateurs pour guider l'agent en cours d'exécution, ou l'interrompre pour changer de direction. [Claude API Docs](https://platform.claude.com/docs/en/managed-agents/overview)

---

Gouvernance & sécurité (point clé pour GRCA100/UGAIA)

La plateforme gère : sandboxing sécurisé, authentification, checkpointing, permissions scopées et sessions persistantes longues durée. Les développeurs définissent les tâches, outils et garde-fous ; l'infrastructure d'Anthropic gère l'orchestration des outils, la gestion du contexte et la récupération sur erreur. [YouTube](https://www.testingcatalog.com/anthropic-launches-claude-managed-agents-for-businesses/)

---

Tarification

Les utilisateurs paient les tokens au tarif API standard d'Anthropic, plus **0,08 $ par session-heure** de runtime actif (mesuré en millisecondes, le temps d'attente ne compte pas). La recherche web est facturée **10 $ pour 1 000 recherches**. [The New Stack](https://thenewstack.io/with-claude-managed-agents-anthropic-wants-to-run-your-ai-agents-for-you/)

---

Adopteurs initiaux

Notion, Rakuten et Asana sont parmi les premiers adopteurs. Rakuten a déployé des agents enterprise sur les métiers produit, vente, marketing, finance et RH en **une semaine par déploiement**. [Blockchain News](https://blockchain.news/news/anthropic-claude-managed-agents-enterprise-ai-deployment)

---

 Lecture GRCA100 / Souveraineté

⚠️ Point de vigilance direct pour toi : cette infrastructure est **100 % cloud Anthropic (US)**. Elle est aux antipodes du modèle UGAIA (Apple Silicon M4 Max, Ollama local, PANAME AMI, RGPD). Elle est pertinente à mentionner dans le **delta GRCA100** comme référence de marché — mais ne peut pas être positionnée comme solution souveraine francophone.

À partir des résultats déjà collectés, voici les cas d'usage concrets documentés :

---

Cas réels des early adopters

**Notion** — [Blockchain News](https://blockchain.news/news/anthropic-claude-managed-agents-enterprise-ai-deployment) Claude déployé directement dans les workspaces via Custom Agents (alpha privée), permettant aux ingénieurs de livrer du code pendant que les knowledge workers génèrent des présentations et des sites web. Le système gère des dizaines de tâches parallèles pendant que les équipes collaborent sur les outputs.

**Rakuten** — Agents enterprise déployés sur les métiers produit, vente, marketing, finance et RH. Ils s'intègrent dans Slack et Teams, acceptent des assignments de tâches et retournent des livrables comme des tableurs et des decks. [Blockchain News](https://blockchain.news/news/anthropic-claude-managed-agents-enterprise-ai-deployment)

**Asana** — Agents appelés "AI Teammates" qui travaillent aux côtés des humains dans les workflows de gestion de projet, prenant des tâches en charge et rédigeant des livrables. [Blockchain News](https://blockchain.news/news/anthropic-claude-managed-agents-enterprise-ai-deployment)

**Sentry** — Un bug signalé déclenche automatiquement un agent qui écrit le patch et ouvre une pull request. Cette intégration a été livrée en semaines plutôt qu'en mois. [Blockchain News](https://blockchain.news/news/anthropic-claude-managed-agents-enterprise-ai-deployment)

---

Cas d'usage génériques documentés

Managed Agents est recommandé pour les workloads nécessitant : exécution longue durée (minutes ou heures avec de multiples appels d'outils), infrastructure cloud avec conteneurs sécurisés et packages préinstallés, sessions stateful avec système de fichiers persistant et historique de conversation. [Claude API Docs](https://platform.claude.com/docs/en/managed-agents/overview)

La gestion d'état couvre aussi les données sensibles comme les credentials de connexion aux outils cloud. Un mécanisme de récupération sur erreur permet aux agents de reprendre là où ils s'étaient arrêtés après une interruption. [SiliconANGLE](https://siliconangle.com/2026/04/08/anthropic-launches-claude-managed-agents-speed-ai-agent-development/)

---

### Fonctionnalité en research preview

La première fonctionnalité en preview permet à un agent de **spawner d'autres agents** lorsqu'il travaille sur des tâches complexes [SiliconANGLE](https://siliconangle.com/2026/04/08/anthropic-launches-claude-managed-agents-speed-ai-agent-development/) — c'est le pattern multi-agent, directement pertinent pour les pipelines d'orchestration avancés.

---

Lecture GRCA100

Ces cas illustrent exactement le **périmètre M07→M12** de ta matrice (automatisation métier, orchestration, gouvernance des agents). Ils peuvent servir de benchmarks de marché dans le plan GRCA100 pour justifier la demande enterprise — tout en positionnant UGAIA GRCA100 Guild4AI comme l'alternative souveraine pour les organisations soumises au RGPD et au NIS2.



Erol GIRAUDY 

Www.ugaia.eu 




samedi 9 mars 2024

Quelques rappels de fondamentaux plus les métiers de l'IA.

 Quelques rappels de fondamentaux de l'IA.

Sommaire :

  • TAL - Traitement du Langage Naturel 
  • IA Générative"  vs  "IA Prédictive". 
  • Les métiers de l'IA.
  • Formations.   
  • Teams - Office 365 - Windows 11 - Bing - Loop - OneNote - OneDrive...
  • Insider W11 - Bing - O365. 
  • KIT GOV-1 · @peg500and's KIT-Gov-Book 
  • Glossaire - Intelligence artificielle. 

  • Formations.
  • Affiche 

  • Un peu plus sur l'IA

 

TAL : Comment fonctionne le Traitement du Langage Naturel ?

Le **traitement automatique du langage naturel (TAL)** est un domaine de l'intelligence artificielle qui vise à permettre aux ordinateurs de comprendre, d'interpréter et de manipuler le langage humain. Pour combler le fossé entre la communication humaine et la compréhension informatique, le TAL s'appuie sur des disciplines variées, notamment l'informatique et la linguistique computationnelle.

En pratique, le TAL est utilisé pour fournir des réponses résumées et communiquer des informations pertinentes aux personnes, quel que soit leur emplacement géographique ou la langue qu'elles préfèrent. Il tient compte des expressions familières et d'autres facteurs importants lorsqu'une personne interagit avec une IA intégrée à un système de gestion des services informatiques (ITSM). Contrairement à une IA dépourvue de TAL et d'apprentissage automatique (ML), qui se contenterait de restituer des données programmées en fonction de termes spécifiques saisis, le TAL permet une compréhension plus contextuelle et nuancée du langage humain ¹²³.


Le TAL fonctionne en traitant des données linguistiques du monde réel pour leur donner un sens de manière à ce qu'un ordinateur puisse les comprendre. Voici comment cela se passe :

1. **Analyse syntaxique** : Cette étape consiste à analyser le langage en fonction des règles grammaticales. Elle s'applique à un groupe de mots plutôt qu'aux mots individuels. L'analyse syntaxique permet de comprendre la structure des phrases.

2. **Analyse sémantique** : Elle vise à comprendre le sens et la logique d'un énoncé. L'analyse sémantique interprète les mots, les signes et la structure des phrases pour donner un sens global.

3. **Collecte de données** : Les machines utilisent des capteurs (comme nos yeux et nos oreilles) pour lire et entendre les données linguistiques du monde réel.

En somme, le TAL permet aux ordinateurs de naviguer dans la complexité du langage humain, de saisir les nuances et de fournir des réponses pertinentes. C'est un domaine passionnant qui continue d'évoluer pour améliorer notre interaction avec la technologie.

Source : conversation avec Bing, 09/03/2024

(1) NLP : guide complet du traitement du langage naturel. https://intelligence-artificielle.com/nlp-guide-complet/.

(2) TAL : Comment fonctionne le Traitement du Langage Naturel. https://blogs.manageengine.com/fr/2022/03/30/comment-fonctionne-le-traitement-du-langage-naturel-tal.html.

(3) Pourquoi utiliser le traitement du langage naturel - ASI. https://www.asi.fr/blog/pourquoi-utiliser-traitement-langage-naturel.

(4) Comprendre le Traitement du Langage Naturel : Une révolution dans la .... https://www.lepont-learning.com/fr/comprendre-traitement-langage-naturel/.

(5) Traitement Automatique du Langage Naturel en français (TAL / NLP). https://www.stat4decision.com/fr/traitement-langage-naturel-francais-tal-nlp/.


Le **traitement automatique du langage naturel (TAL)** offre de nombreux avantages, notamment :

1. **Automatisation des tâches linguistiques** : Le TAL permet d'automatiser des tâches telles que la traduction, la rédaction automatique, la correction grammaticale et la classification de documents. Cela libère du temps pour les humains et améliore l'efficacité.

2. **Amélioration de l'expérience utilisateur** : Les systèmes TAL peuvent fournir des réponses rapides et précises aux utilisateurs, améliorant ainsi leur expérience lorsqu'ils interagissent avec des chatbots, des assistants virtuels ou des moteurs de recherche.

3. **Personnalisation** : Le TAL peut adapter les réponses en fonction du contexte, de l'utilisateur et de ses préférences linguistiques. Cela permet une communication plus naturelle et pertinente.

4. **Traitement de grandes quantités de données textuelles** : Le TAL peut analyser et extraire des informations à partir de vastes ensembles de données textuelles, ce qui est essentiel pour les applications telles que l'analyse de sentiments, la veille médiatique et la recherche d'informations.

5. **Applications dans divers domaines** : Le TAL est utilisé dans la santé (pour l'extraction d'informations médicales), le droit (pour l'analyse de contrats), la finance (pour l'analyse de données financières) et bien d'autres secteurs.

En somme, le TAL améliore notre interaction avec la technologie, rendant les systèmes plus intelligents et plus utiles dans notre vie quotidienne.

https://www.demotal.fr/le-traitement-automatique-des-langues/


IA Générative"  vs  "IA Prédictive".

La différence principale entre l'IA Générative et l'IA Prédictive réside dans leur approche pour traiter les données et générer des réponses ou des prédictions.

Les IA Génératives (ex. ChatGPT, Gemini, Mistral ...) se concentrent sur la création de contenu nouveau à partir de données existantes. Elles créent des modèles qui peuvent générer de nouvelles informations à partir d'un ensemble de données d'entrée. 

Les modèles d'intelligence artificielle générative utilisent un processus en deux étapes pour créer des données réalistes à partir d'un espace vectoriel :

1. **L'Encodeur**:

    - L'encodeur est un réseau de neurones qui prend en entrée les données brutes et les encode dans un espace vectoriel de plus faible dimension.

    - Il apprend à extraire les caractéristiques importantes des données d'entrée et à les représenter sous forme de vecteurs.

    - Cet espace vectoriel capturera les structures et les relations entre les données.

2. **Le Décodeur**:

    - Le décodeur est également un réseau de neurones.

    - Il prend en entrée les vecteurs de l'espace vectoriel et les décode en données de sortie (par exemple, du texte).

    - L'objectif est de minimiser la différence entre les données d'entrée et les données de sortie.

3. **Fine-Tuning**:

    - Le modèle généré est ensuite ajusté à l'aide du "fine-tuning".

    - Cela implique des modifications de l'espace vectoriel et des hyperparamètres pour améliorer la performance du modèle.

En résumé, les IA génératives cherchent à reproduire et à reconnaître les caractéristiques du texte d'origine tout en étant capables de produire des textes similaires sans nécessiter une compréhension explicite des règles grammaticales et des concepts. C'est un domaine passionnant qui ouvre de nombreuses possibilités créatives.


L'IA Prédictive fonctionne différemment. Elle vise à prévoir des événements futurs en analysant des données historiques et actuelles. 

1. **Systèmes prédictifs** :

    - Ils utilisent des algorithmes statistiques et des modèles de Machine Learning (ML) et de Deep Learning (DL).

    - L'objectif est d'identifier des motifs ou des signaux précurseurs dans les données.

    - Ces signaux permettent de faire des inférences et des prédictions sur des événements futurs.

2. **Algorithmes utilisés** :

    - Les systèmes ML s'appuient sur des algorithmes statistiques tels que la régression linéaire, la régression logistique, les arbres de décision, les forêts aléatoires, les machines à vecteurs de support, les classificateurs Naive Bayes, etc.

    - Les réseaux de neurones (Deep Learning) sont également largement utilisés pour des tâches de prédiction.

3. **Apprentissage supervisé et non supervisé** :

    - Ces méthodes sont couramment utilisées pour entraîner les modèles prédictifs.

    - L'apprentissage supervisé utilise des données étiquetées pour prédire des valeurs futures.

    - L'apprentissage non supervisé explore les structures cachées dans les données sans étiquettes.

En résumé, ces systèmes prédictifs sont essentiels pour anticiper des événements futurs et prendre des décisions éclairées.

En conclusion, l'IA générative crée de nouvelles informations en exploitant les structures et les relations présentes dans les données d'entrée, tandis que l'IA Prédictive prédit les données futures en analysant les tendances et les patterns dans les données d'apprentissage.

Les métiers de l'IA (plan du document ci-dessous).

  1. IA Générative"  vs  "IA Prédictive".
  2. Quelles sont les métiers de l'IA ?
  3. Pour un pro de l'IA sur ces métiers
  4. Les activités des ingénieurs prompts avec l'IA.
  5. Quelle est l'impact sur les métiers de l'IA générative
  6. L’intelligence artificielle (IA) a un impact significatif sur le monde du travail. Voici quelques points clés :
  7. L’intelligence artificielle (IA) a un impact significatif sur le monde du travail,
  8. Voici également une liste de métiers qui pourraient être impactés par l’IA dans un avenir proche :
  9. Quels sont les autres métiers impactés par l'IA générative?
  10. Quelles sont les compétences clés pour travailler avec l'IA générative?
  11. Quelles sont les compétences pour travailler dans les métiers de IA Prédictive
  12. Comment puis-je apprendre l'IA prédictive?
  13. Profil de poste d'un ingénieur IA
  14. Quelles sont les perspectives d'emploi pour un ingénieur IA?

https://www.slideshare.net/slideshows/les-metiers-de-lintelligence-artificielle/266704778

16 métiers dans l'IA (lire le document ci-dessous).

Le document traitant des 14 points :

Formations :

Bienvenue dans « L'essentiel d'OpenAI et des modèles de langage GPT » (linkedin.com) :

https://www.linkedin.com/learning/l-essentiel-d-openai-et-des-modeles-de-langage-gpt/bienvenue-dans-l-essentiel-d-openai-et-des-modeles-de-langage-gpt

Learn :

https://learn.microsoft.com/fr-fr/training/

https://www.slideshare.net/slideshows/mes-succs-sur-microsoft-learn-et-examens/266705014


Mes certificats Microsoft sur l'IA et O365. Vous pouvez les passer sur Learn.



Teams - Office 365 - Windows 11 - Bing - Loop - OneNote - OneDrive...



Depuis 2014 Insider.


Centre d'administration de Microsoft 365 admin center.

Insider : Windows 11 - Bing - O365 :

Announcing Windows 11 Insider Preview Build 22635.3286 (Beta Channel)


Microsoft 365 Copilot dans Outlook, Word, Excel, PPT, Teams, Loop... (ugaia.eu)



Un Smartphone et Copilot sur W11. (ugaia.eu)



Users Group Artificial Intelligence d'Andorra (U.G.A.I.A.) : 

Copilot un coup de pouce avec ChaGPT-4 et la possibilité d'expliquer 

les captures d'écrans



Livre Copilot :


PPT Copilot REX.





Glossaire - Intelligence artificielle.




Formations et Informations :




Cette année, le concours d'affiches du conseil de jeunesse, destinée aux garçons et filles de 14 à 15 ans en Andorre, beaucoup ont été réalisé en classe, celui qui a gagné, c'est une image générée par l'IA. Les jeunes sont entré dans ce nouveau monde...


L'intelligence artificielle (IA) est un domaine dynamique englobant diverses techniques pour permettre aux machines d'apprendre, de raisonner et de réaliser des tâches humaines. Voici quelques points essentiels :


1. **Apprentissage automatique (Machine Learning)** : Les systèmes s'améliorent avec l'expérience en apprenant à partir de données via des algorithmes qui ajustent leurs performances.

2. **Réseaux de neurones artificiels (Deep Learning)** : Inspirés du cerveau humain, ces réseaux résolvent des problèmes complexes, notamment en vision par ordinateur et traitement du langage naturel.

3. **Traitement du langage naturel (NLP)** : Permet aux machines de comprendre et de générer du langage humain, utilisé dans des applications comme la traduction automatique et les chatbots.

4. **Robotique et automatisation** : L'IA automatise des tâches répétitives et dangereuses, permettant aux robots intelligents d'effectuer des opérations complexes.

5. **Éthique et responsabilité** : L'IA soulève des questions éthiques telles que la confidentialité des données et la discrimination, soulignant l'importance de la responsabilité des concepteurs et utilisateurs.

En somme, l'IA continue de façonner notre monde et comprendre ses bases est crucial pour en exploiter tout le potentiel.


Il existe trois principaux types d'intelligence artificielle :

  • L'intelligence artificielle étroite (ANI), également connue sous le nom d'IA faible, est le type d'IA le plus répandu pour reproduire certaines capacités humaines. Il se focalise sur une tâche spécifique comme l'analyse du langage naturel ou la détection d'images. Par exemple, ChatGPT est un exemple d'IA faible.
  • L'intelligence artificielle générale (AGI), également connue sous le nom d'IA forte, est un type d'IA hypothétique. Ce type d'IA vise à éliminer toute différence entre le cerveau humain et la machine. N'étant qu'un concept théorique, de nombreux experts utilisent le test de Turing pour mesurer le degré d'intelligence d'un modèle. On peut trouver des exemples d'IA forte dans la littérature ou le cinéma de science-fiction, comme le robot R2D2 de la saga Star Wars.
  • La superintelligence artificielle (ASI), qui n'existe pas encore, dépasserait théoriquement le cerveau humain dans tous les domaines cognitifs. Ce type d'IA serait capable de faire preuve de conscience, de raisonnement ou encore d'apprentissage à partir de son expérience.

La distinction entre une IA faible et une IA forte réside dans leur niveau de conscience et d’autonomie :

  1. IA faible :

    • Elle est programmée selon un ensemble de règles et d’algorithmes prédéfinis pour accomplir une tâche spécifique.
    • Elle ne fait pas preuve d’autonomie dans la prise de décision.
    • Son fonctionnement est limité à des instructions strictes et ne lui permet pas d’adapter sa réponse en fonction du contexte.
    • Exemple : Chatbots basés sur des scripts, systèmes de recommandation simples.
  2. IA forte :

    • Elle vise à être comparable à l’esprit humain.
    • Elle a la capacité de résoudre des problèmes, d’apprendre et de planifier des tâches de manière autonome.
    • Elle peut généraliser à partir d’exemples, s’adapter à des situations nouvelles et inconnues.
    • Exemple : Systèmes de traitement du langage naturel avancés, véhicules autonomes, assistants virtuels sophistiqués.

En résumé, une IA forte est plus autonome et capable d’adaptation que son homologue faible. 

Claude Managed Agents

  Claude Managed Agents : << arrêtez de vous battre avec les infrastructures, on va gérer vos agents >>. Si vous avez déjà essa...