mercredi 10 janvier 2024

Copilot un coup de pouce ChaGPT-4 et la possibilité d'expliquer les captures d'écran

Microsoft vient de donner à Windows Copilot un coup de pouce ChaGPT-4 et la possibilité d'expliquer les captures d'écran.




L'image que vous avez partagée semble être une publicité ou une couverture de livre. 

Voici une description détaillée :


1. **Illustration de Robot** : À gauche, il y a une illustration d'un robot coloré avec les logos "Copilot" et "OpenAI". Le texte autour de cette illustration inclut "www.ugaia.eu", ainsi que plusieurs noms de personnes et d'autres mots clés associés à la technologie.

2. **Image de Cerveau Humain** : À droite, il y a une image d'un cerveau humain superposée avec des éléments graphiques numériques, symbolisant probablement l'intelligence artificielle. Le texte sur cette partie de l'image mentionne "OPENAI ET MICROSOFT DES SOLUTIONS ET OUTILS POUR UNE GOUVERNANCE DE L'IA PAR DES EXPERTS TOME 2" et inclut également plusieurs noms de personnes.

3. **Texte OCR** : Le texte OCR extrait de l'image mentionne plusieurs produits et services liés à Microsoft et OpenAI, ainsi que des noms de personnes. Il semble que le texte parle de la gouvernance, de l'audit, de la sécurité et du pilotage de l'IA avec des outils.

Veuillez noter que cette description est basée sur l'interprétation de l'image et peut ne pas être totalement précise. Si vous avez des informations supplémentaires sur l'image, n'hésitez pas à les partager.





Votre Copilot optimisé par l’IA pour le Web | Microsoft Bing


Microsoft vient de donner à Windows Copilot un coup de pouce #ChaGPT-4 et la possibilité d'expliquer les captures d'écran


C'est une fonction assez pratique, je viens de la tester et cela fonctionne bien, la mise à niveau la plus notable du #clavier Windows depuis près de trente ans, indique bien l'encrage de l'IA dans ses univers.
#Microsoft a fait sensation avec ses annonces Windows Copilot 365 et Copilot pour Windows l'année dernière, et a présenté #Copilot comme un assistant virtuel général pour vous aider dans toute votre vie numérique. Jusqu'à présent, nous n'avons pas encore vu Copilot atteindre son potentiel, mais il semble que nous soyons sur le point de faire un pas de plus : 

Microsoft se préparerait à ajouter une nouvelle fonctionnalité puissante qui permettra aux utilisateurs de prendre une capture d'écran, de la soumettre à Copilot, et demandez à Copilot d'expliquer ce qu'il y a dans la capture d'écran. 

À notre connaissance, un bouton « Ajouter une capture d'écran » est en train d'être déployé auprès du grand public, ce qui signifie que vous pourrez peut-être déjà l'essayer. Sinon, vous devriez pouvoir le faire très bientôt. Ce bouton devrait apparaître dans le panneau Copilot, vous invitant à sélectionner une partie de l'écran, confirmant que vous avez capturé ce dont vous souhaitez discuter avec Copilot, puis à le télécharger sur le panneau de droite de Copilot ou Bing. Lorsque je l'ai essayé, j'ai également dû soumettre un texte pour l'accompagner, comme une question ou un contexte supplémentaire. 

Une fois la capture d'écran téléchargée, vous pouvez en parler et poser des questions sur tout ce qu'elle contient ou s'y rapportant avec Bing Chat ou Copilot sur Windows 11. 

Comme vous pouvez le voir sur la capture d'écran, le nouveau bouton se trouve à côté du bouton de téléchargement d'image existant. Vous pouvez essayer la nouvelle fonctionnalité sur le site Web Copilot de Microsoft ou sur Bing Chat. (voir l'article en anglais).

Selon les tests accomplis, il y a parfois des variations entre le produit photographié et le produit dont parle Copilot. Il existe donc des possibilités qu’il évoque un produit qui n’est pas le bon. L’utilisation de Bing est assez limitée lorsqu’il s’agira de faire de la rédaction en masse. Il sera nécessaire de passer par des outils fournissant des informations sur le produit et qui puissent être complétés par des API pour réécrire les fiches.



Microsoft just gave Windows Copilot a ChaGPT-4 boost and the ability to explain screenshots (msn.com)


Windows Latest a sa propre démonstration de cette nouvelle fonctionnalité, et j'ai essayé moi-même. 

Tout d’abord, j’ai pris une sélection de captures d’écran qui montrait une description complète de la chaîne YouTube de la plateforme de création vidéo HeyGen et lui ai demandé de me dire deux choses : de qui il s’agit et de quoi il s’agit.

Copilot a renvoyé ceci : 

Ceci est la chaîne YouTube de HeyGen. Il s'agit d'une plate-forme de création vidéo de nouvelle génération qui transforme le texte en vidéos de porte-parole professionnels en quelques minutes. Ils proposent des avatars premium parlant plusieurs langues et des modèles vidéo professionnels pour divers cas d'utilisation, notamment le marketing, l'e-learning et la communication d'entreprise. Vous pouvez trouver plus d’informations sur HeyGen sur leur site Web.

Ceci est assez précis et m'a rappelé une fonctionnalité en particulier que j'aime beaucoup chez Bing Chat et Copilot : ils fournissent facilement et très visiblement des sources et des sites Web que vous pouvez visiter pour vérifier les informations. 

Une fois que vous avez fait une sélection de votre écran, vous pouvez y faire des marquages et dessiner dessus. Vous pouvez également ajouter des visuels pédagogiques spécifiques pour aider Copilot à comprendre votre requête, et vous pouvez déplacer votre fenêtre de sélection vers une partie complètement différente de l'écran. 

Selon Windows Latest, Bing Chat a récemment bénéficié d'un boost ChatGPT-4 lui accordant un nouveau niveau de fonctionnalités et cela sera probablement également intégré à Copilot.

 Apparemment, l'accès n'est actuellement accordé qu'à certains utilisateurs, et ce développement permet à Copilot d'engager des conversations sur les émotions. Actuellement, il existe un nombre limité d'utilisateurs qui peuvent essayer cela par eux-mêmes et l'accès est apparemment donné de manière aléatoire, et il sera disponible très prochainement pour tous ceux qui accèdent à Windows Copilot et Bing Chat.

Microsoft trace la voie à suivre avec Copilot

Microsoft a été assez catégorique dans son message selon lequel Copilot est un gros problème pour l'entreprise et sera une fonctionnalité centrale dans plusieurs produits comme Microsoft 365 et Windows, mais pas seulement ceux-là. 

Dans le cadre d'un développement assez important (mais pas très surprenant), Microsoft prévoit d'ajouter un véritable bouton Copilot physique dans le matériel des produits nouvellement fabriqués dès 2024. Microsoft le fait dans le cadre de ses efforts continus pour rendre l'informatique, en particulier basée sur l'#IA. Informatique, plus simple et plus transparente pour les utilisateurs. Cela a été détaillé et confirmé dans un récent article du blog Windows Experience rédigé par Yusuf Mehdi, vice-président exécutif et directeur du marketing grand public chez Microsoft.

Pour le reste d'entre nous qui n'est pas encore prêt à jeter nos anciens appareils Windows pour ce nouveau bouton, vous pouvez afficher Windows Copilot avec le raccourci Win+C (si vous avez mis à jour votre version de Windows 11 vers une version qui inclut Windows Copilot) . 

Selon Microsoft lui-même, l'introduction de la touche Copilot sera la mise à niveau la plus notable du #clavier Windows depuis près de trente ans. Cela compare cette future introduction à l’ajout de la touche Démarrer de Windows, qui accorde une grande confiance à Copilot lui-même, donc j’imagine que nous continuerons à voir des développements majeurs dans Copilot tout au long de cette année. Je pense que, notamment grâce au développement de Copilot, Microsoft est l’une des entreprises les plus intéressantes à surveiller cette année. 


PIERRE EROL GIRAUDY 





vendredi 5 janvier 2024

Bonne année 2024.

 Bonne année 2024, santé, bonheur et réussites.


Bonne année 2024, santé, bonheur et réussites.


Nos livres sur IA et Copilot



PIERRE EROL GIRAUDY 






Quelle est la prochaine étape pour la réglementation de l’IA en 2024 ?

 Quelle est la prochaine étape pour la réglementation de l’IA en 2024 ?

L’année à venir verra l’entrée en vigueur des premières lois radicales sur l’IA, avec des efforts mondiaux pour tenir les entreprises technologiques responsables.

Par Tate Ryan-MosleyPage d’archivageMelissa HeikkiläPage d’archivageZeyi YangPage d’archivage
5 janvier 2024

La série What’s Next du MIT Technology Review examine les secteurs, les tendances et les technologies pour vous donner un premier aperçu de l’avenir. 

En 2023, la politique et la réglementation de l’IA sont passées d’un sujet de niche et ringard à l’actualité en première page. C’est en partie grâce au ChatGPT d’OpenAI, qui a aidé l’IA à se généraliser, mais qui a également exposé les gens à la manière dont les systèmes d’IA fonctionnent – ​​et ne fonctionnent pas. 

Ce fut une année monumentale pour la politique : nous avons assisté à l'adoption de la première loi radicale sur l'IA dans l'Union européenne, aux audiences du Sénat et aux décrets aux États-Unis, et à des règles spécifiques en Chine pour des choses comme les algorithmes de recommandation. 

Si 2023 a été l’année où les législateurs se sont mis d’accord sur une vision, 2024 sera l’année où les politiques commenceront à se transformer en actions concrètes. 
Voici à quoi s’attendre. 

Les États Unis 

L’IA est réellement entrée dans le débat politique aux États-Unis en 2023. Mais il ne s’agissait pas seulement d’un débat. Il y a eu également des actions, qui ont culminé avec le décret du président Biden sur l’IA fin octobre, une directive tentaculaire appelant à plus de transparence et à de nouvelles normes. 

Grâce à cette activité, une politique américaine en matière d'IA a commencé à émerger : une politique favorable à l'industrie de l'IA, mettant l'accent sur les meilleures pratiques, s'appuyant sur différentes agences pour élaborer leurs propres règles et une approche nuancée de réglementation de chaque secteur de l'IA. l’économie différemment. 

L’année prochaine s’appuiera sur la dynamique de 2023, et de nombreux éléments détaillés dans le décret de Biden seront adoptés. Nous entendrons également beaucoup parler du nouvel AI Safety Institute des États-Unis, qui sera chargé de mettre en œuvre la plupart des politiques demandées dans l’ordonnance. 

Histoire connexe

 Quelle est la prochaine étape pour l’IA en 2024 Nos rédacteurs examinent les quatre tendances à surveiller cette année Du point de vue du Congrès, on ne sait pas exactement ce qui va se passer. Le chef de la majorité au Sénat, Chuck Schumer, a récemment signalé que de nouvelles lois pourraient venir s'ajouter au décret. 

Plusieurs propositions législatives sont déjà en cours qui touchent divers aspects de l’IA, tels que la transparence, les deepfakes et la responsabilité des plateformes. 

Mais il n’est pas clair lequel, le cas échéant, de ces projets de loi déjà proposés gagnera du terrain l’année prochaine. Ce à quoi nous pouvons nous attendre, cependant, c’est une approche qui classe les types et les utilisations de l’IA en fonction du risque qu’ils posent – ​​un cadre similaire à la loi européenne sur l’IA. 

L'Institut national des normes et de la technologie a déjà proposé un tel cadre que chaque secteur et agence devra désormais mettre en pratique, explique Chris Meserole, directeur exécutif du Frontier Model Forum, un organisme de lobbying de l'industrie. 

Une autre chose est claire : l’élection présidentielle américaine de 2024 influencera une grande partie du débat sur la réglementation de l’IA. 

Comme le montre l’impact de l’IA générative sur les plateformes de médias sociaux et la désinformation, nous pouvons nous attendre à ce que le débat sur la manière de prévenir les dommages causés par cette technologie soit façonné par ce qui se passe pendant la période électorale. 

L'Europe 

L’Union européenne vient de se mettre d’accord sur l’AI Act, la première loi radicale au monde sur l’IA. Après d’intenses retouches techniques et l’approbation officielle des pays européens et du Parlement européen au premier semestre 2024, la loi sur l’IA entrera en vigueur assez rapidement. Dans le scénario le plus optimiste, des interdictions sur certaines utilisations de l’IA pourraient s’appliquer dès la fin de l’année. 

Tout cela signifie que 2024 sera une année chargée pour le secteur de l’IA alors qu’il se prépare à se conformer aux nouvelles règles. Même si la plupart des applications d’IA bénéficieront d’un laissez-passer gratuit en vertu de la loi sur l’IA, les entreprises développant des modèles de base et des applications considérées comme présentant un « risque élevé » pour les droits fondamentaux, comme ceux destinés à être utilisés dans des secteurs comme l’éducation, les soins de santé et l’éducation. la police devra répondre aux nouvelles normes européennes. 

En Europe, la police ne sera pas autorisée à utiliser cette technologie dans les lieux publics, à moins d'obtenir au préalable l'approbation du tribunal à des fins spécifiques telles que la lutte contre le terrorisme, la prévention de la traite des êtres humains ou la recherche d'une personne disparue. 

D’autres utilisations de l’IA seront totalement interdites dans l’UE, comme la création de bases de données de reconnaissance faciale comme celle de Clearview AI ou l’utilisation de technologies de reconnaissance des émotions au travail ou dans les écoles. 

La loi sur l’IA obligera les entreprises à être plus transparentes sur la manière dont elles développent leurs modèles, et elle les rendra, ainsi que les organisations utilisant des systèmes d’IA à haut risque, plus responsables de tout préjudice qui en résulterait. Les entreprises développant des modèles de base (les modèles sur lesquels sont basés d'autres produits d'IA, tels que GPT-4) devront se conformer à la loi dans un délai d'un an après son entrée en vigueur. 

Les autres entreprises technologiques ont deux ans pour mettre en œuvre les règles. 


Pour répondre aux nouvelles exigences, les entreprises d’IA devront réfléchir davantage à la manière dont elles construisent leurs systèmes et documenter leur travail de manière plus rigoureuse afin qu’il puisse être audité. 

La loi obligera les entreprises à être plus transparentes sur la manière dont leurs modèles ont été formés et garantira que les systèmes d’IA jugés à haut risque soient formés et testés avec des ensembles de données suffisamment représentatifs afin de minimiser les biais, par exemple. 

L’UE estime que les modèles d’IA les plus puissants, tels que GPT-4 d’OpenAI et Gemini de Google, pourraient présenter un risque « systémique » pour les citoyens et nécessiteraient donc des travaux supplémentaires pour répondre aux normes de l’UE. 

Les entreprises doivent prendre des mesures pour évaluer et atténuer les risques et garantir la sécurité des systèmes. Elles seront tenues de signaler les incidents graves et de partager des détails sur leur consommation d'énergie. Il appartiendra aux entreprises d’évaluer si leurs modèles sont suffisamment puissants pour entrer dans cette catégorie. 

Les sociétés d’IA open source sont exemptées de la plupart des exigences de transparence de la loi sur l’IA, à moins qu’elles ne développent des modèles aussi gourmands en ressources informatiques que le GPT-4. Le non-respect des règles pourrait entraîner de lourdes amendes ou entraîner le blocage de leurs produits hors de l’UE. 

L’UE travaille également sur un autre projet de loi, appelé Directive sur la responsabilité en matière d’IA, qui garantira que les personnes ayant été lésées par la technologie puissent obtenir une compensation financière. 

Les négociations à ce sujet sont toujours en cours et reprendront probablement cette année. Certains autres pays adoptent une approche plus non interventionniste. Par exemple, le Royaume-Uni, siège de Google DeepMind, a déclaré qu’il n’avait pas l’intention de réglementer l’IA à court terme. 

Cependant, toute entreprise en dehors de l’UE, la deuxième économie mondiale, devra toujours se conformer à la loi sur l’IA si elle souhaite faire des affaires dans le bloc commercial. 

Anu Bradford, professeur de droit à l’Université de Columbia, a appelé cela « l’effet Bruxelles » : en étant la première à réglementer, l’UE est en mesure d’établir la norme mondiale de facto, façonnant la manière dont le monde fait des affaires et développe la technologie. 

L’UE y est parvenue grâce à son régime strict de protection des données, le RGPD, qui a été copié partout, de la Californie à l’Inde. Il espère répéter l’astuce en matière d’IA. 

Chine 

Jusqu’à présent, la réglementation de l’IA en Chine a été profondément fragmentée et fragmentée. Plutôt que de réglementer l’IA dans son ensemble, le pays a publié des textes législatifs individuels chaque fois qu’un nouveau produit d’IA devient important. 

C’est pourquoi la Chine a un ensemble de règles pour les services de recommandation algorithmique (applications et moteurs de recherche de type TikTok), un autre pour les deepfakes et encore un autre pour l’IA générative. 

La force de cette approche est qu’elle permet à Pékin de réagir rapidement aux risques découlant des avancées technologiques, tant pour les utilisateurs que pour le gouvernement. Mais le problème est que cela empêche le développement d’une perspective panoramique à plus long terme. Cela pourrait changer l’année prochaine. 

En juin 2023, le Conseil d’État chinois, l’organe directeur suprême, a annoncé qu’une « loi sur l’intelligence artificielle » figurait à son programme législatif. Cette loi couvrirait tout, comme l’AI Act for Europe. 

En raison de sa portée ambitieuse, il est difficile de dire combien de temps prendra le processus législatif. Nous pourrions voir une première ébauche en 2024, mais cela pourrait prendre plus de temps. 

En attendant, il ne serait pas surprenant que les régulateurs chinois de l’Internet introduisent de nouvelles règles pour gérer les nouveaux outils d’IA ou les types de contenu populaires qui émergeront l’année prochaine. Jusqu’à présent, très peu d’informations à ce sujet ont été publiées, mais un document pourrait nous aider à prédire la nouvelle loi : des chercheurs de l’Académie chinoise des sciences sociales, un institut de recherche public, ont publié une version « suggestion d’experts » de l’IA chinoise. loi en août. 

Ce document propose un « bureau national de l'IA » pour superviser le développement de l'IA en Chine, exige un « rapport de responsabilité sociale » indépendant annuel sur les modèles de fondation et établit une « liste négative » des domaines de l'IA présentant des risques plus élevés, que les entreprises peuvent pas même de recherche sans l’approbation du gouvernement. Actuellement, les entreprises chinoises d’IA sont déjà soumises à de nombreuses réglementations. 

En fait, tout modèle de fondation doit être enregistré auprès du gouvernement avant de pouvoir être rendu public chinois (fin 2023, 22 entreprises avaient enregistré leurs modèles d’IA). 

Cela signifie que l’IA en Chine n’est plus un environnement du Far West. Mais la manière exacte dont ces réglementations seront appliquées reste incertaine. Au cours de l’année à venir, les entreprises d’IA générative devront essayer de comprendre la réalité de la conformité, notamment en ce qui concerne les examens de sécurité et la violation de la propriété intellectuelle. Dans le même temps, étant donné que les sociétés étrangères d’IA n’ont reçu aucune autorisation pour commercialiser leurs produits en Chine (et ne le feront probablement pas à l’avenir), l’environnement commercial national qui en résulte protège les entreprises chinoises. 

Cela pourrait les aider à prendre un avantage sur les sociétés occidentales d’IA, mais cela pourrait également étouffer la concurrence et renforcer le contrôle de la Chine sur la parole en ligne. 

Le reste du monde 


Nous verrons probablement davantage de réglementations sur l’IA introduites dans d’autres régions du monde au cours de l’année prochaine. 

Une région à surveiller sera l’Afrique. 

L'Union africaine est susceptible de publier une stratégie d'IA pour le continent début 2024, destinée à établir des politiques que chaque pays peut reproduire pour rivaliser dans l'IA et protéger les consommateurs africains des entreprises technologiques occidentales, a déclaré Melody Musoni, chargée de politique au Centre européen. pour la gestion des politiques de développement. 

Certains pays, comme le Rwanda, le Nigéria et l’Afrique du Sud, ont déjà élaboré des stratégies nationales en matière d’IA et s’efforcent de développer des programmes éducatifs, une puissance de calcul et des politiques favorables à l’industrie pour soutenir les entreprises d’IA. 

Des organismes mondiaux comme l’ONU, l’OCDE, le G20 et des alliances régionales ont commencé à créer des groupes de travail, des conseils consultatifs, des principes, des normes et des déclarations sur l’IA. 

Des groupes comme l’OCDE peuvent s’avérer utiles pour créer une cohérence réglementaire entre les différentes régions, ce qui pourrait alléger le fardeau de la conformité pour les entreprises d’IA. 

Sur le plan géopolitique, nous verrons probablement des différences croissantes entre la manière dont les pays démocratiques et autoritaires encouragent – ​​et militarisent – ​​leurs industries de l’IA. 

Il sera intéressant de voir dans quelle mesure les entreprises d’IA donneront la priorité à l’expansion mondiale ou à la spécialisation nationale en 2024.

Elles devront peut-être prendre des décisions difficiles. par Tate Ryan-Mosley, Melissa Heikkilä et Zeyi Yang 





Je suis sur des forums à propos de l'IA sur l'Afrique et je confirme qu'ils sont très en avance.





--- 

 Pierre Erol GIRAUDY 



L'Intelligence Artificielle en 2030 : À Quoi s'Attendre ?

 Bienvenue dans notre exploration fascinante de l'avenir de l'intelligence artificielle ! Dans cette vidéo, nous plongeons dans le m...