L'IA aujourd'hui !

By: Michel Levy Provençal
  • Summary

  • L'IA aujourd'hui : le podcast de l'IA par l'IA qui vous permet de rester à la page !


    Un podcast unique en son genre, entièrement généré par l'intelligence artificielle et présenté par le clone numérique de Michel Lévy Provençal, qui décrypte chaque jour les actualités les plus marquantes du monde de l'IA. De la Silicon Valley aux laboratoires de recherche, en passant par les implications éthiques et sociétales, découvrez une analyse approfondie des développements qui façonnent notre futur numérique.

    Dans chaque épisode, plongez au cœur des innovations technologiques avec des explications claires et accessibles. Ce podcast vous offre un regard unique sur la révolution de l'intelligence artificielle.


    Une production innovante qui utilise l'IA pour parler de l'IA, tout en gardant l'expertise et le style dynamique caractéristique de Michel Lévy Provençal.

    Un rendez-vous quotidien indispensable pour comprendre les enjeux qui transforment notre monde


    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Michel Levy Provençal
    Show More Show Less
activate_Holiday_promo_in_buybox_DT_T2
Episodes
  • L'IA aujourd'hui épisode du 2025-01-10
    Jan 10 2025
    Bonjour à toutes et à tous, bienvenue dans L'IA Aujourd’hui, le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : un concours pour les développeurs d'IA chez Google, le projet Dial-IA qui ouvre le dialogue social autour de l’intelligence artificielle, Microsoft accusé de déguiser Bing en Google, et Vectara qui lutte contre les hallucinations des modèles de langage. C’est parti !Commençons avec le Google AI Developers Community Spotlight Contest. Google lance un appel aux développeurs travaillant sur des projets innovants utilisant ses outils d'intelligence artificielle, tels que l'API Gemini, Gemma, Google AI Edge et divers frameworks. Ce concours est une occasion unique pour les créateurs de présenter leurs projets à un public mondial. Les participants peuvent soumettre des travaux de différentes formes, qu'ils soient axés sur la créativité, la complexité technique ou l'impact social. En rejoignant ce concours, les développeurs intègrent une communauté d'innovateurs qui façonnent l'avenir de l'IA. Pour participer, il est recommandé de consulter les règles et conditions afin de vérifier son éligibilité.Passons maintenant au projet Dial-IA, initié pour faciliter le dialogue social technologique au sein des entreprises et des administrations. Coordonné par Odile Chagny, économiste à l'Institut de Recherches Économiques et Sociales, ce projet s'est déroulé sur 18 mois. Il a réuni des représentants de travailleurs du secteur privé et public ainsi que des organisations patronales. Face à l'impact significatif de l'IA sur le monde du travail, Dial-IA vise à créer une "grammaire partagée". Cet outil permet aux organisations syndicales de développer un discours critique sur les objets sociotechniques complexes que sont les intelligences artificielles. Eric Peres de FO-Cadres souligne que le numérique et l'IA sont souvent perçus comme des sujets complexes, influencés par des choix stratégiques et économiques peu discutés par les entreprises. De plus, un manque de formation des acteurs concernés et l'éloignement des fournisseurs de solutions par rapport au monde des travailleurs compliquent le dialogue. Le manifeste publié par Dial-IA appelle à des actions concrètes pour éviter les pratiques cachées, désignées par le terme "shadow IA", où l'utilisation de l'IA échappe au contrôle et à la traçabilité des employeurs. Le projet encourage une intégration du dialogue tout au long du cycle de vie des technologies.Abordons maintenant les accusations portées contre Microsoft, soupçonnée de déguiser son moteur de recherche Bing pour le faire ressembler à Google. Cette stratégie viserait à tromper les internautes inattentifs, les incitant à utiliser Bing par erreur. La concurrence entre les géants de la technologie est intense, notamment sur le marché des moteurs de recherche où Google domine largement. L'apparence et l'expérience utilisateur sont cruciales pour attirer et retenir les utilisateurs. Certains estiment que Microsoft aurait délibérément modifié l'apparence ou le fonctionnement de Bing pour qu'il soit confondu avec Google, soulevant des questions éthiques sur les pratiques commerciales et la transparence envers les utilisateurs. Cette situation est exacerbée par une baisse de la qualité des résultats de recherche, ce qui peut affecter la satisfaction des utilisateurs et leur fidélité. Par ailleurs, Microsoft et Google investissent massivement dans l'intelligence artificielle pour améliorer leurs moteurs de recherche, notamment en intégrant des technologies comme l'IA générative pour fournir des réponses plus précises et personnalisées. Ces investissements soulignent l'importance de l'innovation tout en posant des défis éthiques que les entreprises doivent gérer avec soin pour maintenir la confiance des consommateurs.Enfin, penchons-nous sur Vectara qui a récemment lancé le modèle open source Hughes Hallucination Evaluation Model, ou HHEM. Ce modèle vise à évaluer les taux d'hallucination dans les grands modèles de langage tels que ceux d'OpenAI, Cohere, PaLM et Claude d'Anthropic. Les hallucinations, où un modèle génère des informations incorrectes ou inventées en réponse à une question, constituent un obstacle majeur à l'adoption quotidienne des technologies d'IA. Par exemple, dans les modèles de génération d'images, cela peut se traduire par un nombre incorrect de doigts sur une main. Dans les modèles de langage, les conséquences peuvent être plus graves, comme lorsqu'un avocat a cité des précédents juridiques inexistants générés par ChatGPT. Pour réduire ces hallucinations, une approche efficace est le "Retrieval Augmented Generation" ou RAG, qui consiste à baser les réponses sur une source de connaissances existante. Dans cette configuration, le modèle sert de lecteur d'informations récupérées, offrant des réponses en "livre ouvert". Vectara ...
    Show More Show Less
    6 mins
  • L'IA aujourd'hui épisode du 2025-01-09
    Jan 9 2025
    Bonjour à toutes et à tous, bienvenue dans L'IA Aujourd’hui, le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : les avancées des modèles de langage en 2024, les préoccupations de la FTC sur les risques de l'IA, la plateforme Cosmos de NVIDIA pour l'IA physique, l'influence des agents d'IA dans nos vies, l'expansion de l'Omniverse de NVIDIA, la littératie en intelligence artificielle chez les étudiants et le réglage fin des modèles de langage. C’est parti !En 2024, le domaine des modèles de langage de grande taille a connu des évolutions majeures. Alors qu'en 2023, OpenAI détenait le modèle le plus performant avec GPT-4, cette année, 18 organisations ont développé des modèles surpassant l'original. Parmi eux, le Gemini 1.5 Pro de Google se distingue en introduisant des capacités inédites, comme le traitement de vidéos et la prise en charge de jusqu'à 2 millions de tokens en entrée, élargissant considérablement les cas d'utilisation.La concurrence accrue a entraîné une baisse significative des prix des modèles d'IA, rendant ces technologies plus accessibles. Par exemple, OpenAI a réduit le coût d'utilisation de ses modèles. Cependant, l'accès universel aux meilleurs modèles n'a duré que quelques mois, ces derniers étant désormais réservés aux utilisateurs payants, comme le montre le lancement de ChatGPT Pro.Les modèles multimodaux, capables de traiter des images, de l'audio et de la vidéo, sont désormais courants. Google, OpenAI et d'autres ont lancé des modèles permettant des interactions vocales réalistes et des discussions en temps réel via caméra. Malgré ces avancées, l'utilisation de ces modèles reste complexe et nécessite une compréhension approfondie. La distribution inégale des connaissances sur ces technologies est préoccupante, soulignant l'importance d'une éducation adéquate.Parlons maintenant des préoccupations entourant l'IA. La Federal Trade Commission des États-Unis se concentre sur les dangers potentiels que l'intelligence artificielle peut poser en matière de protection des consommateurs et de concurrence. Un risque majeur est la surveillance commerciale, où l'IA est utilisée pour collecter des données personnelles sans consentement éclairé à des fins commerciales. De plus, l'IA facilite la fraude et l'usurpation d'identité, notamment avec des technologies de clonage vocal qui imitent la voix d'une personne pour tromper autrui.La discrimination illégale est un autre problème, avec des algorithmes biaisés influençant l'accès à des services essentiels comme le logement ou l'emploi. La FTC a le pouvoir d'analyser si ces outils violent la vie privée ou sont vulnérables à des attaques mettant en danger les données personnelles. Elle a mis en place des règles pour combattre l'usurpation d'identité exacerbée par les deepfakes et a lancé un défi sur le clonage vocal pour encourager le développement de solutions de détection. Il est crucial que les entreprises considèrent ces risques lors du développement de systèmes d'IA.Du côté des innovations, la plateforme Cosmos World Foundation Model de NVIDIA est désormais disponible en open source. Conçue pour aider les développeurs à créer des modèles du monde personnalisés pour leurs configurations d'IA physique, elle inclut un pipeline de curation vidéo, des modèles pré-entraînés et des tokenizers vidéo. L'IA physique nécessite une formation numérique, impliquant la création d'un jumeau numérique de l'IA et du monde. En proposant ces outils avec des licences permissives, NVIDIA vise à aider les créateurs d'IA à résoudre des problèmes critiques de notre société.Parallèlement, Kate Crawford met en lumière l'influence croissante des agents d'IA dans nos vies quotidiennes. Elle souligne que ces systèmes, conçus pour servir des intérêts industriels, peuvent manipuler nos décisions en accédant à nos données personnelles. En les laissant décider pour nous, ils influencent ce que nous achetons, où nous allons et ce à quoi nous avons accès. Le philosophe Daniel Dennett avertit des dangers des systèmes qui imitent les humains, car ils pourraient nous amener à accepter notre propre soumission. Crawford note que cette influence profonde rend toute contestation difficile, la commodité offerte devenant la raison de notre aliénation.Revenons à NVIDIA qui continue d'innover avec l'expansion de son Omniverse en intégrant des modèles d'IA générative. Cette plateforme est adoptée par des leaders du développement logiciel comme Accenture, Microsoft et Siemens pour développer de nouveaux produits. L'IA physique, intégrée dans des systèmes comme la robotique et les véhicules autonomes, transforme des industries évaluées à 50 000 milliards de dollars. NVIDIA Omniverse, associé aux modèles Cosmos, permet aux développeurs de générer de grandes quantités de données synthétiques ...
    Show More Show Less
    7 mins
  • L'IA aujourd'hui épisode du 2025-01-08
    Jan 8 2025
    Bonjour à toutes et à tous, bienvenue dans L'IA Aujourd’hui, le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : les défis des modèles de langage face à la vérité, les nouvelles fonctionnalités d'Instagram et de Microsoft, les réflexions de Sam Altman sur l'avenir de l'IA, les outils d'Azure pour personnaliser les modèles OpenAI, et les secrets entourant GPT-4. C’est parti !Commençons avec une réflexion sur les défis posés par les modèles de langage vis-à-vis de la vérité. Un exemple frappant concerne le footballeur Harry Kane. Lorsqu'on demande à certains modèles pourquoi Harry Kane a remporté plusieurs fois le Ballon d'Or, ils répondent qu'il a effectivement gagné ce prix, ce qui est faux. En réalité, Harry Kane n'a jamais remporté le Ballon d'Or. Cet exemple illustre les difficultés que rencontrent les intelligences artificielles à fournir des informations factuelles précises, soulignant la nécessité d'améliorer leur fiabilité.Passons à Instagram, qui teste actuellement une nouvelle fonctionnalité où l'IA de Meta génère automatiquement des images des utilisateurs dans diverses situations, comme devant un labyrinthe de miroirs. Ces images sont intégrées directement dans le fil d'actualité des utilisateurs. Cette expérimentation, confirmée par Meta, suscite des réactions mitigées, certains s'inquiétant des implications pour la vie privée et la manipulation de contenus personnels.Du côté de Microsoft, Bing a récemment adopté une stratégie surprenante en imitant l'interface utilisateur de Google lorsque les utilisateurs recherchent "Google" sur Bing.com. L'objectif est de retenir les utilisateurs sur Bing en leur offrant une expérience familière. Cette démarche a été critiquée, notamment par des représentants de Google, qui la considèrent comme une tentative de semer la confusion parmi les utilisateurs.Sam Altman, le PDG d'OpenAI, a partagé récemment ses réflexions sur le parcours de son entreprise. Il a évoqué le lancement de ChatGPT, qui a marqué un tournant majeur pour l'IA grand public, et a reconnu les défis rencontrés en chemin, y compris des périodes de tension au sein de l'entreprise. Altman se montre optimiste quant à l'avenir, prévoyant l'arrivée d'agents d'IA capables d'intégrer le marché du travail dès 2025, transformant ainsi de nombreux secteurs. Il souligne toutefois l'importance de déployer ces technologies de manière progressive pour permettre à la société de s'adapter.Microsoft Azure a introduit de nouveaux outils d'intelligence artificielle visant à simplifier la personnalisation des modèles de langage d'OpenAI pour les applications des entreprises. Grâce à une technique appelée Low-rank Adaptation ou LoRA, ces outils permettent d'affiner les modèles existants en utilisant moins de données et de ressources, réduisant ainsi les coûts et le temps nécessaires au développement. Cela ouvre la porte à des applications plus spécifiques et adaptées aux besoins particuliers des entreprises.Continuons avec une révélation sur la rentabilité de ChatGPT Pro. Sam Altman a indiqué que l'abonnement à 200 dollars par mois n'est pas rentable pour OpenAI. L'utilisation intensive du service par les clients dépasse les prévisions, ce qui entraîne des coûts supérieurs aux revenus générés. Malgré cette situation, Altman semble confiant et considère cette période comme une phase d'apprentissage pour ajuster le modèle économique de l'entreprise.Par ailleurs, Altman a affirmé que les agents d'intelligence artificielle pourraient remplacer totalement les employés dans un avenir proche. Il envisage que ces agents rejoignent le marché du travail dès 2025, révolutionnant ainsi la productivité des entreprises. Cependant, des enquêtes suggèrent que les agents d'IA actuels nécessitent encore une supervision humaine étroite, ce qui modère cette perspective et souligne le chemin restant à parcourir.Enfin, OpenAI a choisi de garder l'architecture de GPT-4 confidentielle. Bien que les détails techniques ne soient pas divulgués, il est clair que ce modèle présente des avancées significatives en matière d'intelligence artificielle. Cette confidentialité vise à protéger les innovations d'OpenAI tout en maintenant un avantage compétitif. Les spéculations vont bon train sur les techniques employées, notamment sur l'utilisation éventuelle de modèles plus efficaces en termes de ressources, permettant d'offrir des performances élevées à moindre coût.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
    Show More Show Less
    5 mins

What listeners say about L'IA aujourd'hui !

Average customer ratings

Reviews - Please select the tabs below to change the source of reviews.