Afleveringen

  • Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : la fiabilité des IA conversationnelles, l'échec du gadget Ai Pin, l'impact énergétique des LLM, et les enjeux de confidentialité avec DeepSeek. C’est parti !Commençons par la question de la fiabilité des intelligences artificielles conversationnelles comme ChatGPT. France Info a récemment soulevé ce sujet, mettant en lumière la tendance à utiliser ces outils comme preuves dans le débat public. Un exemple frappant est l'affaire Bétharram, où une consultante a affirmé que même l'IA reconnaissait une instrumentalisation politique. Cependant, il est essentiel de rappeler que ces modèles, qualifiés de "perroquets stochastiques", ne font que reproduire des agencements de mots sans valeur de preuve intrinsèque. Des recherches ont montré que les IA peuvent être ajustées pour refléter des perspectives politiques spécifiques, soulignant leur malléabilité et la nécessité de les utiliser avec précaution.Passons maintenant à l'échec du gadget Ai Pin de Humane. Après avoir levé 230 millions de dollars, l'entreprise n'a pas réussi à se vendre pour un milliard de dollars. Hewlett-Packard a acquis la majorité de l'équipe et des brevets pour 116 millions de dollars, mais a laissé de côté le Ai Pin lui-même. Ce gadget, qui surchauffe et tombe en panne, sera inutilisable après le 28 février, date de fermeture des serveurs de Humane. Les investisseurs, dont Sam Altman et Microsoft, font face à un rendement négatif de 50 % sur leurs investissements.Enchaînons avec l'impact énergétique des grands modèles de langage. Selon l'Agence internationale de l'énergie, la consommation d'électricité des centres de données pourrait presque doubler d'ici 2026, principalement à cause de l'IA. Les développeurs peuvent réduire l'intensité énergétique de leurs solutions en optimisant les ressources de calcul. Par exemple, l'utilisation de CPU basés sur Arm, comme la série AWS Graviton, peut réduire l'intensité carbone de 67,6 %. Des approches comme la quantification des modèles et l'utilisation de bibliothèques comme FAISS pour la recherche sémantique contribuent également à cette efficacité.Enfin, abordons le retrait de l'application DeepSeek en Corée du Sud. Cette décision fait suite à une enquête révélant que DeepSeek avait transmis des données d'utilisateurs à ByteDance, soulevant des préoccupations sur la confidentialité des données. Par ailleurs, DeepSeek Coder V2, un modèle open-source, a surpassé le GPT-4 Turbo d'OpenAI, illustrant les avancées des modèles open-source. En parallèle, OpenAI et Google continuent leur course avec de nouveaux modèles utilisant des techniques de raisonnement avancées, montrant l'évolution rapide du domaine de l'IA.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : l'essor des langages de programmation, l'ouverture dans l'IA, les nouvelles stratégies d'OpenAI, et les défis de l'esprit critique face aux IA génératives. C’est parti !Commençons par les langages de programmation. Selon l'index TIOBE, C++, Go et Rust gagnent en popularité. C++ est un pilier du développement logiciel, apprécié pour sa performance et sa flexibilité, notamment dans les systèmes d'exploitation et les jeux vidéo. Go, créé par Google, séduit par sa simplicité et sa gestion efficace des tâches concurrentes, idéal pour le web et le cloud. Rust, quant à lui, se distingue par sa sécurité et sa gestion de la mémoire, évitant les erreurs courantes. L'essor de ces langages est lié à l'importance croissante de l'intelligence artificielle et du traitement de données, où performance et efficacité sont clés.Passons maintenant à l'ouverture dans le développement de l'IA. Lors du Paris AI Action Summit, Mitchell Baker, présidente de Mozilla, a souligné l'importance de l'open source pour garantir la fiabilité de l'IA. L'Union européenne et l'Inde ont exprimé leur soutien à des solutions ouvertes. Emmanuel Macron a annoncé un investissement de 109 milliards d'euros dans les infrastructures de calcul pour l'IA. La création de Current AI et de ROOST symbolise ce tournant vers l'ouverture. Mozilla voit dans ces avancées un signal fort pour une IA au service de l'humain.En parlant d'OpenAI, l'entreprise prévoit de regrouper ses modèles en un système d'intelligence unifié. Les utilisateurs gratuits auront accès à une "intelligence standard", tandis que les abonnés Plus bénéficieront de niveaux plus élevés. Par ailleurs, OpenAI envisage de construire sa première puce IA d'ici 2026. Elon Musk et un consortium ont proposé 97,4 milliards de dollars pour acquérir OpenAI, mais Sam Altman a rejeté cette offre. TSMC, de son côté, a renforcé les restrictions sur les ventes de puces à la Chine, impactant des géants comme Nvidia et AMD.Enfin, une étude de Carnegie Mellon et Microsoft révèle que l'utilisation des IA génératives peut nuire à l'esprit critique des travailleurs. Plus les tâches sont perçues comme faciles, plus elles sont déléguées aux machines, diminuant ainsi l'esprit critique. Les résultats sont souvent moins diversifiés, mais ceux qui se méfient des IA maintiennent un esprit critique actif. Il est donc conseillé de garder une certaine méfiance et de ne pas déléguer aveuglément les tâches à ces technologies.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • Zijn er afleveringen die ontbreken?

    Klik hier om de feed te vernieuwen.

  • Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : l'impact des modèles de langage, les controverses autour de l'IA dans le journalisme, et les nouvelles orientations d'OpenAI. C’est parti !Commençons par l'évolution des modèles de langage de grande taille, comme ceux développés par OpenAI. Depuis le lancement de ChatGPT il y a deux ans, ces modèles ont suscité des débats intenses. Bien qu'ils soient utilisés pour des tâches variées comme le codage ou la recherche augmentée, leur viabilité économique à long terme est remise en question. OpenAI et d'autres entreprises continuent de dépenser des milliards sans retour sur investissement clair. Les modèles open source, tels que DeepSeek, rivalisent avec les géants du secteur, remettant en cause l'idée que le "raisonnement" des IA est une avancée majeure. Les produits actuels, bien qu'innovants, peinent à prouver leur fiabilité et leur rentabilité.Passons maintenant à une controverse dans le monde du journalisme. Jean-Baptiste Giraud, directeur pédagogique d'une école de journalisme, est critiqué pour l'utilisation de l'IA dans la rédaction d'articles. Des enquêtes ont révélé que ses articles, souvent truffés d'erreurs, étaient générés par IA. Cette situation soulève des questions sur l'intégrité journalistique et l'impact de l'IA sur la production médiatique. De nombreux sites d'informations générés par IA sont créés par des professionnels du marketing, ce qui pose des problèmes de crédibilité et de fiabilité des informations.En parallèle, OpenAI modifie sa manière de former ses modèles d'IA pour embrasser la "liberté intellectuelle". L'entreprise souhaite que ChatGPT puisse répondre à un plus grand nombre de questions, même controversées, sans prendre de position éditoriale. Cette démarche vise à offrir une information équilibrée et à éviter les biais politiques. Cependant, cette ouverture soulève des préoccupations quant aux risques de conformité, notamment avec des réglementations comme l'AI Act de l'UE.Enfin, le Guardian Media Group a signé un accord de contenu avec OpenAI, permettant aux modèles GPT d'utiliser les informations du Guardian. Bien que cela puisse sembler une avancée, le Guardian reste prudent quant à l'utilisation de l'IA pour la génération de contenu. De son côté, le New York Times explore également l'IA pour augmenter sa production éditoriale, malgré un procès en cours contre OpenAI pour violation de droits d'auteur.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : OpenAI dévoile ses nouveaux modèles, les défis de l'IA prédictive, et les innovations dans les modèles de langage. C’est parti !Commençons par OpenAI, qui a récemment annoncé les modèles GPT-4.5 et GPT-5. Sam Altman, PDG d'OpenAI, a révélé que GPT-4.5, surnommé Orion, sera le dernier modèle sans "chaîne de pensée". GPT-5 intégrera des technologies avancées, y compris le modèle o3, pour offrir une expérience unifiée. Les utilisateurs gratuits de ChatGPT auront accès à un niveau standard, tandis que les abonnés Plus et Pro bénéficieront de fonctionnalités avancées. Cette simplification vise à rendre l'offre d'OpenAI plus accessible, en réponse aux critiques sur la complexité actuelle des modèles.Passons maintenant aux défis de l'IA prédictive, comme exploré dans le livre "AI Snake Oil" d'Arvind Narayanan et Sayash Kapoor. Les auteurs soulignent que l'IA prédictive, bien qu'attrayante pour sa promesse d'efficacité, est souvent biaisée et peu fiable. Des systèmes comme Compas, utilisés pour évaluer le risque de récidive criminelle, reposent sur des données biaisées, exacerbant les inégalités sociales. La reconnaissance faciale, bien que techniquement précise, pose des questions éthiques, notamment en matière de surveillance. Les auteurs appellent à une réglementation stricte pour éviter les abus.En parlant de modèles de langage, Simon Willison a publié un plugin, llm-smollm2, permettant d'installer un modèle de langage de grande taille via pip, tout en restant sous la barre des 100 Mo. Ce plugin intègre une version quantifiée du modèle SmolLM2-135M-Instruct. Bien que ce modèle de 94 Mo ne soit pas très performant, il offre une opportunité d'explorer les modèles de langage à petite échelle. Simon encourage les utilisateurs à partager leurs expériences avec ce modèle.Dans le domaine des jeux, OthelloGPT, un réseau de transformateurs, a été entraîné pour prédire les mouvements légaux dans le jeu Othello. Les chercheurs ont utilisé des sondages pour examiner les activations internes du réseau, découvrant que des sondages linéaires pouvaient prédire l'état du plateau avec une précision de 99,5 %. Cela suggère qu'OthelloGPT a appris à suivre les mouvements alternés des joueurs, soulevant des questions sur la nature des modèles du monde dans les LLMs.Enfin, Microsoft fait face à des critiques après l'essai de son outil Copilot par le gouvernement australien. Jugé peu fiable, Copilot a généré des contenus fictifs et a soulevé des préoccupations sur la sécurité des données. L'augmentation des prix des abonnements à Microsoft 365 a également été mal reçue, provoquant des réactions négatives. Les utilisateurs demandent des améliorations pour garantir la sécurité des données et une meilleure performance de l'outil.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : OpenAI et ses nouveaux modèles, les implications économiques de l'IA, et les avancées en synthèse d'images. C’est parti !Commençons par OpenAI, où Sam Altman, le PDG, a dévoilé la feuille de route pour les modèles GPT-4.5 et GPT-5. Le modèle GPT-4.5, surnommé Orion, sera le dernier à ne pas utiliser la "chaîne de pensée", une méthode qui simule un raisonnement humain. Après son lancement, OpenAI vise à unifier ses modèles pour offrir une expérience utilisateur simplifiée. GPT-5, qui intégrera le modèle o3, promet d'améliorer l'intelligence des interactions. Les utilisateurs de ChatGPT auront accès à différents niveaux d'intelligence selon leur abonnement. Altman n'a pas précisé de date de sortie, mais cela pourrait se faire dans les mois à venir. Par ailleurs, Elon Musk a proposé d'acheter la branche à but non lucratif d'OpenAI pour 97,4 milliards de dollars, une offre que le conseil d'administration prévoit de rejeter.Passons maintenant aux implications économiques et culturelles de l'IA. Sam Altman a souligné que l'IA redéfinit le monde, avec des impacts économiques et culturels significatifs. L'augmentation des investissements dans l'IA a entraîné une baisse spectaculaire des coûts d'exploitation, rendant l'IA plus accessible. L'intégration de l'IA dans la main-d'œuvre pourrait transformer des secteurs comme l'ingénierie logicielle, la banque et la santé. Cependant, l'impact de l'IA sera inégal, certaines industries étant plus affectées que d'autres. Les décideurs politiques devront aborder les disparités économiques pour garantir que les bénéfices de l'IA soient partagés équitablement.En parlant de progrès technologiques, une nouvelle technique appelée "scaling à l'inférence" améliore les performances des modèles d'IA en allouant plus de ressources lors de l'inférence. Une expérience menée par NVIDIA avec le modèle DeepSeek-R1 a montré que cette approche peut générer des noyaux d'attention GPU optimisés, surpassant parfois ceux développés par des ingénieurs expérimentés. Cette méthode promet d'améliorer la génération de code et l'efficacité des modèles d'IA.Enfin, dans le domaine de la synthèse d'images, NVIDIA a présenté Edify Image, un modèle de diffusion basé sur les pixels pour la génération d'images haute résolution. Contrairement aux méthodes traditionnelles, Edify Image utilise un modèle de diffusion laplacien pour minimiser les artefacts et préserver les détails. Cette approche permet de générer des images de haute qualité à partir de descriptions textuelles, avec des applications potentielles dans la création de contenu et la conception d'avatars numériques.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : les avancées d'OpenAI avec GPT-4.5 et GPT-5, les implications économiques de l'IA, et les innovations en synthèse d'images. C’est parti !Commençons par OpenAI, où Sam Altman, le PDG, a dévoilé la feuille de route pour les modèles GPT-4.5 et GPT-5. Le modèle GPT-4.5, surnommé Orion, sera le dernier à ne pas utiliser la "chaîne de pensée", une méthode de raisonnement structuré. L'objectif est d'unifier les modèles pour créer des systèmes plus polyvalents. GPT-5 intégrera de nombreuses technologies, y compris le modèle o3, et proposera un accès par niveaux pour les utilisateurs de ChatGPT. Les abonnés Plus et Pro bénéficieront de niveaux d'intelligence plus élevés. Altman n'a pas précisé les dates de lancement, mais parle de "semaines/mois". Par ailleurs, Elon Musk a proposé d'acheter la branche à but non lucratif d'OpenAI pour 97,4 milliards de dollars, une offre que le conseil d'administration prévoit de rejeter.Passons maintenant aux implications économiques de l'IA. Sam Altman souligne que la croissance rapide de l'IA redéfinit le monde économique et culturel. L'augmentation des investissements entraîne une baisse des coûts, rendant l'IA plus accessible. Par exemple, le coût par jeton de GPT-4 a chuté de manière spectaculaire. L'intégration de l'IA dans la main-d'œuvre est progressive, mais elle pourrait transformer des secteurs comme l'ingénierie logicielle. Les agents d'IA, bien qu'ils nécessitent une supervision humaine, peuvent accomplir des tâches complexes. Altman évoque aussi l'impact inégal de l'IA sur les systèmes économiques, avec des industries cognitives potentiellement bouleversées. Les décideurs doivent aborder les disparités économiques pour s'assurer que les avantages de l'IA atteignent toute la société.En parlant de transformations, la synthèse d'images à partir de texte connaît des avancées rapides. NVIDIA a présenté Edify Image, un modèle de diffusion basé sur les pixels pour la génération d'images haute résolution. Contrairement aux générateurs traditionnels, Edify Image utilise un modèle de diffusion laplacien pour minimiser les artefacts et préserver les détails. Ce modèle permet de gérer la résolution de manière efficace, générant des images de qualité supérieure. Les résultats montrent une capacité à produire des images avec des ratios d'aspect flexibles et des contrôles de caméra, ouvrant des possibilités dans la création de contenu et la conception d'avatars numériques.Enfin, Larry Ellison, président d'Oracle, a exprimé son souhait de voir les gouvernements unifier les données nationales pour l'entraînement de l'IA. Cette proposition soulève des préoccupations de surveillance de masse. En Chine, des systèmes similaires sont déjà utilisés pour scanner les foules. Oracle a été accusée de mettre en place un système de surveillance mondiale et a rejoint le projet Stargate pour concurrencer les investissements américains dans l'IA. Ellison a également partagé ses inquiétudes sur les soins de santé en Occident, suggérant que des systèmes de surveillance pilotés par l'IA pourraient améliorer le comportement des citoyens, une vision qui suscite des débats éthiques.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : OpenAI et ses nouveaux modèles, les avancées en synthèse d'images, et les enjeux de la centralisation des données. C’est parti !Commençons par OpenAI, où Sam Altman, le PDG, a récemment partagé la feuille de route pour les modèles GPT-4.5 et GPT-5. Le modèle GPT-4.5, surnommé "Orion", sera le dernier à ne pas utiliser la "chaîne de pensée", une méthode qui permet à l'IA de simuler un processus de réflexion plus humain. Après son lancement, OpenAI se concentrera sur l'unification des modèles de la série "o" et GPT, avec l'objectif de créer des systèmes capables d'utiliser tous les outils d'OpenAI. GPT-5, qui intégrera le modèle "o3", offrira un accès illimité à un niveau d'intelligence standard pour les utilisateurs gratuits de ChatGPT, tandis que les abonnés Plus et Pro bénéficieront de niveaux d'intelligence plus élevés. Altman n'a pas précisé de date de sortie, mais cela pourrait se produire dans les semaines ou mois à venir.Passons maintenant à la synthèse d'images. NVIDIA a présenté Edify Image, une suite de modèles de diffusion basés sur les pixels, permettant une synthèse d'images haute résolution avec un contrôle et une précision exceptionnels. Contrairement aux générateurs traditionnels, Edify Image utilise un modèle de diffusion Laplacien, une approche multi-échelle qui minimise les artefacts tout en préservant les détails de haute qualité. Les résultats montrent une capacité à générer des images avec des ratios d'aspect flexibles et des améliorations en termes d'équité et de diversité. Cette avancée pourrait transformer des domaines tels que la création de contenu et la génération de données synthétiques.Enfin, abordons la proposition de Larry Ellison, président d'Oracle, qui appelle à unifier les données nationales, y compris les données génomiques, pour l'entraînement de l'IA. Cette centralisation pourrait améliorer les soins de santé en permettant des diagnostics plus précis, mais elle soulève des préoccupations quant à la surveillance de masse et à la confidentialité des données. En parallèle, l'Union européenne a annoncé un investissement de 200 milliards de dollars dans l'IA pour rivaliser avec les États-Unis et la Chine, bien que cette somme soit inférieure aux 500 milliards de dollars du projet américain Stargate.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : l'essor de l'IA générative, les défis environnementaux des centres de données, et les innovations dans la création vidéo par IA. C’est parti !Commençons par l'impact fulgurant de ChatGPT, lancé le 30 novembre 2022, qui a rapidement atteint 100 millions d'utilisateurs en deux mois. Cette adoption record a marqué une accélération sans précédent dans le domaine de l'IA générative, poussant des entreprises comme Framasoft à suivre de près ces évolutions. En réponse, Framasoft a lancé FramIActu, une revue mensuelle dédiée à l'actualité de l'IA, soulignant l'importance de rester informé face à ces avancées technologiques.Passons maintenant aux préoccupations environnementales liées à l'IA. Infomaniak, une entreprise suisse, a récemment ouvert un centre de données présenté comme le plus écologique de Suisse. Cependant, la création de tels centres soulève des questions sur l'effet rebond, où les gains d'efficacité énergétique peuvent paradoxalement augmenter la consommation globale. Au Royaume-Uni, une "zone de croissance de l'IA" a été créée, mais elle met en lumière les tensions entre compétitivité technologique et durabilité, notamment en matière de ressources en eau.Dans le domaine de l'éducation, certaines écoles aux États-Unis expérimentent l'utilisation de l'IA pour remplacer les enseignants, promettant un apprentissage personnalisé. Cette approche suscite des débats sur la qualité de l'éducation et le rôle des enseignants, tout en mettant en avant les biais et l'opacité des systèmes d'IA.Adobe, de son côté, a intégré Firefly Video Generator dans sa suite Creative Cloud, permettant de transformer du texte et des images en courtes vidéos grâce à l'IA. Cet outil, accessible en version bêta publique, permet de créer des clips de 5 secondes en 1080p à 24 images par seconde. Adobe prévoit également des versions "Idéation" et 4K pour l'avenir, tout en assurant que son modèle vidéo a été entraîné uniquement sur du matériel sous licence.En parallèle, la compétition entre les États-Unis et la Chine s'intensifie avec l'émergence de modèles comme DeepSeek-V3 et DeepSeek-r1, qui défient les leaders établis tels qu'OpenAI et Google. Ces modèles ouverts et économiques signalent une nouvelle ère dans le développement de l'IA, poussant les équipes à optimiser l'efficacité et à exploiter l'open source pour l'innovation.Enfin, une étude de la BBC a révélé que les chatbots d'IA, tels que ChatGPT et Gemini, rencontrent des difficultés en matière d'exactitude lorsqu'ils résument des articles d'actualité. Plus de la moitié des résumés générés présentaient des problèmes notables, soulignant la nécessité pour les entreprises technologiques de résoudre ces inexactitudes pour éviter des dommages potentiels.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : éducation à l'IA, protection des œuvres générées par IA, innovation en entreprise, et avancées en vidéo générative. C’est parti !Commençons par l'éducation à l'intelligence artificielle. Le podcast "Salut l'info !" organise un webinaire interactif pour sensibiliser les élèves aux enjeux de l'IA, notamment les deepfakes. Prévu pour le 20 mars 2025, cet événement vise à enseigner aux jeunes comment utiliser l'IA de manière judicieuse pour éviter les fake news. Les élèves pourront participer à un quiz et écouter Anicet Mbida, spécialiste du sujet. Ce webinaire s'inscrit dans le programme "J'apprends l'info !" qui propose des ressources pédagogiques pour développer l'esprit critique des élèves.Passons maintenant à la protection des œuvres générées par IA en Chine. Deux affaires récentes, Le Vent Printanier et Cœur à Cœur, ont reconnu la protection par le droit d'auteur pour des images créées avec des logiciels d'IA. Les tribunaux ont souligné l'importance de l'investissement intellectuel humain dans le processus créatif. Ces décisions contrastent avec la position américaine, qui refuse la protection des œuvres générées par IA, et pourraient influencer les discussions internationales sur la propriété intellectuelle.En entreprise, une transformation est en cours dans l'approche de l'innovation. Tom Godden d'AWS observe un passage d'un modèle de Centre d'Excellence à un "centre d'engagement", favorisant l'expérimentation et le partage des données. Des entreprises créent des "pods d'innovation" pour tester l'IA, et organisent des "journées de découverte des données" pour encourager la collaboration. Cette approche vise à surmonter la "paralysie de la perfection" et à promouvoir une culture de l'expérimentation.Enfin, ByteDance innove avec ses modèles Goku, capables de générer des vidéos réalistes de produits sans acteurs humains. Utilisant une architecture de transformateur avancée, Goku produit des vidéos de haute qualité à partir de descriptions textuelles. Ces modèles pourraient transformer la production de contenu publicitaire, réduisant les coûts de 99 %. ByteDance envisage d'utiliser ces outils sur TikTok, bien que des complications réglementaires soient possibles.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : l'impact de l'IA sur l'art, la pensée critique, les perspectives de Yann LeCun, la détection des contenus générés par l'IA, et les enjeux politiques et écologiques de l'IA. C’est parti !Commençons par l'inquiétude croissante des photographes face à l'impact de l'intelligence artificielle sur leur art. Avec l'essor du scraping par IA, qui extrait des données protégées par des droits d'auteur pour entraîner des modèles génératifs, des outils comme Glaze et Nightshade ont été développés pour protéger les œuvres. Glaze modifie subtilement les images pour perturber la perception de l'IA, tandis que Nightshade empêche la reconnaissance du contenu. Ces outils, bien que prometteurs, laissent parfois des artefacts visibles, surtout dans les zones d'espace négatif des images.Passons maintenant à une étude menée par Microsoft et l'Université Carnegie Mellon, qui met en lumière une diminution de la pensée critique due à l'utilisation croissante de l'IA générative. En automatisant les tâches routinières, l'IA prive les utilisateurs d'occasions de renforcer leurs capacités cognitives. Les chercheurs ont constaté que plus les travailleurs faisaient confiance à l'IA, moins ils faisaient preuve de pensée critique. Ils suggèrent de développer des outils d'IA qui encouragent l'utilisateur à utiliser sa pensée critique, en fournissant des explications et des critiques guidées.Yann LeCun, responsable de l'IA chez Meta, exprime des réserves sur l'avenir de l'IA générative. Il critique la mentalité de la Silicon Valley et met en garde contre l'idée que l'intelligence artificielle générale est imminente. LeCun se concentre sur l'intelligence humaine-robotique, soulignant l'importance de comprendre l'architecture nécessaire pour développer une IA véritablement intelligente. Il critique l'approche actuelle de l'IA générative, qui repose sur des prédictions sans construire une véritable connaissance du monde.En France, la startup UncovAI développe une technologie pour détecter les contenus générés par l'IA, face à l'avalanche de textes produits par des machines. Cette technologie, qui s'appuie sur la certification des contenus via le C2PA, vise à garantir la transparence et la fiabilité des informations en ligne. UncovAI prévoit également de détecter les contenus audio et vidéo générés par l'IA, contribuant ainsi à un web plus transparent et fiable.Enfin, Framasoft, une organisation engagée dans la promotion du logiciel libre, souligne que la lutte contre l'IA ne doit pas se limiter à une opposition à la technologie elle-même. Le déploiement massif de l'IA est souvent motivé par des intérêts capitalistes, entraînant une intensification de l'extraction de ressources et une augmentation des inégalités. Framasoft appelle à une maîtrise démocratique de l'IA et à une limitation de ses usages pour privilégier les droits humains, sociaux et environnementaux.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : un modèle de langage compact, l'open source en IA, l'éducation à l'IA en France, les défis de l'IA dans le droit, et bien plus encore. C’est parti !Commençons par Simon Willison, qui a récemment lancé le plugin llm-smollm2. Ce plugin permet d'installer un modèle de langage de grande taille via pip, tout en restant sous la barre des 100 Mo. Le modèle SmolLM2-135M-Instruct, choisi pour sa taille, est intégré dans un package Python, facilitant son installation. Bien que ce modèle soit amusant à utiliser, il n'est pas très performant. Cependant, il ouvre la voie à des modèles plus grands et plus puissants de la famille SmolLM.Passons maintenant à l'open source dans le développement de l'IA. Bien que souvent perçu comme un moyen de démocratiser l'accès à la technologie, l'open source en IA est plus complexe. Les grands modèles, comme Llama 2 de Meta, sont souvent sous des licences restrictives. De plus, les ensembles de données massifs, comme Laion-5B, soulèvent des questions éthiques et légales. L'article souligne la nécessité de transparence et de responsabilité dans le développement de ces technologies.En France, le gouvernement intègre des cours sur l'IA dans les programmes scolaires. Ces cours, obligatoires pour certains niveaux, visent à éduquer sur les biais et les limites de l'IA. Dispensés via la plateforme Pix, ces modules incluent des sections sur le "prompting". La ministre de l'Éducation, Élisabeth Borne, insiste sur l'importance de former les élèves à l'IA générative, promouvant un usage éthique de cette technologie.Dans le domaine du droit, l'IA générative, comme ChatGPT, montre des limites. Des mémoires basés sur des affaires inventées ont conduit à des sanctions pour les avocats. Une nouvelle fonctionnalité de "recherche approfondie" de ChatGPT, bien qu'impressionnante, nécessite une supervision humaine pour garantir l'exactitude des informations fournies.Sam Altman, PDG d'OpenAI, évoque les limites des modèles de langage de grande taille. OpenAI explore des modèles spécialisés optimisés par l'apprentissage par renforcement, appelés "grands modèles de raisonnement". Ces modèles offrent un gain d'efficacité de calcul, mais ne s'améliorent pas dans tous les domaines. Altman réitère l'intention d'OpenAI de revenir à des pratiques open-source.Google teste un "mode IA" pour son moteur de recherche, visant à fournir des réponses plus contextuelles. Cette innovation pourrait transformer le SEO, en privilégiant les réponses générées par l'IA. Sundar Pichai, PDG de Google, annonce des changements profonds d'ici 2025, en réponse à la montée des moteurs de recherche basés sur l'IA.Enfin, une étude de l'Université de New York révèle que seulement 0,001 % d'informations médicales erronées peuvent compromettre un modèle d'IA. Le "data poisoning" peut amener le modèle à produire des résultats dangereux. Les chercheurs ont développé un système de vérification pour détecter le contenu nocif, mais soulignent la nécessité d'essais cliniques pour valider les systèmes d'IA médicale.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : l'évolution des moteurs de recherche IA, la prolifération des sites d'information générés par IA, les avancées dans les modèles de raisonnement, et les nouvelles réglementations de l'UE sur l'IA. C’est parti !Commençons par OpenAI, qui a récemment annoncé que son moteur de recherche intégré à ChatGPT est désormais accessible sans connexion. Initialement réservé aux abonnés payants, il est devenu disponible pour tous en décembre. Cette mise à jour rend ChatGPT plus compétitif face à Google et Bing. Le moteur de recherche se distingue par sa capacité à fournir des réponses basées sur des informations collectées sur le web, tout en affichant les sources utilisées. Une mise à jour récente a également introduit des fonctionnalités visuelles, comme des cartes et des images, enrichissant l'expérience utilisateur.Passons maintenant à une enquête menée par Next, qui révèle une prolifération de sites d'information francophones générés par IA. Plus de 1 000 sites ont été identifiés, dont certains reposent sur du plagiat. Ces sites, souvent bien référencés sur Google Actualités, publient parfois des informations fausses, comme des rumeurs sur la mort de célébrités. Leur modèle économique repose sur la publicité programmatique, ce qui pose des questions déontologiques et juridiques. Pour lutter contre cette pollution numérique, Next a développé une extension pour navigateur qui alerte les utilisateurs lorsqu'ils consultent un site généré par IA.En 2024, le domaine des modèles de langage a vu une spécialisation croissante, notamment dans le développement de modèles de raisonnement. Ces modèles sont conçus pour exceller dans des tâches complexes nécessitant des étapes intermédiaires, comme les énigmes et les mathématiques avancées. Le rapport technique de DeepSeek R1 décrit trois variantes distinctes, utilisant des méthodes comme l'apprentissage par renforcement et le réglage fin supervisé. Ces approches visent à améliorer les capacités de raisonnement des modèles de langage, avec des implications pour le développement de modèles plus petits et efficaces.L'Union européenne a commencé à appliquer les premières règles de sa loi sur l'intelligence artificielle, adoptée en 2023. Cette législation impose une plus grande transparence aux entreprises et interdit certaines applications d'IA à haut risque, comme les bases de données de reconnaissance faciale. Les entreprises non conformes risquent de lourdes amendes. Cette loi vise à positionner l'UE comme un leader de l'IA de confiance, malgré les critiques de certaines grandes entreprises technologiques.Enfin, Google a lancé la version 2.0 de son assistant AI, Gemini, avec plusieurs nouveaux modèles mis à jour. Disponible via l'API Gemini, cette version se distingue par sa capacité à intégrer des modèles de raisonnement. Bien que l'application présente des lacunes par rapport à ChatGPT et Claude, son intégration rapide avec les services Google en fait un outil précieux. Une version expérimentale, Gemini 2.0 Pro, est également disponible, optimisée pour la performance de codage et les requêtes complexes.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : l'accessibilité de ChatGPT, la prolifération des sites d'information générés par IA, les avancées des modèles de raisonnement, et les nouvelles régulations de l'IA en Europe. C’est parti !Commençons par OpenAI, qui a récemment annoncé que son moteur de recherche intégré à ChatGPT est désormais accessible sans connexion. Cette mise à jour rend l'outil plus compétitif face à Google et Bing, en permettant aux utilisateurs d'accéder aux fonctionnalités de recherche sans créer de compte. ChatGPT présente ses réponses avec des sources vérifiables, offrant une transparence accrue. L'outil adopte aussi une interface plus traditionnelle, avec des cartes et images des attractions locales, enrichissant l'expérience utilisateur.Passons maintenant à la prolifération des sites d'information générés par IA. Next a identifié plus de 1 000 sites francophones prétendant être rédigés par des journalistes, alors qu'ils sont en réalité produits par des IA. Ces sites, souvent basés sur le plagiat, sont soutenus par la publicité programmatique, ce qui pose un problème de crédibilité et de pollution numérique. NewsGuard a répertorié 1 150 sites non fiables générés par IA, une augmentation significative depuis mai 2023. Ce phénomène, alimenté par des professionnels du SEO, menace les revenus des médias traditionnels.En 2024, le domaine des grands modèles de langage (LLM) se spécialise davantage, notamment dans le développement de modèles de raisonnement. Ces modèles, conçus pour des tâches complexes, utilisent des approches comme le scaling à l'inférence et l'apprentissage par renforcement. DeepSeek R1, par exemple, a introduit des variantes comme DeepSeek-R1-Zero, formé uniquement par apprentissage par renforcement. Ces avancées visent à améliorer les performances des LLM dans des tâches nécessitant des étapes intermédiaires.L'Union européenne a mis en application son Acte sur l'Intelligence Artificielle, imposant plus de transparence aux entreprises. Cette législation interdit les applications d'IA à haut risque, comme les bases de données de reconnaissance faciale. Les entreprises non conformes risquent des amendes ou des interdictions d'opérer dans l'UE. Malgré les critiques de Donald Trump, Bruxelles cherche à se positionner comme un leader de l'IA de confiance.Enfin, Google a lancé la version 2.0 de son assistant AI, Gemini, avec des modèles mis à jour pour un plus grand nombre d'utilisateurs. Gemini 2.0 Flash et Flash-Lite offrent des options pour les développeurs, tandis que Gemini 2.0 Pro se concentre sur le codage et les requêtes complexes. Bien que Gemini présente certaines lacunes par rapport à ChatGPT, son intégration dans l'écosystème Google en fait un outil pratique pour de nombreux utilisateurs.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : l'accessibilité de ChatGPT, la prolifération des sites d'information générés par IA, les avancées dans les modèles de raisonnement, et bien plus encore. C’est parti !Commençons par OpenAI, qui a récemment annoncé que son moteur de recherche intégré à ChatGPT est désormais accessible sans connexion. Cette décision rend l'outil plus accessible au grand public, permettant à tous d'explorer les fonctionnalités de recherche de l'IA sans créer de compte. Initialement réservé aux abonnés payants, ce service a été étendu à tous en décembre. Avec cette mise à jour, ChatGPT se positionne comme un concurrent direct de Google et Bing, offrant une interface de recherche enrichie de cartes et d'images locales.Passons maintenant à la prolifération des sites d'information générés par IA. Next a identifié plus de 1 000 sites francophones prétendant être rédigés par des journalistes, alors qu'ils sont en réalité produits par des IA. Ces sites, souvent basés sur le plagiat, sont référencés sur Wikipédia et Google Actualités, malgré leur contenu douteux. NewsGuard a répertorié 1 150 sites non fiables générés par IA, une augmentation significative par rapport aux 49 identifiés en mai 2023. Ce phénomène soulève des questions éthiques et financières, car ces sites attirent des revenus publicitaires au détriment des rédactions traditionnelles.En parallèle, le développement des modèles de raisonnement dans le domaine des LLM se spécialise. Ces modèles, comme DeepSeek-R1, sont conçus pour exceller dans des tâches complexes nécessitant des étapes intermédiaires, telles que les puzzles et les mathématiques avancées. Quatre approches principales sont utilisées pour améliorer ces modèles : la mise à l'échelle au moment de l'inférence, l'apprentissage par renforcement pur, le réglage fin supervisé combiné à l'apprentissage par renforcement, et la distillation. Ces techniques visent à optimiser les performances tout en tenant compte des coûts et des ressources.Dans le domaine de la santé, l'intégration des LLM transforme les systèmes de soutien à la décision clinique. Ces modèles permettent des diagnostics plus rapides et précis, en analysant de vastes ensembles de données médicales. Ils s'intègrent aux dossiers de santé électroniques pour offrir des soins personnalisés et basés sur les données. Cependant, cette intégration nécessite des cadres éthiques robustes et des mesures de sécurité des données pour garantir la confidentialité et l'équité.Enfin, Microsoft a publié un rapport sur les défis de la sécurité des produits d'IA générative. Le "Red Teaming" est utilisé pour identifier les vulnérabilités des systèmes d'IA face aux menaces potentielles. Le rapport souligne l'importance de renforcer les systèmes contre des catégories entières d'attaques plutôt que de corriger chaque faille individuellement. La sécurité doit être un processus continu, nécessitant une vigilance constante face à l'évolution des menaces.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : les défis des bibliothèques face aux livres générés par IA, les avancées de Mozilla pour détecter les deepfakes, les vulnérabilités des modèles de langage, et les évolutions des modèles d'IA. C’est parti !Les bibliothèques publiques sont confrontées à un afflux de livres numériques de faible qualité, souvent générés par intelligence artificielle. Ces ouvrages, disponibles via des plateformes comme Hoopla, posent un défi aux bibliothécaires qui doivent trier ces contenus pour garantir la qualité des informations proposées aux usagers. Hoopla, avec son catalogue imposant, inclut de nombreux livres générés par IA, souvent mal formatés et écrits par des auteurs sans empreinte numérique. Les bibliothécaires demandent plus de contrôle sur ces contenus pour assurer la transparence et la qualité des informations.Passons maintenant à Mozilla, qui a lancé une extension pour Firefox, le Deep Fake Detector. Cet outil gratuit vise à identifier les contenus générés par IA sur le web, une réponse à l'augmentation des deepfakes. En analysant le texte, l'extension aide à distinguer les contenus authentiques des créations artificielles. Bien que perfectible, cet outil marque une avancée dans la lutte contre les contenus trompeurs en ligne.En parlant de sécurité, les modèles de langage de grande taille sont vulnérables aux attaques par injection de prompt et vol de prompt. Ces techniques permettent à des acteurs malveillants d'accéder à des informations sensibles ou de manipuler le comportement des modèles. Pour se défendre, des détecteurs de prompts adverses et le réglage fin des modèles sont proposés, bien que ces solutions ne soient pas infaillibles.Dans le domaine des modèles d'IA, les récents lancements de Google, OpenAI et DeepSeek montrent un rythme d'innovation soutenu. Les modèles améliorés par le raisonnement et l'intégration d'outils externes sont au cœur des développements. Ces modèles, capables de gérer des tâches complexes, s'orientent vers une interaction multimodale, incluant la génération d'images et de vidéos. Les entreprises cherchent à optimiser la taille des modèles et les coûts de calcul, tout en améliorant l'efficacité et l'accessibilité.Enfin, Google a récemment modifié sa politique sur l'utilisation de l'IA à des fins militaires. En supprimant les restrictions sur les applications militaires et de surveillance, Google s'inscrit dans un contexte où l'IA joue un rôle croissant dans les opérations militaires. Cette décision soulève des préoccupations quant aux biais potentiels et aux erreurs des systèmes d'IA dans des contextes critiques.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : avancées technologiques d'OpenAI, opportunités de carrière en IA/ML, transformation de l'industrie juridique par l'IA, et innovations matérielles. C’est parti !Commençons par OpenAI, qui a récemment lancé deux nouveaux produits : o3-mini et Deep Research. Le modèle o3-mini, successeur de o1-mini, améliore la rapidité et la précision des tâches STEM dans ChatGPT et l'API. Il propose des fonctionnalités comme l'appel de fonctions et des sorties structurées, avec des réglages d'effort de raisonnement adaptatifs. Lors de la compétition mathématique AIME, il a atteint une précision de 87,3 % avec un effort élevé. En plus de ses performances, il est 63 % moins cher que o1-mini. Deep Research, quant à lui, est un agent conçu pour des analyses multi-étapes, disponible pour les utilisateurs Pro avec une allocation de 100 tâches par mois. Ces innovations réduisent le coût des modèles de raisonnement et étendent les capacités de recherche.Passons maintenant aux opportunités de carrière en IA/ML. Les rôles se divisent en trois catégories : ingénieur ML, data scientist et scientifique appliqué. Le processus d'entretien pour ces postes inclut une revue de CV, des appels avec des recruteurs, des écrans techniques, des défis à domicile, et une boucle d'entretien complète. La préparation est cruciale, notamment pour les entretiens de conception de systèmes ML. Les startups recherchent des solutions ML de bout en bout, tandis que les grandes entreprises valorisent l'échelle et la profondeur des connaissances.En parallèle, l'IA transforme l'industrie juridique. La convergence des services juridiques et de la technologie, ou "lawtech", automatise les tâches routinières, permettant aux professionnels du droit de se concentrer sur des défis plus complexes. Les grands modèles de langage, comme ChatGPT, génèrent des textes juridiques et deviennent courants dans les applications destinées aux clients. En 2025, la lawtech améliorera l'accès à la justice grâce à des portails en libre-service et des conseils juridiques automatisés. L'IA aidera aussi à prédire l'issue des procès, rendant les conseils juridiques plus basés sur les données.Enfin, OpenAI collabore avec Jony Ive sur un appareil AI innovant. Sam Altman a confirmé que cet appareil, qui pourrait ne pas ressembler à un téléphone, utilisera la voix comme interface principale. OpenAI développe également son propre silicium pour ces appareils. Bien que le prototype prenne plusieurs années à être finalisé, cette collaboration promet de redéfinir notre interaction avec les technologies AI.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : prototypage avec l'IA, descriptions d'images par IA, avancées des LLMs, chatbots populaires, et l'AGI en 2025. C’est parti !Commençons par le prototypage avec l'intelligence artificielle, un outil devenu incontournable pour les chefs de produit. Des outils comme Lovable, Databutton et Bolt permettent de créer rapidement des prototypes interactifs. Lovable facilite la création d'applications full-stack sans codage, bien qu'il puisse modifier des fichiers de manière inattendue. Databutton s'intègre bien avec Firestore, mais a des limites pour les projets plus grands. Bolt, quant à lui, se concentre sur le front-end avec un support pour divers langages de programmation. Ces outils permettent de tester des hypothèses de marché et d'usabilité de manière rapide et économique, tout en intégrant des données réelles pour des tests plus fiables.Passons maintenant à Dries Buytaert, qui a exploré l'utilisation de l'IA pour générer des descriptions d'images et des textes alternatifs pour les photos de son site web. Avec environ 10 000 photos, dont 9 000 sans alt-text, il a testé 12 modèles de langage pour automatiser ce processus. Les modèles basés sur le cloud, comme GPT-4, ont offert les meilleures performances, mais Dries privilégie les modèles locaux pour des raisons de confidentialité. Parmi ceux-ci, Llama et MiniCPM-V se sont distingués. Dries se demande si un alt-text de niveau "B" est préférable à l'absence totale de description, pesant les avantages de la confidentialité contre l'accessibilité.En parlant de modèles de langage, les LLMs transforment notre compréhension du langage humain et de l'intelligence. Ils offrent de nouvelles perspectives en linguistique, neurosciences et sciences cognitives. Ces modèles dépassent notre capacité à les comprendre scientifiquement, soulignant la nécessité d'une collaboration interdisciplinaire pour explorer leurs implications.Abordons maintenant les chatbots IA populaires en 2025. ChatGPT, développé par OpenAI, est apprécié pour le débogage et l'écriture de code. Gemini, de Google AI, aide à la planification et à l'apprentissage. Perplexity se positionne comme une alternative aux moteurs de recherche traditionnels. Microsoft Copilot, intégré à Office, génère des images et du texte. Jasper, quant à lui, est prisé pour la création de contenu marketing. Chaque chatbot a ses forces et ses limites, et le choix dépend des besoins spécifiques des utilisateurs.Enfin, l'AGI, ou intelligence artificielle générale, est en développement par des entreprises comme OpenAI et Anthropic. L'AGI pourrait transformer le monde du travail en rendant les employés existants beaucoup plus productifs. Dans le secteur de la santé, l'AGI pourrait remplacer les médecins dans la médecine diagnostique. Avec la baisse des coûts des GPU, le développement de l'AGI devient de plus en plus accessible, soulignant l'importance de prendre des décisions éclairées dès maintenant.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : DeepSeek défie OpenAI, le technocolonialisme des données, et les innovations d'OpenAI Canvas. C’est parti !Commençons par l'actualité qui secoue le monde de l'intelligence artificielle : DeepSeek, une entreprise chinoise, a surpris les géants du secteur avec son modèle open source R1. Ce modèle, développé avec une fraction de la puissance de calcul utilisée par OpenAI, offre des performances comparables aux meilleurs modèles payants. OpenAI, qui ne prévoit pas de bénéfices avant la fin de la décennie, accuse DeepSeek d'avoir utilisé ses résultats pour entraîner R1, une pratique appelée "distillation". Cette situation a ébranlé les investisseurs et pourrait bouleverser les plans de l'industrie américaine de l'IA, qui repose sur l'idée que plus de données et de puissance de calcul sont nécessaires pour progresser vers l'intelligence artificielle générale.Passons maintenant à une réflexion sur le technocolonialisme, un concept exploré par Hubert Guillaud. Ce terme décrit comment les grandes entreprises technologiques s'approprient nos données à l'échelle mondiale, prolongeant un héritage de dépossession similaire au colonialisme historique. Les Big Tech, sous couvert de progrès, renforcent les inégalités par une collecte massive de données. Cette dynamique est comparée à l'époque coloniale, où la mission civilisatrice justifiait la domination. Aujourd'hui, la surveillance et l'exploitation des travailleurs du clic sont des outils modernes de contrôle. Les auteurs appellent à une résistance inspirée des luttes anticoloniales pour réinventer notre rapport aux technologies.En parallèle, OpenAI innove avec Canvas, une interface qui permet d'écrire et de coder en collaboration avec ChatGPT. Ce nouvel outil facilite le brainstorming et l'itération sur le texte et le code, rendant le processus plus naturel et efficace. Le cours "Collaborative Writing and Coding with OpenAI Canvas", dirigé par Karina Nguyen, enseigne comment maximiser l'utilisation de cette interface. Canvas propose des suggestions d'amélioration, aide au débogage et permet une collaboration fluide entre l'utilisateur et l'IA.Enfin, revenons sur les préoccupations soulevées par les intelligences artificielles génératives. Une enseignante-chercheuse met en garde contre les dangers des grands modèles de langage, soulignant les impacts environnementaux et les implications politiques. Les infrastructures nécessaires consomment énormément de ressources, exacerbant les conflits d'accès locaux. De plus, la concentration des acteurs et des ressources soulève des inquiétudes quant à l'influence disproportionnée de quelques grandes entreprises. Les promesses de ces technologies détournent l'attention des problèmes actuels, et l'idée d'alternatives éthiques est discutée.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : l'impact des modèles de langage sur les organisations, les avancées de ChatGPT en mathématiques, les nouvelles directives sur le droit d'auteur pour les œuvres générées par l'IA, et bien plus encore. C’est parti !Commençons par l'analyse de l'IA générative par le politologue Henry Farrell. Selon lui, l'IA générative, notamment les grands modèles de langage, ne constitue pas une rupture mais une continuité technologique. Ces outils sont conçus pour fluidifier les organisations en renforçant la cohérence. Farrell identifie quatre grandes catégories d'utilisation : les micro-tâches, les cartes de connaissances, les moulins à prière, et la traduction. Ces applications permettent de gérer la complexité organisationnelle, remplaçant une grande partie de la pseudo-littérature produite par les entreprises.Passons maintenant à OpenAI, qui a récemment annoncé une nouvelle version de ChatGPT, le modèle "o1". Ce modèle a considérablement amélioré ses performances en mathématiques, passant de 13 % à 83 % à l'examen de qualification pour l'Olympiade Mathématique Internationale. Cette avancée est due à une technique appelée "raisonnement en chaîne", permettant à l'IA de décomposer les problèmes et de tester ses propres réponses. Cependant, il est crucial que le public continue de vérifier les faits, car des erreurs peuvent encore survenir.En ce qui concerne le droit d'auteur, l'Office américain a clarifié sa position : les œuvres générées uniquement par l'IA ne sont pas éligibles à la protection. Cependant, les créations humaines intégrant des éléments d'IA peuvent être protégées. L'Office souligne l'importance du contrôle humain dans le processus créatif, comparant cela à la méthode de peinture de Jackson Pollock. Cette clarification vise à combler les lacunes juridiques liées à l'IA.Jetons un œil sur Mistral Small 3, le dernier modèle du laboratoire français Mistral. Avec 24 milliards de paramètres, il est optimisé pour la latence et distribué sous licence Apache 2.0, permettant une utilisation commerciale libre. Mistral Small 3 se positionne comme une alternative rapide et efficace aux modèles plus volumineux, offrant une performance comparable tout en étant trois fois plus rapide.Experian, leader en détection de fraude, utilise l'IA pour différencier les clients légitimes des bots. Grâce aux analyses comportementales de NeuroID, Experian identifie les écarts par rapport au comportement humain typique, renforçant ainsi la protection de la vie privée. Les modèles de détection de fraude sont continuellement mis à jour pour s'adapter aux nouvelles techniques de fraude, équilibrant détection et minimisation des faux positifs.Enfin, parlons de Tülu 3 405B, une application de post-formation pour les modèles à poids ouverts. Avec 405 milliards de paramètres, Tülu 3 405B atteint des performances compétitives, surpassant des modèles de même taille sur de nombreux benchmarks. L'utilisation de l'apprentissage par renforcement avec récompenses vérifiables améliore significativement les performances en mathématiques, démontrant la scalabilité et l'efficacité de cette approche.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : l'impact des modèles de langage sur les organisations, les avancées de ChatGPT, les droits d'auteur pour les œuvres générées par l'IA, et bien plus encore. C’est parti !Commençons par l'analyse de l'IA générative par le politologue Henry Farrell. Selon lui, cette technologie ne constitue pas une rupture mais une continuité dans l'évolution technologique. Les grands modèles de langage, ou LLM, sont utilisés pour accomplir des micro-tâches, créer des cartes de connaissances, et automatiser des rituels organisationnels. Farrell identifie quatre grandes catégories d'utilisation : micro-tâches, cartes de connaissances, moulins à prière, et traduction. Ces outils permettent de gérer la complexité au sein des grandes organisations, améliorant ainsi la coordination des activités.Passons maintenant à OpenAI, qui a récemment annoncé un nouveau modèle de ChatGPT, nommé "o1". Ce modèle est nettement meilleur en mathématiques et en sciences que ses prédécesseurs. Un modèle antérieur n'avait obtenu que 13 % à l'examen de qualification pour l'Olympiade Mathématique Internationale, tandis que le nouveau modèle a porté ce score à 83 %. Cette amélioration est due à un processus appelé "calcul en temps de test", permettant au modèle de réfléchir à un problème de manière plus transparente.En ce qui concerne les droits d'auteur, l'Office américain a clarifié sa position sur les œuvres générées par l'IA. Les créations issues uniquement de l'IA ne sont pas éligibles à la protection par le droit d'auteur. Cependant, les œuvres créées par des humains intégrant des éléments générés par l'IA peuvent être protégées. L'Office souligne l'importance du contrôle humain dans le processus créatif, comparant cela à la méthode de peinture de Jackson Pollock.Jetons un œil à Mistral Small 3, le premier modèle de 2025 du laboratoire français Mistral. Ce modèle, optimisé pour réduire la latence, comporte 24 milliards de paramètres et est distribué sous la licence Apache 2.0. Il se positionne comme un concurrent sérieux face à des modèles plus volumineux, tout en étant plus rapide et efficace.Experian, leader dans la détection de fraude, utilise l'IA pour différencier les véritables clients des bots. Grâce aux analyses comportementales de NeuroID, Experian repère les écarts par rapport au comportement humain typique, aidant ainsi à identifier les risques sans recourir à des informations personnelles identifiables.Enfin, parlons de Tülu 3 405B, une avancée majeure dans les modèles de langage à grande échelle. Ce modèle utilise l'apprentissage par renforcement avec récompenses vérifiables, surpassant les performances de modèles tels que DeepSeek V3 et GPT-4o. Tülu 3 405B est disponible sur Google Cloud, permettant aux chercheurs de l'explorer davantage.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.