Comments by "Shad DOUIDA" (@shaddouida3447) on "Notre test de Grok, l'IA très permissive de X • FRANCE 24" video.

  1. 6
  2. 3
  3. Nvidia alimenterait son IA avec des vidéos YouTube et Netflix sans autorisation Pour entraîner son IA, Nvidia aurait recours à une méthode pas très jolie : télécharger du contenu vidéo protégé depuis des services comme YouTube et Netflix. Selon 404 Media, Nvidia n'y serait pas allé de main morte dans ses méthodes pour améliorer ses modèles d'intelligence artificielle. En se basant sur des emails internes, des documents et des conversations Slack d'employés du géant des cartes graphiques, le média pointe du doigt une pratique probablement peu légale de la société. Nvidia aurait récupéré un équivalent quotidien d'une "vie humaine" de vidéos sous copyright depuis des services comme YouTube et Netflix, afin d'entraîner son IA. Nvidia accusé par Google Alimenter ses intelligences artificielles via différentes sources pour les entraîner n'est pas une nouveauté de l'industrie. En revanche, Google souligne que récupérer des vidéos de YouTube dans ce but est une claire violation des termes d'utilisation de la plateforme. Un reproche que faisait déjà le patron de YouTube, Neal Mohan, en avril dernier concernant l'IA générative d'OpenAI, Sora. Des employés de Nvidia ont indiqué avoir été autorisés par leurs supérieurs à télécharger des vidéos depuis YouTube, Netflix et d'autres sources afin d'alimenter des projets commerciaux autour de l'IA. Des projets comme Omniverse 3D et des systèmes de conduite autonome seraient concernés. Pour éviter d'être repéré et banni par YouTube, Nvidia aurait utilisé des machines virtuelles ainsi que des adresses IP tournantes. Une question juridique floue Dans un email à Engadget, Nvidia se défend et déclare être : "en totale conformité avec la lettre et l'esprit de la loi sur le droit d'auteur." Pour Ming-Yu Liu, vice-président de la recherche chez Nvidia, il s'agit d'une "décision exécutive" et il ajoute posséder une "approbation générale pour toutes les données." Difficile de savoir aujourd'hui qui est véritablement dans son bon droit, mais nul doute qu'à l'avenir il va rapidement falloir tirer cette affaire au clair et mettre les choses au point autour du droit d'auteur et de l'intelligence artificielle.
    2
  4. 2
  5. Luc Julia L'intelligence artificielle n'existe pas Le document rare et l'incroyable parcours d'un inventeur français, qui à l'âge de neuf ans avait déjà construit un robot pour faire son lit et a ensuite été l'un des deux créateurs de Siri. Son objectif ici : tordre le cou aux idées reçues et aux fantasmes qui entourent l'IA aujourd'hui. Vous ne comprenez rien à l'intelligence artificielle (IA) ? Vous avez peur que de méchants robots prennent le pouvoir et finissent par contrôler le monde ? Vous vous intéressez à l'IA et aux nouvelles technologies, mais vous aimeriez entendre un autre son de cloche ? Alors ce livre est pour vous ! " Tout est parti d'un immense malentendu. En 1956, lors de la conférence de Dartmouth, John McCarthy a convaincu ses collègues d'employer l'expression " intelligence artificielle " pour décrire une discipline qui n'avait rien à voir avec l'intelligence. Tous les fantasmes et les fausses idées dont on nous abreuve aujourd'hui découlent de cette appellation malheureuse. Dans ce livre, je vous invite à me suivre, de mon petit village près de Toulouse à la Silicon Valley, sur les traces de cette fameuse " intelligence artificielle " à propos de laquelle on entend dire tant de bêtises, pour comprendre de quoi il s'agit exactement et anticiper ce qu'elle peut nous réserver à l'avenir. Car aujourd'hui je l'affirme haut et fort : l'intelligence artificielle n'existe pas ! " Dr. LUC JULIA est l'un des deux créateurs de l'assistant vocal d'Apple, Siri. Il est aujourd'hui Senior Vice-président et Chief Technical Officer du tout nouveau laboratoire d'intelligence artificielle de Samsung (SAIL) à Paris. Biographie de l'auteur En tant que Vice-président de l'innovation chez Samsung Electronics, Dr. Luc JULIA a dirigé la vision et la stratégie de l'entreprise pour l'Internet des Objets de 2012 à 2017. Aujourd'hui Senior Vice-président et Directeur Technique de la compagnie, il se concentre sur la définition d'une nouvelle génération de produits. Auparavant, il a dirigé les équipes de développement de Siri chez Apple, a été Directeur Technique chez Hewlett-Packard et a cofondé plusieurs start-ups dans la Silicon Valley. Il a commencé sa carrière au SRI International, où il a crée le Computer Human Interaction Center et a participé au démarrage de Nuance Communications, aujourd'hui leader mondial de la reconnaissance vocale. Luc est diplômé en mathématiques et en informatique de l'Université Pierre et Marie Curie de Paris et a obtenu un doctorat en informatique à l'Ecole Nationale Supérieure des Télécommunications de Paris. Il est également reconnu comme l'un des développeurs français les plus influents dans le monde numérique.
    2
  6. Fini la rigolade, la loi européenne sur l'intelligence artificielle vient d'entrer en vigueur, voici ce qu'elle prévoit La législation européenne sur l'intelligence artificielle est entrée en vigueur ce jeudi. L'idée est d'absorber les risques liés à l'IA, tout en positionnant l'Europe au premier plan à l'échelle mondiale. Les porteurs de la loi européenne sur l'intelligence artificielle ont pu sabrer le champagne ce jeudi 1er août 2024. Le texte, qui fixe le premier cadre juridique en la matière, vient poser des exigences et obligations concernant l'utilisation spécifique de l'IA. Le leitmotiv de l'Union européenne : que l'IA développée et utilisée dans la zone « soit digne de confiance », et qu'elle protège les droits fondamentaux des citoyens. Le cadre réglementaire vient fixer quatre niveaux de risque pour les systèmes d'IA. L'UE interdira automatiquement tout système d'IA jugé dangereux Si vous avez manqué notre précédent sujet sur la législation européenne sur l'intelligence artificielle, l'AI Act, son principal atout est d'adopter une approche basée sur les risques, au travers de quatre niveaux. Plus haut grade de dangerosité, les pratiques d'intelligence artificielle qui présente des « risques inacceptables » : ces systèmes seront purement et simplement interdits dans l'Union européenne. Il s'agit de tous les systèmes considérés comme une menace pour la sécurité, les droits des personnes ou les moyens de subsistance. Ceux qui présentent un « risque élevé » ne seront pas bannis du sol européen mais seront soumis à des obligations strictes avant leur mise sur le marché. Cela touche notamment les IA de domaines comme l'éducation, l'emploi, les infrastructures critiques (transports), la sécurité des produits, le contrôle aux frontières ou la justice. Les systèmes d'identification biométrique à distance seront scrutés de près par les autorités européennes et les entités nationales chargées de surveiller les activités dans le domaine de l'IA. Les médias devront bien faire attention à étiqueter tout contenu généré par l'intelligence artificielle Les deux autres catégories d'IA ont moins d'obstacles à franchir. Celles à « risque limité », comme les chatbots de type ChatGPT ou Claude, seront frappées d'obligations de transparence pour informer les utilisateurs de leur interaction avec l'intelligence artificielle. Les fournisseurs de contenus, comme les médias, devront s'assurer que le contenu généré par l'IA est bien identifiable, à l'aide d'étiquettes. En ce qui concerne les systèmes d'IA qui présentent un « risque minime ou nul », leur utilisation sera libre pour la majorité d'entre eux. Les filtres anti-spam et jeux vidéo ne devraient pas être trop embêtés. Il faut d'ailleurs savoir que la plupart des IA aujourd'hui utilisées dans l'Union européenne figurent dans cette catégorie. La mise en place de cet AI Act suit en tout cas un calendrier bien précis. À partir du 1er février prochain, l'UE veillera à ce que tous les systèmes d'IA interdits aient été écartés. Un peu plus tard, le 1er mai 2025, les codes de bonnes pratiques devront être prêts chez les fournisseurs de modèles d'IA à usage général. Dans tout juste un an, chaque État devra avoir créé ou désigné une autorité référente de surveillance, tandis que l'année suivante, le 1er août 2026, les États membres devront, par l'intermédiaire de leur autorité compétente, avoir mis en place un bac à sable réglementaire de l'IA.
    2
  7. 2
  8. Le pionnier de l’intelligence artificielle se dit favorable à la destruction de l’humanité Des propos choquants Lors d’une récente conférence, Geoffrey Hinton, pionnier et parrain de l’intelligence artificielle, a répondu de manière étonnante lorsqu’on lui a posé une question sur le remplacement des humains par l’IA superintelligente. Il se dit favorable au remplacement de l’Homme par l’IA. Explications. « En fait, je suis pour », a-t-il affirmé lors de cette conférence. « Mais je pense qu’il serait plus sage pour moi de dire que je suis contre. » Geoffrey Hinton a quitté l’entreprise Google au printemps dernier par crainte que l’IA ne tombe entre de mauvaises mains et a même dit regretter son rôle dans le développement de systèmes allant de ChatGPT à Stable Diffusion. LIRE AUSSI Les défis éthiques de l’intelligence artificielle Compte tenu de la tournure des évènements, il est surprenant que ce pionnier fasse une telle remarque. Et lorsque la modératrice de la conférence et historienne de la technologie du MIT, Deborah Fitzgerald, lui a demandé « d’en dire plus », les choses sont effectivement devenues plus intéressantes et complexes. « Eh bien, les gens n’aiment pas être remplacés », a-t-il répondu. Le parrain de l’IA ajoutant : « Il y a beaucoup de bons et de moins bons aspects de l’humanité. Il n’est pas clair que nous soyons la meilleure forme d’intelligence qui soit. Évidemment, du point de vue d’une personne, tout est lié aux gens. Mais il se peut qu’à un moment donné, nous considérions des choses humanistes comme des termes racistes. » Qu’en pensez-vous ? Par ailleurs, voici comment se terminera une guerre entre l’intelligence artificielle et l’humanité. LIRE AUSSI Le chef de l’ONU implore les dirigeants de ne pas donner à l’IA le contrôle des armes nucléaires « Dans 10 ans, nous aurons une super intelligence artificielle qui sera 10.000 fois plus intelligente que les humains » L’intelligence artificielle est un sujet qui revient régulièrement sur la table, et bien qu’elle apporte de nombreux avantages dans la vie de tous les jours, elle peut aussi susciter quelques craintes. Que deviendra l’humanité dans les 10 prochaines années lorsqu’elle nous surpassera ? Plusieurs modèles de Super Intelligence Artificielle dans un avenir proche Au Japon, Masayoshi Son, PDG de SoftBank, a récemment affirmé que l’intelligence artificielle dépasserait bientôt les capacités humaines. Plus précisément, il estime que dans les trois à cinq prochaines années, l’IA devrait être au moins aussi intelligente que nous. Il a ajouté que si l'intelligence artificielle n’est finalement pas beaucoup plus intelligente que les humains, « nous n'aurons pas à changer notre façon de vivre, nous n'aurons pas à changer la structure de notre mode de vie », a-t-il déclaré. « Mais lorsqu’il s’agit de super intelligence artificielle, c’est une toute autre histoire. Avec cela, vous constaterez une grande amélioration. » Son a fait valoir que l'avenir impliquera plusieurs modèles de Super Intelligence Artificielle (ASI) interagissant les uns avec les autres, comme les neurones du cerveau humain. Cela conduira à la création d’une intelligence artificielle qui sera 10 000 fois plus intelligente que n’importe quel génie humain. Qui est Son Masayoshi, fondateur de SoftBank ? Son Masayoshi est le fondateur de SoftBank. Cet homme d’affaires est principalement connu pour ses investissements audacieux et sa vision futuriste. Son parcours est marqué par des succès retentissants et des revers financiers importants, mais sa détermination et sa foi en l'innovation restent inébranlables. Son ascension débute avec SoftBank, une entreprise qu'il transforme d'un simple distributeur de logiciels en un géant des télécommunications au Japon. Son flair pour les opportunités technologiques le pousse à investir tôt dans Alibaba, le géant chinois du e-commerce, une décision qui s'avère extrêmement lucrative. Cependant, le parcours de Son n'est pas exempt de difficultés. En 2022, le Vision Fund essuie des pertes financières record, obligeant Son à adopter une approche plus prudente. Mais sa vision reste inébranlable. En 2023, alors que le fonds enregistre une nouvelle perte historique, il annonce un retour à l'offensive, convaincu par les promesses de l'intelligence artificielle. Après que le Vision Fund ait enregistré des pertes financières record en 2022, Sean a déclaré que SoftBank passerait en mode « défensif » et serait plus prudente dans ses investissements. En 2023, le Vision Fund a enregistré une nouvelle perte record, le PDG ayant déclaré peu de temps après que SoftBank passerait désormais « à l'offensive » car il était enthousiasmé par les opportunités d'investissement dans l'intelligence artificielle. Lors d'une récente prise de parole publique, Son dévoile sa vision ultime pour SoftBank : « l'évolution de l'humanité ». Il se déclare convaincu que l'entreprise a pour mission de développer une Super Intelligence Artificielle capable de résoudre les problèmes les plus urgents du monde. Masayoshi Son est une figure complexe et fascinante du monde des affaires. Son parcours est jalonné de réussites spectaculaires et d'échecs cuisants, mais sa détermination et sa foi en l'innovation restent constantes. Sa vision ambitieuse pour SoftBank et son engagement à utiliser la technologie pour améliorer le monde font de lui un personnage unique et inspirant. NEURALINK ESPÈRE IMPLANTER PLUSIEURS PATIENTS D'ICI LA FIN DE L'ANNÉE ET "PROGRESSER LE PLUS POSSIBLE" Après un premier patient en mars, la start-up d'Elon Musk espère pouvoir installer son implant neuronal sur "plus de cinq patients dès cette année, a annoncé le milliardaire ce mercredi 10 juillet lors d'une conférence. Elon Musk espère que sa start-up Neuralink pourra installer son implant neuronal amélioré sur plusieurs autres personnes d'ici la fin de l'année, après avoir réparé le problème qui avait momentanément réduit la capacité de son premier patient à bouger un curseur de souris par la pensée. "Ce n'est que maintenant que nous allons vers notre deuxième patient. Mais nous espérons, si tout se passe bien, en avoir plusieurs, plus de cinq, dès cette année", a déclaré le milliardaire ce mercredi 10 juillet lors d'une conférence en direct sur X, son réseau social. "Pour la prochaine phase de déploiement, nous voulons vraiment nous assurer que nous progressons le plus possible entre chaque patient de Neuralink", a précisé le patron de Tesla et SpaceX. Donner de "super pouvoirs" aux humains Neuralink a posé en janvier son premier implant cérébral sur un patient, Noland Arbaugh, 29 ans, tétraplégique depuis un accident de plongée. Neuralink a posé en janvier son premier implant cérébral sur un patient, Noland Arbaugh, 29 ans, tétraplégique depuis un accident de plongée. En mars, l'entreprise a diffusé une vidéo montrant Noland en train de jouer aux échecs en ligne, par la pensée, sans mentionner un incident: après l'opération, certains fils garnis d'électrodes s'étaient rétractés du cerveau. Comme ils servent à capter les signaux neuronaux, le patient avait momentanément perdu en capacité à contrôler le curseur à l'écran. Neuralink avait ensuite indiqué avoir réparé le problème, notamment en améliorant l'algorithme d'enregistrement pour le rendre plus sensible aux signaux. La start-up a passé en revue ce mercredi ses avancées et objectifs, notamment l'implantation de fils plus en profondeur dans le cerveau, afin d'améliorer les capacités des patients. Elle espère un jour parvenir à rendre la mobilité à des personnes paralysées, grâce à un deuxième implant, au niveau de la moelle épinière. Elon Musk a en outre à nouveau promis que cette technologie allait donner de "super pouvoirs" aux humains. Neuralink cherche d'ailleurs à augmenter la bande passante de la liaison entre le cerveau et l'ordinateur, car "pour la symbiose entre l'homme et l'intelligence artificielle (IA), il est très important de pouvoir communiquer à une vitesse que l'IA peut suivre", a assuré le dirigeant. Il évoque régulièrement le "risque pour notre civilisation" que représente l'IA selon lui, et espère que les implants cérébraux permettront aux humains de rivaliser avec les machines et donc de contenir le risque qu'elles prennent le contrôle.
    2
  9. Les récriminations de Meta prouvent que l'UE a eu raison de passer l'AI Act Meta et Spotify mettent en garde l'Union européenne contre une réglementation de l'intelligence artificielle générative qui pourrait la priver de la prochaine grande vague d'innovation, et lui faire perdre en souveraineté au passage. Des arguments peu convaincants à l'heure où d'autres réglementations similaires sont à l'étude, notamment en Californie. Meta s'est fendu le 23 août d'une tribune cosignée par son dirigeant Mark Zuckerberg et par Daniel Ek, le patron de Spotify. Ils y dénoncent l'approche européenne en matière de régulation de l'intelligence artificielle, qu'ils jugent "fragmentée" et "implémentée avec un manque de constance", ce qui freinerait l'innovation et limiterait les développeurs. Revendiquer le droit de piller toutes les données Meta se lamente notamment de ne pas avoir été autorisé à entraîner ses modèles d'IA générative sur les photos et vidéos partagées sur sa plateforme. "Aucune loi n'a pourtant été violée," s'étonne l'entreprise. Elle oublie de préciser qu'elle n'a pas demandé l'autorisation de ses utilisateurs, qui n'ont par ailleurs pas été informés de cet usage, ne comprennent pas sa portée potentielle et ne pouvaient pas se douter qu'il aurait lieu lorsqu'ils y ont mis leurs photos il y a parfois plus de 15 ans. Combien d'utilisateurs autoriseraient cet usage s'ils en étaient vraiment informés ? Sans doute très peu d'entre eux, et c'est pour cela que Meta n'essaie même pas de le faire. A la place, l'entreprise met en garde sur le fait qu'elle ne pourra pas publier les prochains modèles multimodaux LLama dans l'Union européenne, puisqu'elle n'a pas été autorisée à les entraîner sur les données des européens (notez que Meta ne divulgue pas les données d'entraînement de ses modèles, et qu'ils ne sont pas donc totalement ouverts). Un raisonnement fallacieux qui rappelle celui des bannières de cookies, devenues monnaie courante suite à l'entrée en vigueur du RGPD. Ces bannières ne sont pas obligatoires en tant que telles, elles sont juste la solution sur laquelle se sont reportés les sites web pour continuer de pister leurs utilisateurs. Elles sont la manifestation d'une industrie de "l'adtech" qui refuse de reconnaître ses torts passés et persiste dans ses pratiques envers et contre tout. Meta connaît bien la question, l'entreprise ayant été condamnée de si nombreuses fois pour des abus dans le pistage publicitaire et la mauvaise gestion des données personnelles de ses utilisateurs qu'on ne pourrait toutes les citer. Elle reproduit ici la même stratégie. Quelle valeur ajoutée pour l'IA générative ? Spotify est présenté par la tribune comme l'un des grands (et surtout rares) succès européens, et Daniel Ek voudrait faire croire que son investissement dans l'IA a été la clé de son succès, grâce à ses algorithmes de recommandation. En réalité, le succès de Spotify s'est construit sur le simple fait qu'il était une alternative légale et simple d'utilisation au piratage musical. On rappellera par ailleurs que les artistes n'y trouvent pas leur compte et que le business du streaming musical n'a au final pas été bénéfique à l'industrie sur le plan artistique. Mais quel rapport avec l'IA générative, me direz-vous ? Spotify aimerait sans doute produire sa propre soupe musicale générée automatiquement sur la base de son large répertoire, évidemment sans rémunérer les artistes originaux. De quoi engranger plus de profits, sans s'embarrasser de musiciens. Une vision du futur qui ne nous enthousiasme pas vraiment. La tribune présente plus généralement l'IA générative comme un facteur majeur de compétitivité, qui générera des milliers de milliards de dollars de valeur. Des estimations qui semblent pour le moment très optimistes. Il ne fait aucun doute que la technologie est impressionnante, mais ses applications concrètes restent limitées à date. Elle est surtout très coûteuse à utiliser et l'une des grandes questions du secteur en ce moment est de déterminer quand la "bulle" va éclater, et quels usages sont réellement pérennes et transformateurs. L'Europe moins souveraine en ne dépendant pas des américains ? Meta argumente que l'Europe perd en souveraineté et risque de rater le coche sur "de grands paris qui peuvent se traduire en de grandes récompenses"... parce qu'elle se priverait de ses modèles Llama en interdisant qu'ils soient entraînés sans l'accord des personnes concernées. Un raisonnement assez culotté de la part d'une entreprise américaine qui présume que toute innovation européenne se fera nécessairement sur un socle technologique qu'elle aura développé. Difficile de parler de souveraineté lorsqu'on dépend à ce point d'une puissance étrangère. La Chine en sait quelque chose. Si Meta – tout comme Microsoft et Google – investit des dizaines de milliards de dollars dans des infrastructures de calcul spécialisées, ce n'est pas par bonté d'âme mais bien parce qu'elle pense y trouver son compte. De la même manière que ces entreprises américaines sont devenues plus puissantes que jamais en s'imposant comme leaders du cloud. Meta est certes plus vertueux que ses petits camarades quant au fait qu'il ne commercialise pas d'offre de cloud d'infrastructure. C'est pour cela qu'il insiste bien sur le caractère ouvert de sa technologie. Mais il n'est pas désintéressé pour autant. Le modus operandi de la Silicon Valley est désormais bien rôdé : imposer sa technologie, puis la monétiser une fois qu'on ne peut plus s'en passer. Meta va jusqu'à dire que l'open source assure que le pouvoir n'est pas concentré sur une poignée d'acteurs, mais c'est exactement ce qui se passe avec les modèles de fondation. En menaçant de ne pas publier les siens si on ne le laisse pas faire ce qu'il veut avec les données des citoyens européens, l'entreprise montre qu'elle se considère déjà en position de force par rapport aux gouvernements de l'UE. La tribune pointe aussi du doigt l'écart entre le nombre de start-up américaines et européennes, comme si c'était un phénomène récent. Vu d'ici, on a plutôt l'impression que les start-up européennes s'en sortent mieux en 2024 qu'en 2004. Et a priori, des pépites comme Mistral AI ne s'en porteront que mieux si Meta se retire du marché unique. Autre cocasserie : les talents européens de l'IA iraient travailler hors de l'Europe... C'est sûr, nombre d'entre eux travaillent pour des entreprises américaines qui les recrutent à prix d'or. Et en particulier, Meta qui dispose d'une forte présence en France dans la recherche en IA. L'UE n'est pas la seule à vouloir encadrer l'IA Il est vrai qu'une réglementation trop stricte peut être un frein pour l'innovation. Néanmoins, Meta et ses pairs ne sont plus crédibles depuis longtemps quand ils prônent une "auto-régulation" qu'ils n'ont jamais pratiquée sérieusement, et encore moins quand ils arguent que les laisser faire ce qu'ils veulent aidera l'Europe à développer ses propres pépites technologiques. La ruée vers l'or de l'IA générative, qui s'est traduite en premier lieu par un pillage éhonté de la propriété intellectuelle (aussi bien de la littérature que des arts graphiques et désormais de l'audiovisuel), prouve que cet état d'esprit de "mieux vaut demander pardon après coup que demander la permission d'abord" prévaut toujours, avec l'assurance que les sanctions ne seront jamais aussi élevées que l'enrichissement qui en aura été retiré. Au passage, l'Union européenne n'est pas la seule à vouloir baliser ce domaine technologique. De nombreuses autres réglementations sont en projet à travers le monde. L'État de Californie planche notamment sur un projet de loi (SB 1047) pour réglementer les grands modèles d'IA, projet qui affole ces mêmes entreprises qui voudraient convaincre l'Union européenne qu'elle fait fausse route. Peut-être devraient-elles se résoudre au fait que les années fastes où elles n'avaient aucun garde fou arrivent à leur fin.
    2
  10. 2
  11. Nous vivons dans une simulation et cet ancien de la NASA veut le prouver Il y a un quart de siècle, dans Matrix, les sœurs Wachowski plaçaient Thomas Anderson, alias Neo, face à un dilemme proposé par le chef rebelle Morpheus. En optant pour une pilule rouge ou une pilule bleue, le choix lui était donné de se confronter à une vérité fondamentale (le fait que nous vivons dans une réalité simulée par la fameuse Matrice) ou de rester dans l'ignorance. Comme Neo, un autre Thomas a opté pour la pilule rouge, décidant de se confronter à cette vaste et passionnante question: sommes-nous en train de vivre dans une gigantesque simulation? Physicien ayant précédemment travaillé pour la NASA, Thomas Campbell a publié en 2017 un article dans lequel il décrit une série de cinq expériences conçues pour nous permettre d'obtenir une réponse claire à cette interrogation. L'article en question, publié par The International Journal of Quantum Foundations, a visiblement fait cogiter les scientifiques de l'université polytechnique de Californie (CalPoly), dont Futurism nous apprend qu'ils commencent à mettre en application les expériences suggérées par Thomas Campbell. Celui-ci ne s'est d'ailleurs pas contenté d'écrire pour la revue scientifique: il a également créé une organisation à but non lucratif, le Centre pour l'unification de la science et de la conscience (CUSAC), afin de contribuer au financement de la réalisation desdites expériences. Parmi les expériences proposées par le physicien, on trouve une nouvelle version de l'expérience de la double fente, réalisée pour la première fois en 1801 par Thomas Young. En résumé, l'expérience originelle consiste à créer des interférences entre deux faisceaux de lumière issus d'une même source en les faisant passer par deux minuscules trous percés dans un plan opaque. Il s'agit de montrer comment la lumière et la matière peuvent agir à la fois comme des ondes et des particules. L'hypothèse de Thomas Campbell, c'est que si on supprime le regard de l'observateur, alors les informations enregistrées au cours de ces expériences n'existent pas. En d'autres termes, cela reviendrait à affirmer qu'en l'absence de tout joueur, un jeu vidéo n'existe pas. Le physicien résume son idée en affirmant que l'univers est uniquement «participatif». L'Américain n'est évidemment pas le premier à se poser ce genre de question et à poser des hypothèses de simulation. En 2003, le philosophe suédois Nick Bostrom (qui, étrangement, ne s'appelle pas Thomas) publiait un article qui fit date, intitulé «Vivez-vous dans une simulation informatique?». Bostrom y développait l'idée suivante: si nous progressons suffisamment sur le plan technologique, nous finirons probablement par simuler nos ancêtres… Qui eux-mêmes finiront par progresser suffisamment pour simuler les leurs. Et ainsi de suite. Or, suivant cette idée, il n'y a aucune raison pour que nous ne fassions pas, nous aussi, partie de l'une de ces couches successives de réalité simulée. Les points de vue de Campbell et Bostrom divergent sur au moins un point: contrairement à son prédécesseur scandinave, le physicien américain affirme que notre «conscience n'est pas un produit de la simulation: elle est fondamentale pour la réalité». Et en profite pour souligner que selon lui, la réalisation de ses cinq expériences pourrait «remettre en question la compréhension conventionnelle de la réalité et découvrir des liens profonds entre la conscience et le cosmos».
    2
  12. 2
  13. Marc-Antoine Delacroix L'intelligence Artificielle: Une Menace pour l'Humanité? Aperçu du livre Résumé : L'intelligence artificielle : une révolution aux conséquences incertaines. Dans cet ouvrage éclairant, Marc-Antoine Delacroix explore l'univers fascinant mais ambigu de l'intelligence artificielle. Il nous entraîne à la découverte des innovations spectaculaires dans le domaine, mais soulève également les risques et les défis éthiques de cette technologie en plein essor. Le problème traité : Bien que prometteuse, l'intelligence artificielle pourrait échapper à tout contrôle et menacer l'humanité si son développement n'était pas encadré. L'auteur analyse ce danger et appelle à une prise de conscience collective. Idée centrale du livre : Ce livre plaide pour une approche nuancée : ni technophobe, ni béatement technophile. Selon lui, il nous appartient collectivement d'orienter l'IA de façon à ce qu'elle serve le bien commun plutôt que des intérêts privés. La solution proposée : L'ouvrage fournit des pistes tangibles pour construire une "IA éthique et inclusive", soucieuse des droits humains et du bien-être de tous. L'auteur esquisse les bases d'une gouvernance internationale et pluraliste de l'IA. Extraits du livre : "Il serait dangereux de diaboliser a priori l'intelligence artificielle et les bouleversements qu'elle initie. Mais il le serait tout autant de fermer les yeux sur les risques inhérents à toute innovation disruptive." "Une chose est sûre : le statu quo n'est plus une option. Face à la montée en puissance de l'IA, notre responsabilité collective est de nous emparer de la question et de dessiner – ensemble – l'avenir souhaitable." Conseils pratiques : 1. Éducation et Sensibilisation : Comprendre les bases de l'IA et ses implications. 2. Promouvoir une Réglementation Équilibrée : Soutenir des politiques qui encouragent l'innovation tout en protégeant la société. 3. Collaboration Internationale : Travailler ensemble pour créer des normes mondiales. 4. Éthique dans le Développement de l'IA : Prioriser l'éthique dans la conception et l'implémentation de l'IA. 5. Préparation au Changement : Se préparer aux transformations du marché du travail et de la société. Les mots les plus utilisés du livre:: 1. Intelligence Artificielle 2. IA et société 3. Impact de l'IA 4. Éthique de l'IA 5. Futur de l'IA 6. Technologie et humanité 7. Risques de l'IA 8. IA et éthique 9. Développement de l'IA 10. IA et sécurité 11. Intelligence Artificielle avancée 12. IA et vie privée 13. IA et emploi 14. Intelligence Artificielle et éthique 15. singularité technologique 16. société numérique 17. Intelligence artificielle supérieure 18. Changement climatique 19. Intelligence artificielle et emploi 20. Intelligence artificielle et changement climatique 21. Intelligence artificielle et pauvreté 22. Les risques potentiels de l'intelligence artificielle 23. Les avantages potentiels de l'intelligence artificielle 24. Comment développer et utiliser l'intelligence artificielle de manière éthique
    2
  14. 2
  15. Intelligence artificielle : Les robots vont-ils détruire nos emplois ? Dans l'économie industrielle, les biens et services étaient produits par combinaison de la main d'oeuvre et du capital. Cependant, l'avancée dans le domaine de l'intelligence artificielle et l'automatisation des tâches par les robots a entraîné un déclin de la part de la main d'oeuvre dans ce processus. Le développement de l'IA les robots vont t-ils détruire nos emplois ? Eléments de réponse. Pour beaucoup, la robotisation - le remplacement des hommes par les machines est effrayant. Ces personnes s’inquiètent de l’impact négatif de l’automatisation des taches sur la société. Cependant, cette crainte est non-fondée, parce que chaque fois qu’un humain est remplacé par une machine, la société dans son ensemble devient plus riche. Oui, vous avez bien lu ! Chaque fois qu’un robot remplace un être humain, la société devient plus riche ! Illustrons cela à l’aide d’un exemple très simple. Supposons une île auto-suffisante habitée par 10 personnes qui vivent de la pêche d’un bateau collectif. Les 10 personnes pêchent chacune à l’aide d’une canne à pêche. Supposons maintenant qu’une innovation technologique en matière de pêche fasse son apparition sur l’île : le filet de pêche. Dorénavant, à la place d’une canne, un large filet est utilisé. Grâce à ce filet, désormais 2 personnes suffisent pour pêcher autant de poissons que 8 cannes à pêche : une personne pilote le bateau et l’autre jette le filet. En surface, il semble effectivement que le chômage ait augmenté de 0 à 80% avec l’arrivée du filet de pêche, puisque 8 personnes sur 10 sont maintenant sans emploi. Cependant, bien que ces 8 personnes sont chômage, la société dans son ensemble est toujours aussi riche qu’avant, puisqu’elle reçoit toujours la même quantité de poissons que celle qui était pêchée par ces 8 personnes. C’est exactement ce qui arrive chaque fois qu’un robot, une machine ou une innovation technologique majeur remplace ou automatise le travail d’un humain. A court terme, la société est toujours aussi riche parce qu’elle reçoit toujours le produit du travail de l’humain qui a été remplacé par le robot, et dans le long terme, elle sera même plus riche lorsque celui-ci trouvera un nouveau travail. La richesse accrue par automatisation et élimination des tâches les moins productives Maintenant la question qui se pose est comment gérer le problème de chômage créé par l’automatisation du travail ? Dans l’exemple de notre île, le gouvernement a deux options : soit il taxe à 80% les 2 personnes qui continuent la pêche et redistribue entièrement ces 80% aux 8 personnes qui sont chômage. Soit il aide les 8 personnes en chômage à trouver de nouveaux emplois. Malheureusement, la première option est celle qui appliquée aujourd’hui au problème de la robotisation…. Ce type d’accroissement de productivité massive (2 personnes faisant le travail de 10) est ce qui arrive dans l’économie numérique. La majorité des emplois même ceux de cadre que nous avons vont inévitablement finir automatisés demain. Chaque fois qu’un travail salarié existe quelque part, gardez à l’esprit que ce n’est qu’une question de temps avant qu’un entrepreneur talentueux trouve le moyen de l’automatiser (Uber, Airbnb, McDonald, ça vous rappelle quelque chose n’est-ce pas ?). Dans l’économie numérique dans laquelle nous sommes, la richesse est accrue par automatisation et élimination des tâches les moins productives et création d’emplois plus productifs. A mesure que l’innovation technologique progresse, des emplois sont supprimés, le chômage augmente mais le PIB reste constant parce que la société continue de recevoir les produits et services des emplois détruits par le biais de la technologie. Par contre, le PIB va drastiquement augmenter lorsque l’employé remplacé trouvera un nouvel emploi. Ceci est le nouveau processus économique, technologique ou alchimique nous avons envie de dire, par lequel la richesse est créé dans l’ère numérique. Aussi mauvais que le chômage puisse paraître, il n’est que la première étape du processus alchimique conduisant à la création de richesse. Le dilemme du chômage paradoxal Le problème - ou le dilemme auquel fait face la société aujourd’hui - est le cycle de chômage paradoxal par lequel plus de richesse est créé dans la société : chaque année, alors que nous emplois sont détruits ou automatisés par l’Intelligence artificielle ou autre technologie efficiente, on constate une forte disparité grandissante dans notre population : l’employé qui perd son emploi est de moins en moins celui qui en trouve. L’intelligence artificielle semble créer une classe d’anciens employés qui manque les compétences nécessaires pour décrocher les nouveaux emplois créés, et une autre classe d’employés dont les opportunités sont sans limites. Chief Digital Officer, Data scientist, Consultant Big Data, Growth Hacker, sont autant de métiers créés par l’évolution technologique qui ne sont pas nécessairement à la portée d’anciens employés. De l’autre côté, dans l’industrie automobile, si vous étiez un mécanicien expérimenté dans la réparation des carburateurs, vous seriez expulsés du marché lorsque ceux-ci étaient progressivement remplacés par les injecteurs de carburant. Le même raisonnement s’applique lorsque les tableaux de bord mécaniques des véhicules étaient progressivement remplacés par des tableaux de bord électroniques, etc. Clairement, les technologies évoluent tellement vite que mettre à jour ses compétences par rapport à leur évolution est inutile. Que faire lorsque votre emploi actuel sera obsolète demain à cause de l’automatisation par un robot ? Tout d’abord, la solution ne consiste pas à devenir un spécialiste. Lorsque vous vous spécialisez, surtout technologiquement, vous prenez le risque d’être obsolète à peine quelques mois ou années plus tard. Le temps moyen de péremption d’une technologie aujourd’hui est estimé à 6 mois. Si vous étudiez bien les entreprises qui ont mis les clés sous le paillasson comme Kodak ou les maisons de disques, vous vous rendrez compte que la spécialisation, qui a pendant longtemps été leur point fort est devenu avec l’évolution technologique leur point faible. Kodak n’a pas pu s’adapter au changement de la pellicule vers le numérique, Nokia n’a pas su s’adapter des téléphones à claviers aux smartphones. Les fabricants de cassettes n’ont pas su s’adapter à l’arrivée de CD, etc. La solution consiste à développer une compétence générique, une compétence qui vous permettra d’acquérir de nouvelles compétences à mesure que la technologie progresse. Par exemple, l’apprentissage d’une langue. La langue est une compétence générique car elle vous permet de développer d’autres compétences. Au lieu d’étudier Scala, étudiez la programmation fonctionnelle, au lieu d’étudier Spark, apprenez la programmation distribuée, au lieu d’apprendre Word 2016, apprenez le traitement de texte. L’idée est d’éviter de fonder votre compétence sur la spécialisation sur une technologie et ainsi éviter de « vous retrouver avec des compétences qui ne servent plus à rien » comme l’a si bien dit Henri Steele Commager. Ce type de compétence générique qui vous permet d’acquérir d’autres compétences est appelé par les économistes les compétences de bases. Nous aimons le qualifier par compétences de long terme. Alors, à la question : « les robots vont t’ils détruire nos emplois », notre réponse est oui ! Mais paradoxalement, ils nous rendront proportionnellement riches et bien plus si nous avons les compétences de base pour saisir les nouvelles opportunités qu’ils créeront.
    2
  16. 2
  17. 2
  18. 2
  19. L’IA Act : ce que vous devez savoir sur ses implications pour votre vie privée et sa réglementation rigoureuse Le 1er août 2024 marque une date historique avec l'entrée en vigueur de l'IA Act européen, après trois ans de délibérations. Cette législation vise à réguler et contrôler les usages de l’intelligence artificielle au sein de l’Union européenne. L’IA Act est conçu pour protéger les utilisateurs tout en établissant un cadre clair pour les développeurs et les entreprises utilisant des technologies basées sur l’intelligence artificielle. Quelles sont les principales mesures et comment affecteront-elles notre quotidien ? Découvrons-le ensemble. Évaluer le niveau de risque L’IA Act classe les technologies de l’intelligence artificielle en fonction de leur niveau de risque. Les technologies à « risque inacceptable » comme les systèmes de notation sociale sont formellement interdites. En revanche, les technologies à « risque minimal » ne sont pas réglementées. Les IA à « haut risque » seront soumises à des restrictions strictes pour garantir la protection des utilisateurs. Pour les IA à « risques limités », une réglementation plus souple est en place, mais la transparence reste essentielle. Les utilisateurs finaux devront être informés lorsqu’ils interagissent avec un robot et donner leur consentement explicite pour l’utilisation de leurs données. Cela inclut les données utilisées pour entraîner des chatbots ou des générateurs d’images. Responsabiliser les fournisseurs et les déployeurs L’IA Act distingue les « fournisseurs » des « déployeurs ». Les fournisseurs de modèles d’IA doivent fournir une documentation technique et des instructions d’utilisation claires, tout en respectant les droits d’auteurs. Les déployeurs, quant à eux, intègrent ces modèles dans leurs outils. Les fournisseurs sont soumis à des obligations plus strictes, notamment des évaluations de modèles et des tests contradictoires. Ils doivent signaler les incidents graves et garantir la cybersécurité des utilisateurs finaux. Pour surveiller la conformité, l’Office AI a été créé. Cet organe de contrôle peut évaluer les risques liés au développement de l’IA et commander des rapports d’experts. Un calendrier précis Le texte a été publié ce 1er août au Journal officiel. Le site officiel de l’IA Act propose un outil de « vérificateur de conformité » pour déterminer si un système d’IA doit se conformer à la nouvelle législation. Plusieurs échéances sont prévues : interdiction des systèmes d’IA « à risque inacceptable » en février 2025, entrée en vigueur des réglementations pour les modèles d’IA à usage général en août 2025, et application complète de la loi en été 2026. Le texte est amené à évoluer avec les avancées technologiques, notamment dans le secteur du jeu vidéo. Les niveaux de risques pourraient être ajustés en fonction des nouvelles applications de l’IA. Les IA à haut risque seront strictement réglementées pour protéger la vie privée. Les fournisseurs doivent fournir une documentation technique et respecter les droits d’auteurs. Un organe de contrôle, l’Office AI, surveillera la conformité des développeurs. Le calendrier prévoit plusieurs échéances jusqu’à l’application complète de la loi en 2026. Face aux avancées rapides de l’intelligence artificielle, l’IA Act représente un tournant majeur pour l’Europe. Comment cette législation influencera-t-elle notre quotidien et les technologies de demain ?
    2
  20. Intelligence artificielle : OpenAI traverse une période d'incertitudes au pire moment Il y a du remous à la tête d'OpenAI, au point que le dirigeant Sam Altman devient le dernier des onze cofondateurs encore à la barre de la startup. Ce remaniement à marche forcée de la direction de l'entreprise intervient à un moment peu fortuit : une nouvelle génération de modèles d'intelligence artificielle est attendue d'ici la fin d'année, et OpenAI doit prouver avec GPT-Next qu'il conserve une véritable avance sur ses concurrents. Que se passe-t-il chez OpenAI ? Depuis quelques mois, la startup star de l'intelligence artificielle subit une fuite de ses dirigeants. Dernier départ en date : le cofondateur John Schulman, débauché par l'entreprise rivale, Anthropic. Le chercheur avait pris la tête de la division dédiée à la sécurité des IA, suite à la démission très médiatisée de deux autres cofondateurs d'OpenAI, Ilya Sutskever et Jan Leike (ce dernier ayant également rejoint Anthropic). Quelques jours plus tard, Gregg Brockman, président et cofondateur de la startup, a quant à lui annoncé une prise de congés jusqu'à la fin de l'année. « La mission est loin d'être accomplie : nous devons toujours construire une AGI [une intelligence artificielle aussi puissante que le cerveau humain, NDLR] sûre », a-t-il rassuré sur X. Ce retrait du numéro 2 d'OpenAI tombe à un tournant de son histoire : l'avance de la startup sur ses concurrents, à commencer par Google, n'est plus que négligeable, tandis que son investisseurs quasi exclusif, Microsoft, prend de plus en plus ses distances.
    2
  21. Chine : ce robot humanoïde open source se prépare à envahir le marché Un centre d’innovation en Chine vient de dévoiler Tiangong, son tout nouveau robot humanoïde. Au-delà de ses attributs physiques, cette machine a surtout le mérite d’être open source, un détail important qui lui confère un certain potentiel de commercialisation à grande échelle. Quelles sont ses caractéristiques ? Dans le domaine de la robotique, la Chine innove très régulièrement. Rappelons tout de même qu’en 2023, un ministère chinois avait appelé les industries du pays à évoluer rapidement en matière de robots humanoïdes intelligents. L’objectif ? Permettre à la Chine d’assurer une production massive dès 2025 et devenir leader du marché d’ici à 2030. Or, il semble que l’Humanoid Robot Innovation Center, basé à Pékin, a parfaitement reçu le message. Comme l’explique le quotidien local Globat Times dans un article du 27 avril 2024, ce centre vient en effet de dévoiler Tiangong, son nouveau robot humanoïde intelligent. Mesurant 1,63 m pour une masse de 43 kg, le robot est équipé d’actionneurs entièrement électriques qui permettent de faire bouger la tête, les bras et les jambes. Évoquons également le retour de force assuré par des capteurs de force à six axes. Par ailleurs, la machine embarque des caméras et capteurs 3D ainsi que d’autres capteurs dont la fonction est encore inconnue. Le robot Tiangong a d’autres caractéristiques intéressantes, notamment une capacité de traitement de 550 000 milliards d’opérations par seconde. Capable de se déplacer à une vitesse de 6 km/h, la machine serait le tout premier robot humanoïde de taille normale qui fonctionne uniquement à l’électricité. Un robot open source À visionner en fin d’article, une vidéo publiée par la chaîne chinoise CCTV permet d’observer le robot Tiangong se déplacer de manière autonome (en partie). Néanmoins, l’Humanoid Robot Innovation Center ne semble pas avoir dévoilé l’entièreté des détails concernant le fonctionnement de la machine. Sa véritable force semble plutôt se trouver du côté de son caractère open source. Le code source de la machine étant librement disponible, des entreprises, laboratoires et autres experts peuvent ainsi utiliser le robot Tiangong comme base de développement. Or, cela pourrait être un véritable soutien pouvant déboucher sur une commercialisation à grande échelle, justement selon la volonté de Pékin. Rappelons que la Chine s’était déjà distinguée en mars 2024 par le biais de la société Unitree Robotics et son H1, un robot bipède prometteur. Ce dernier avait battu un record de vitesse en courant à plus de 11 km/h, en ligne droite, mais également en montant et descendant des escaliers. la présentation de Tiangong, le nouveau robot humanoïde open source de l’Humanoid Robot Innovation Center en Chine, marque une avancée significative dans le domaine de la robotique. Doté de capacités techniques impressionnantes et conçu pour être accessible à tous grâce à son code source libre, Tiangong incarne le potentiel de démocratisation et de collaboration dans l’innovation robotique. Cette approche open source pourrait non seulement accélérer le développement de nouvelles applications et technologies, mais aussi positionner la Chine en leader mondial de la robotique humanoïde, en ligne avec ses ambitions pour 2030. En ouvrant la voie à une commercialisation à grande échelle, Tiangong pourrait transformer divers secteurs, de la recherche scientifique à l’industrie, tout en stimulant l’économie technologique du pays.
    2
  22. 2
  23. Les actions Nvidia chutent de 10 % avant la mise sur le marché, dans le contexte d'un effondrement du marché boursier mondial Le cours de l'action de Nvidia (NASDAQ:NVDA) a connu une baisse significative lors des négociations de prémarché lundi, dans le cadre d'une baisse plus générale du marché boursier. Cette baisse est due aux craintes que la Réserve fédérale n'agisse pas assez rapidement pour soutenir l'économie des États-Unis qui s'affaiblit. La valeur de l'action de la société a baissé d'environ 10 % avant l'ouverture du marché, atteignant 96,62 dollars. Si cette baisse se poursuit jusqu'à l'heure d'ouverture officielle du marché, environ 260 milliards de dollars pourraient être déduits de la capitalisation boursière de Nvidia, qui s'élevait à 2,64 billions de dollars à la fin de la journée de vendredi. Cela représenterait également le prix le plus bas pour NVDA depuis le mois de mai de l'année 2024. Les contrats à terme sur l'indice Nasdaq 100 ont diminué d'environ 4,4 %, peu de temps après que l'indice ait subi un ajustement à la baisse significatif vendredi. Les contrats sur l'indice S&P 500 ont chuté de plus de 2,8 %, tandis que l'indice Stoxx 600 en Europe a reculé de plus de 2,5 %, enregistrant ainsi sa plus forte perte sur trois jours depuis juin 2022. Au Japon, les indices Topix et Nikkei ont tous deux enregistré des baisses supérieures à 12 %. L'indice boursier principal de Taïwan a enregistré sa plus forte perte en une seule journée et un indice global des actions asiatiques a connu sa plus forte baisse depuis plus de quatre ans. La vente massive d'actions a été provoquée par les dernières données de vendredi, qui ont montré des signes de détérioration du marché de l'emploi aux États-Unis, activant un indicateur qui précède souvent une récession. Parmi les autres facteurs d'inquiétude, les valeurs boursières élevées attribuées à l'essor récent de la technologie de l'intelligence artificielle et l'escalade des conflits au Moyen-Orient ont également joué un rôle dans l'approche prudente des investisseurs. La chute mondiale des cours boursiers reflète les appréhensions concernant l'avenir de l'économie, les incertitudes géopolitiques et les doutes quant à la capacité des investissements substantiels dans l'intelligence artificielle à répondre aux attentes élevées placées en eux. Les analystes de Goldman Sachs Group Inc. ont augmenté la probabilité estimée d'une récession aux États-Unis au cours de l'année prochaine à 25 %, contre 15 % auparavant, bien qu'ils aient mentionné qu'il existe encore des facteurs qui suggèrent qu'une grave récession économique pourrait ne pas se produire. Les analystes de JPMorgan ont émis des prévisions plus négatives, estimant à 50 % la probabilité d'un ralentissement économique. Cet article a été créé et traduit avec l'aide de l'intelligence artificielle et a été revu par un rédacteur. Pour plus de détails, veuillez consulter nos conditions générales. NVDA : ce leader éternel est-il confronté à de nouveaux défis ? Avec des valorisations qui montent en flèche en 2024, de nombreux investisseurs sont mal à l'aise à l'idée de placer davantage d'argent dans les actions. Vous ne savez pas où investir ? Accédez à nos portefeuilles éprouvés et découvrez des opportunités à fort potentiel avant qu’elles ne décollent.
    2
  24. 2