Episodes

Tuesday Sep 26, 2023
Tuesday Sep 26, 2023
Ne rêvons pas, il va être très difficile de décarboner significativement notre monde avant très longtemps. Pensez au shipping, l'aviation, la chaleur industrielle, la gestion de l'intermittence intersaisonnière des énergies renouvelables...
Mais tout n'est pas perdu : au rythme où les prix de l'énergie solaire photovoltaïque baissent, dès l'année prochaine dans les endroits les plus propices, et bientôt presque partout, il sera possible, avec la machine de Terraform Industries, de produire du méthane de synthèse grâce au CO2 de l'atmopshère à un coût plus bas que le méthane fossile. Ce e-méthane a des émissions nettes nulles et est donc neutre pour notre atmopshère !
Il ne s'agit là rien de moins qu'une révolution profonde dans l'activité humaine, en gestation, dont très peu ont déjà conscience. C'est la solution qu'on attendait pour assurer notre transition énergétique sans avoir à choisir entre pauvreté et sobriété.
Dans ce podcast, je m'entretiens avec Lucie Nurdin, l'ingénieure chimiste en chef de l'équipe. Lucie va tout nous raconter ! Bienvenue aux avant-postes de la lutte contre le réchauffement climatique. Vous l'aurez entendue ici en premier :)
Au programme :
- 00:00:30 : le parcours de Lucie à l'ENS Ulm, le PhD à l'université de Calgary, les études postdoc à Caltech et l'intérêt au départ pour les carburants alternatifs
- 00:04:20 : la prise de conscience de l'impasse à court et moyen terme des carburants azotés comme l'ammoniac
- 00:07:40 : pourquoi Lucie visait l'ENS et ensuite après le PhD Caltech et pas une autre université
- 00:10:00 : pourquoi tout miser sur l'hydrogène est une impasse également
- 00:14:40 : pourquoi faire du méthane avec de l'électricité solaire photovoltaïque ? pourquoi ne pas distribuer et consommer directement cette électricité propre ?
- 00:19:20 : pourquoi l'humanité va continuer à utiliser les énergies hydrocarbures pendant encore très longtemps, d'où l'opportunité de les synthétiser avec l'eau et le CO2 de l'atmopshère (émissions nettes nulles) plutôt que de les extraire du sol (émissions positives)
- 00:22:20 : la chute vertigineuse du coût de l'électricité solaire photovoltaïque qui va bientôt permettre de produire du méthane de synthèse neutre en carbone à un prix compétitif face au gaz fossile !
- 00:25:20 : le genèse de Terraform Industries et le background du fondateur Casey Handmer
- 00:28:05 : comment fonctionne leur machine Mark One qui entre en production en 2024, expliqué à un enfant de 5 ans
- 00:31:30 : la martingale gagnante de Terraform Industries : intégrer des systèmes rodés utilisant des matériaux bon marché pour avoir une machine la moins chère possible, qui pourra être rentabilisée très rapidement
- 00:38:20 : la vision du fondateur pour faire scaler les opérations au plus vite, penser aux machines, mais aussi aux machines qui cosntruisent les machienes
- 00:39:10 : l'approche " from first principles" à la Musk du fondateur Casey Handmer
- 00:40:20 : le lien entre ces technologies et l'exploration humaine de Mars
- 00:42:50 : comme la loi de Moore à permis à Bill Gates de faire Microsoft, comme la chute du coût des batteries électriques ont rendu Tesla possible, la chute du coût de l'électricité solaire photovoltaïque va permettre la révolution portée par Terraform Industeries : remplacer les énergies fossiles par des hydrocarbures de synthèse utilisant le CO2 de l'atmosphère
- 00:44:07 : les 3 réponses à l'objection des fuites de méthane
- 00:51:00 : le facteur limitant numéro 1 pour Terraform Industries et pourquoi on a de la marge
- 00:55:30 : ce qui va aider : tous les métaux et le verre peuvent être recyclés; et comment on peut faire du kérosène pour les avions et d'autres hydrocarbures à partir du méthane
- 00:59:28 : le trop grand coût pour encore longtemps de capturer et stocker le carbone comme moyen de dépolluer l'atmosphère : à défaut de pouvoir financer facilement des émissions négatives, il faut au moins viser des émissions nettes nulles, ce que permet la synthèse de méthane grâce au CO2 de l'atmopshère
- 01:02:25 : qu'est-ce que ce serait le succès dans 10 ans pour terraform Industries ?
- 01:05:45 : la réalité d'un monde où il n'y a pas assez d'énergie bon marché pour se chauffer par exemple, la difficulté à déployer des pompes à chaleur assez rapidement
- 01:07:30 : quid de la concurrence ?
- 01:10:00 : quid du bio-méthane ?
- 01:11:43 : comment aider Terraform Industries ? quels profils vont être recrutés ?
- 01:13:24 : le profil particulier du fondateur Casey Handmer
- 01:14:50 : le "château" de Terraform industries en Californie est ouvert aux visites !
- 01:15:50 : 10 ans de réflexion sur les énergies renouvelables ont amené Lucie là où elle est aujourd'hui, dans l'équipe de Terraform Industries
- Leur site : https://terraformindustries.com/
- Leur premier produit qui entre en production l'année prochaine : https://terraformindustries.wordpress.com/2023/06/26/the-terraformer-mark-one/
- Leur dernier livre blanc (janvier 2023) : https://terraformindustries.wordpress.com/2023/01/09/terraform-industries-whitepaper-2-0/
- Le blog du fondateur Casey Handmer avec des articles passionnant sur l'énergie et l'exploration spatiale : https://caseyhandmer.wordpress.com/
- Leur compte twitter/x : https://twitter.com/TerraformIndies
- Le compte twitter/x de Lucie Nurdin : https://twitter.com/lucie_nurdin
- Le compte twitter du fondateur Casey Handmer : https://twitter.com/CJHandmer
- Mon article qui détaille leur projet : N’en déplaise à Jean-Marc Jancovici, l’abondance énergétique neutre en carbone dès 2050, c’est possible !
- Ma newsletter Parlons Futur : une fois par semaine au plus, une sélection de news, mêlant sources anglophones et francophones, résumées en bullet points sur des sujets tech 🤖, science 🔬, éco 💰, géopolitique 🌏 et défense ⚔️ pour mieux appréhender le futur 🔮.
- La liste de mes plus de 50 essais à ce jour dont certains publiés dans le Journal du Net, Les Echos (ici), l'Express.
- Me retrouver sur Twitter : twitter.com/thomasjestin
- Suivez le podcast Parlons Futur pour recevoir les prochains entretiens, voici celui avec Jacques Attali par exemple
- Plus d'infos sur moi
- Me contacter : parlonsfutur@substack.com

Tuesday Sep 26, 2023

Thursday Apr 13, 2023
Après le texte et ChatGPT, la vidéo fera passer un nouveau cap à l’IA
Thursday Apr 13, 2023
Thursday Apr 13, 2023

Thursday Apr 13, 2023

Thursday Apr 06, 2023
Approximations et omissions du dernier C dans l’Air sur l’IA
Thursday Apr 06, 2023
Thursday Apr 06, 2023
Attention : je diffuse des extraits de C dans l'Air et les commente ensuite, les extraits sont difficilement audibles malheureusement, mais il suffit de les passer, car je les résume ensuite avant de les commenter, désolé, je m'y prendrai mieux la prochaine fois.
Ressources utiles discutées dans le podcast :
Lien vers l'épisode de C dans l'Air en question, avec notamment comme invités :
- Gaspard Koenig, philosophe, auteur de "La fin de l’individu : voyage d’un philosophe au pays de l’intelligence artificielle"
- Laurence Devillers, professeur en intelligence artificielle : Université La Sorbonne, experte en interaction humain / machine, auteur de "Les robots "émotionnels"
La pétition en question, signée notamment par Yoshua Bengio, un des 3 parrains du deeplearning qui est derrière les dernières grandes avancées en IA. Yoshua Bengio est le seul des 3 à ne pas avoir rejoint le privé (à la différene de ses aînés Yann LeCun chez Meta et Geoffrey Hinton chez Google Brain)
La pétition s'interroge "Should we let machines flood our information channels with propaganda and untruth? Should we automate away all the jobs, including the fulfilling ones? Should we develop nonhuman minds that might eventually outnumber, outsmart, obsolete and replace us? Should we risk loss of control of our civilization?", considérant ainsi des risques de court terme, moyen terme et long terme.
La position la plus radicales sur les risques liés à l'IA, celle d'Eliezer Yudkowsky :
"Many researchers steeped in these issues, including myself, expect that the most likely result of building a superhumanly smart AI, under anything remotely like the current circumstances, is that literally everyone on Earth will die. Not as in “maybe possibly some remote chance,” but as in “that is the obvious thing that would happen.” (tribune dans le magazine Time Pausing AI Developments Isn't Enough. We Need to Shut it All Down, écouter aussi mon précédent épisode de podcast)
Chimp beats students at computer game (article dans le magazine Nature, en vidéo sur Youtube)
Why Are Our Brains Shrinking? (University of San Francisco)
"over the last 20,000 years alone, human brains have shrunk from 1,500 cubic centimeters (cc) to 1,350 cc, roughly the size of a tennis ball."
Les 4 grandes positions face à l'IA pour simplifier
- Ceux qui ont signé cette pétition (Gary Marcus et Yoshua Bengio notamment) ou qui soutiennent les mêmes positions sans avoir pour autant signé ou soutenu la pétition, s'inquiétant des risques de court, moyen et long terme (notamment parmi ceux qui n'ont pas signé : Geoffrey Hinton, le plus anciens des 3 parrains de l'IA ; Demis Hassabis, CEO de Deepmind, l'autre labo de pointe sur l'IA avec openAI ; une partie des employés d'OpenAI en off, et même Sam Altman CEO d'OpenAI sur les enjeux de moyen et long terme)
- Ceux qui ont refusé de signer cette pétition car elles n'insistent pas assez sur les risques de court terme (en anglais: fairness, algorithmic bias, accountability, transparency, inequality, cost to the environment, disinformation, cybercrime) et trop sur les risques de long terme relevant de la science fiction (notamment les chercheuses en AI et sciences du langage Emily M. Bender, Timnit Gebru, Angelina McMillan-Major, and Margaret Mitchell)
- Ceux qui refusent de signer car ils considèrent que c'est en développant l'IA qu'on trouvera aussi les solutions à ses problèmes, et que les risques encourus ne sont pas encore assez clairs, l'IA étant encore très primitive (notamment Yann LeCun, et OpenAI pour l'instant)
- Enfin les plus radicaux comme Eliezer Yudkowsky qui refusent de signer cette pétition car ils pensent qu'elle ne vas pas assez loin et minimise le risque existentiel.

Thursday Mar 30, 2023
Thursday Mar 30, 2023
- Eliezer Yudkowsky est sans doute la figure la plus connue et respectée depuis 20 ans dans le milieu de la recherche sur les façons d'aligner l'IA sur nos valeurs humaines
- Wikipedia : Eliezer Yudkowsky is an American decision theory and artificial intelligence (AI) researcher and writer. He is a co-founder and research fellow at the Machine Intelligence Research Institute (MIRI), a private research nonprofit based in Berkeley, California. His work on the prospect of a runaway intelligence explosion was an influence on Nick Bostrom's Superintelligence: Paths, Dangers, Strategies.
- Yudkowsky's views on the safety challenges posed by future generations of AI systems are discussed in the undergraduate textbook in AI, Stuart Russell and Peter Norvig's Artificial Intelligence: A Modern Approach.
- Eliezer Yudkowsky a livré il y a quelques semaines un entretien de près de 2 heures durant lesquelles il a partagé et expliqué sa conviction profonde: "nous allons tous mourir des mains d'une super intelligence artificielle", se montrant plus résigné que jamais, mais disant malgré tout vouloir "fight until the end with dignity"
- Eliezer Yudkowsky s'est dit d'abord surpris par le rythme des progrès en IA ces dernières années, à ses yeux, il est très probable qu'on parvienne à développer une super IA, plus capable que tous les êtres humains réunis à un moment ou un autre ce siècle-ci ("3 ans, 15 ans, plus ? Difficile de savoir...")
- Ses travaux depuis 20 ans l'on conduit à un constat sans appel : nous ne savons pas comment programmer une super IA pour être certain qu'elle ne nous nuise pas, et ne sommes pas près de le faire, c'est une tâche éminemment compliquée et sans doute impossible, qui demanderait qu'on y consacre des ressources extraordinaires, et il est trop tard pour cela
- C'est tout l'inverse qui se passe selon lui, les meilleurs labos en IA foncent tête baissée, leurs précautions sont bien insuffisantes et principalement de façade
- L'actualité semble lui donner raison : "Microsoft got rid of its entire company division devoted to AI "ethics and society" during its January layoffs" "Most of their 30-person staff was reassigned way back in October, leaving just seven employees to manage the department." "Months later, though, they were all dismissed, along with the division — right as the company announced its mammoth $10 billion investment in OpenAI." (source)
- à noter toute fois que Sam Altman, CEO d'OpenAI, écrivait récemment : "Some people in the AI field think the risks of AGI (and successor systems) are fictitious; we would be delighted if they turn out to be right, but we are going to operate as if these risks are existential.", linking to that article AI Could Defeat All Of Us Combined
- Eliezer Yudkowsky a eu un espoir en 2015 quand il a participé à la grande conférence sur les risques de l'IA organisée par Elon Musk, rassemblant des experts du sujet comme Stuart Russel, Demis Hassabis (co-fondateur de DeepMind en 2014), Ilya Sutskever et bien d'autres.
- Mais il a très vite déchanté, la conférence a accouché du pire des résultats à ses yeux : la création d'OpenAI peu après (par Ilya Sutskever, Sam Altman, Elon Musk, Peter Thiel et d'autres)
- Au lieu de freiner le développement de l'IA et d'essayer de résoudre la question de son alignement avec "nos valeurs", OpenAI cherche à accélérer les capacités de l'IA autant que possible, en reléguant selon lui au second plan et avec insincérité les efforts sur la sécurité, comme dit Sam Altman, CEO d'OpenAI, "ma philosophie a toujours été de scaler autant que possible et de voir ce qui se passe"
- Eliezer Yudkowsky conclut que les labos les plus en pointe sur l'IA, ivres de leur pouvoirs démiurgiques naissants et en pleine concurrence, nous emmènent tout droit vers la catastrophe, tandis que les politiques, dépassés, n'ont pas saisi le caractère existentiel du risque. La cause est perdue à ses yeux.
- Il explique qu'une super IA sera très vite si supérieure à nous dans tous les domaines cognitifs que nous ne pourrons pas anticiper ce qu'elle fera.
- Une telle IA ni ne nous aimera ni ne nous détestera, mais nous sera indifférente, comme nous pouvons l'être vis à vis des fourmis. Car encore une fois nous n'avons aucune idée quant à comment la programmer pour être "gentille", en quelques mots :
- soit car on est trop spécifique dans nos règles, et la super IA trouvera une faille, car il est impossible pour nous de prévoir tous les cas de figures
- soit parce qu'on serait trop général, nos règles seraient alors sujettes à une interprétation trop large
- Et au-delà, encore une fois, impossible de prévoir comment se comportera une super IA plus douée que nous à tous les niveaux, impossible a priori de savoir ce qu'elle ferait de nos règles
- Eliezer Yudkowsky explique qu'une telle IA trouvera sans doute très vite un bien meilleur usage à faire des atomes nous constituant, bref, nous serons tous éliminés, c'est le scénario dont il est persuadé.
- Eliezer Yudkowsky est apparu plus résigné que jamais dans ce podcast, et l'émotion était palpable, ambiance.
- Eliezer Yudkowsky est reconnu, il connaît bien son sujet, on ne peut s'empêcher de penser en l'écoutant qu'il décrit là un futur possible, mais que faire ? Pendant ce temps-là, les sommes investies dans l'IA explosent...
- Ezra Klein du New York Times sur ce sujet récemment :
- In a 2022 survey, A.I. experts were asked, “What probability do you put on human inability to control future advanced A.I. systems causing human extinction or similarly permanent and severe disempowerment of the human species?” The median reply was 10%.
- I find that hard to fathom, even though I have spoken to many who put that probability even higher. Would you work on a technology you thought had a 10 percent chance of wiping out humanity?
- I often ask them the same question: If you think calamity so possible, why do this at all? Different people have different things to say, but after a few pushes, I find they often answer from something that sounds like the A.I.’s perspective. Many — not all, but enough that I feel comfortable in this characterization — feel that they have a responsibility to usher this new form of intelligence into the world.

Tuesday Mar 21, 2023
The Third Magic
Tuesday Mar 21, 2023
Tuesday Mar 21, 2023
Résumé d'un article très intéresssant de Noah Smith https://noahpinion.substack.com/p/the-third-magic

Saturday Feb 06, 2021
Saturday Feb 06, 2021

Monday Feb 01, 2021
Monday Feb 01, 2021

Wednesday Jan 20, 2021
Wednesday Jan 20, 2021
Découvrez les 3 piliers de la domination de monde par les Britanniques à leur époque, et en quoi la Chine est bien loin de pouvoir marcher dans leurs pas!