Episodes
Monday Nov 06, 2023
Entretien exclusif avec Pierre Bellanger, fondateur et PDG du groupe Skyrock
Monday Nov 06, 2023
Monday Nov 06, 2023
Pierre Bellanger : "C'est peut-être la première fois que je fais un podcast."
- 00:00:35 : comment Pierre Bellanger est passé d'un diplôme en biologie au lancement d'une des première radios libres en passant par l'écologie militante
- (une anecdote parmi d'autres à 00:10:00 : cela a supposé à un moment de ramener des émetteurs d'Italie, payé avec son salaire d'agent hospitalier en psychiatrie)
- 00:16:00 : 1980, création à 21 ans de la radio libre Radio Cité Future en association avec le quotidien Le Monde
- 00:20:45 : comment l'interdiction de la publicité va plomber ses premiers débuts (épisode du banquier qui déchire son chéquier) et suivi du rebond en devenant consultant de façon improbable
- 00:24:25 : nouveau projet de radio, La Voix du Lézard, au départ sur l'univers des voyages mais très vite très éclectique (premier diffuseur à la radio en France de la musique New Wave et ensuite le rap, émissions de cul notamment)
- 00:32:50 : envoyer des brigades de clients chez les annonceurs, payer les premiers employés au black par chèque, écrire une lettre au culot au Ministre des Finances Pierre Bérégovoy (qui deviendra ensuite opérateur Skyrock !)
- 00:36:00 : l'inventeur du Sexophone, ou comment Pierre Bellanger est à l'origine des numéros surtaxés, permettant de monétiser le succès des annonces roses
- 00:40:10 : comment profiter des nouvelles vagues technologiques et en détourner les usages, avec toujours l'ambition d'être inclusif
- 00:51:40 : quid du paradoxe entre le nom Skyrock et le positionnement sur les musiques urbaines ?
- 01:05:40 : l'épisode du Vaxibus Skyrock pour promouvoir la vaccination pendant le COVID dans les quartiers où le taux de vaccination était bas
- 01:10:00 : sur la radio Skyrock PLM (Pour Les Militaires), son rapport à la règle et le "faire nation"
- 01:20:25 : comment Skyrock embrasse la "verticale francophone" (80% des francophones, 240 millions de personnes se trouvent sur deux fuseaux horaires)
- 01:26:50 : le temps passé à écouter la radio a-t-il baissé depuis l'essor du web mobile et l'explosion de la consommation asynchrone de contenus ? Quel avenir pour la radio face à des acteurs comme Spotify, Deezer ?
- 01:42:40 : comment Skyrock choisit les artistes à diffuser aujourd'hui vs avant
- 01:48:50 : la genèse de la nouvelle aventure de Pierre Bellanger, la messagerie privée peer-to-peer Skred (les messages ne sont stockés sur aucun serveur) qui repose sur une techno développée par des chercheurs de l'INRIA
- 02:22:50 : Pierre Bellanger est à l'origine de l'adoption en France du dispositif Alerte Enlèvement, il nous raconte sa démarche
- 02:26:00 : son opinion sur les Etats-Unis et les excès, la vitalité de ce pays où il a étudié en 1975-76
- 02:30:50 : Pierre Bellanger revient sur un épisode singulier de sa carrière, le lancement de M-Radio, la première radio privée en URSS en 1989
- Le groupe Carte de Séjour de Rachid Taha
- Eurythmics, Annie Lennox, Dave Stewart - Sweet Dreams (Are Made Of This) (Official Video)
- Passi - Le maton me guette
- Stomy Bugsy
- Bigflo & Oli
- Damso
- Van Halen - Jump (le premier morceau que Pierre Bellanger a diffusé sur la première radio privée qu'il a lancée en URSS)
- En parlant de Skyrock : "Je n'ai jamais voulu être une clef USB de chanteurs morts !"
- En parlant du virage vers le rap : "On s'ennuit dans les années 90 avec Skyrock car le rock ne nous amuse plus, ne nous excite plus !"
- "J'ai toujours voulu avoir une vision galactique et on me demandait par exemple une autorisation d'émettre à Bourg-en-Bresse"
- "J'ai toujours cru que j'étais original, mais en regardant les photos rétrospéctivement, je ressemble aux autres et ne suis à chaque fois que le fruit de mon époque"
- "Beaucoup des autres radios sont des radios rétroviseurs, nous sommes une radio pare-brise"
- En reprenant le philosophe et théoricien de la communication américain Paul Watzlawick : « Je comprends ce que j'ai dit quand on me répond »
- "Aujourd'hui sur Skyrock vous avez plus d'artistes du Nigéria qui sont diffusés que d'artistes américains !"
- "Quand on écoute la même chose que 300,000 *personnes en même temps, il se passe quelque chose."
- "La radio, une écoute intime et partagée. Une présence sonore au présent."
- "Sur les 20 titres les plus écoutés en nouveauté en France sur Spotify, 19 sont du rap, et le premier, les Enfoirés !"
- "Qui peut le plus peut difficilement le moins en radio."
- "Au XXème siècle, la liberté d'expression, c'était parler à tous, au XXIème, c'est choisir qui écoute !"
- En parlant des messageries qu'il a lancées, jusqu'à la dernière Skred : "Il faut distinguer l'idée des moyens et du moment, ne sacrifions pas une idée au prétexte que ce n'était pas le moment ou qu'on n'a pas essayé avec les bons moyens"
- "Il y a deux sortes de développeurs : ceux qui sont payés très cher pour faire ce qu'on leur demande, et ceux qui le sont beaucoup moins pour faire ce qu'ils veulent, l'INRIA est dans ce dernier cas" (INRIA, Institut national de recherche en sciences et technologies du numérique, dont des chercheurs ont développé la techno peer-to-peer utilisée pour la messagerie Skred)
- "Le serveur de Skred pourrait tenir sur un iphone" (les messages échangés sur Skred ne transitent pas par ses serveurs, principe du peer-to-peer)
- La formule attribuée au Cardinal de Richelieu : "Qu’on me donne six lignes écrites de la main du plus honnête homme, j’y trouverai de quoi le faire pendre."
- "Il ne faut pas dire les GAFAM, mais "MA GAF", car c'est notre erreur de ne pas avoir sur créer de tels géants"
- Skyrock PLM : la radio qui parle aux militaires : le communiqué de presse du Ministère des Armées ; le lien vers la radio
- Skyrock PLM - La Capsule : "La Capsule" est une vidéo quotidienne, optimisée pour les smartphones, qui reprend l’Info militaire de Skyrock PLM, illustrée avec les images d’actualité transmises par le service Communication de l’État-major des armées. "La Capsule" informe et valorise l’esprit de défense en moins de 3 minutes.
- La notion de Gegenwart en allemand pour illustrer la force de la radio face aux plateformes de streaming : le sentiment de présence maintenant au présent
- Le ministère des Solidarités et de la Santé et Skyrock annoncent la tournée du Vaxibus « Ça va ? Ça vax ! » (Santé.gouv ; Libération)
- Skred est la première appli de messagerie sécurisée en liberté
-Lien vers le site, l'appli sur l'App Store, et sur Google Play
-Pas besoin d’adresse email ou de numéro de téléphone pour l’utiliser.
- Skred permet de communiquer par message, voix et vidéo.
- Skred permet d’échanger tous types de fichiers (texte, image, son, musique, vidéo, logiciel).
- Les échanges sont chiffrés de bout en bout de mobile à mobile. Ils ne sont stockés sur aucun serveur. Les technologies de chiffrement sont open source.
- Classée par le magazine The Verge dans le top 7 des messageries mondiales les plus sûres
- Plus de détail sur le cursus de Pierre Bellanger : https://pierrebellanger.com/cursus/
- Ma newsletter Parlons Futur : une fois par semaine au plus, une sélection de news, mêlant sources anglophones et francophones, résumées en bullet points sur des sujets tech, science, éco, géopolitique et défense pour mieux appréhender le futur.
- La liste de mes plus de 50 essais à ce jour dont certains publiés dans le Journal du Net, Les Echos (ici), l'Express.
- Me retrouver sur Twitter : twitter.com/thomasjestin
- Suivez le podcast Parlons Futur pour recevoir les prochains entretiens, voici celui avec Jacques Attali par exemple
- Plus d'infos sur moi
- Me contacter : parlonsfutur@substack.com
Tuesday Sep 26, 2023
Tuesday Sep 26, 2023
Ne rêvons pas, il va être très difficile de décarboner significativement notre monde avant très longtemps. Pensez au shipping, l'aviation, la chaleur industrielle, la gestion de l'intermittence intersaisonnière des énergies renouvelables...
Mais tout n'est pas perdu : au rythme où les prix de l'énergie solaire photovoltaïque baissent, dès l'année prochaine dans les endroits les plus propices, et bientôt presque partout, il sera possible, avec la machine de Terraform Industries, de produire du méthane de synthèse grâce au CO2 de l'atmopshère à un coût plus bas que le méthane fossile. Ce e-méthane a des émissions nettes nulles et est donc neutre pour notre atmopshère !
Il ne s'agit là rien de moins qu'une révolution profonde dans l'activité humaine, en gestation, dont très peu ont déjà conscience. C'est la solution qu'on attendait pour assurer notre transition énergétique sans avoir à choisir entre pauvreté et sobriété.
Dans ce podcast, je m'entretiens avec Lucie Nurdin, l'ingénieure chimiste en chef de l'équipe. Lucie va tout nous raconter ! Bienvenue aux avant-postes de la lutte contre le réchauffement climatique. Vous l'aurez entendue ici en premier :)
Au programme :
- 00:00:30 : le parcours de Lucie à l'ENS Ulm, le PhD à l'université de Calgary, les études postdoc à Caltech et l'intérêt au départ pour les carburants alternatifs
- 00:04:20 : la prise de conscience de l'impasse à court et moyen terme des carburants azotés comme l'ammoniac
- 00:07:40 : pourquoi Lucie visait l'ENS et ensuite après le PhD Caltech et pas une autre université
- 00:10:00 : pourquoi tout miser sur l'hydrogène est une impasse également
- 00:14:40 : pourquoi faire du méthane avec de l'électricité solaire photovoltaïque ? pourquoi ne pas distribuer et consommer directement cette électricité propre ?
- 00:19:20 : pourquoi l'humanité va continuer à utiliser les énergies hydrocarbures pendant encore très longtemps, d'où l'opportunité de les synthétiser avec l'eau et le CO2 de l'atmopshère (émissions nettes nulles) plutôt que de les extraire du sol (émissions positives)
- 00:22:20 : la chute vertigineuse du coût de l'électricité solaire photovoltaïque qui va bientôt permettre de produire du méthane de synthèse neutre en carbone à un prix compétitif face au gaz fossile !
- 00:25:20 : le genèse de Terraform Industries et le background du fondateur Casey Handmer
- 00:28:05 : comment fonctionne leur machine Mark One qui entre en production en 2024, expliqué à un enfant de 5 ans
- 00:31:30 : la martingale gagnante de Terraform Industries : intégrer des systèmes rodés utilisant des matériaux bon marché pour avoir une machine la moins chère possible, qui pourra être rentabilisée très rapidement
- 00:38:20 : la vision du fondateur pour faire scaler les opérations au plus vite, penser aux machines, mais aussi aux machines qui cosntruisent les machienes
- 00:39:10 : l'approche " from first principles" à la Musk du fondateur Casey Handmer
- 00:40:20 : le lien entre ces technologies et l'exploration humaine de Mars
- 00:42:50 : comme la loi de Moore à permis à Bill Gates de faire Microsoft, comme la chute du coût des batteries électriques ont rendu Tesla possible, la chute du coût de l'électricité solaire photovoltaïque va permettre la révolution portée par Terraform Industeries : remplacer les énergies fossiles par des hydrocarbures de synthèse utilisant le CO2 de l'atmosphère
- 00:44:07 : les 3 réponses à l'objection des fuites de méthane
- 00:51:00 : le facteur limitant numéro 1 pour Terraform Industries et pourquoi on a de la marge
- 00:55:30 : ce qui va aider : tous les métaux et le verre peuvent être recyclés; et comment on peut faire du kérosène pour les avions et d'autres hydrocarbures à partir du méthane
- 00:59:28 : le trop grand coût pour encore longtemps de capturer et stocker le carbone comme moyen de dépolluer l'atmosphère : à défaut de pouvoir financer facilement des émissions négatives, il faut au moins viser des émissions nettes nulles, ce que permet la synthèse de méthane grâce au CO2 de l'atmopshère
- 01:02:25 : qu'est-ce que ce serait le succès dans 10 ans pour terraform Industries ?
- 01:05:45 : la réalité d'un monde où il n'y a pas assez d'énergie bon marché pour se chauffer par exemple, la difficulté à déployer des pompes à chaleur assez rapidement
- 01:07:30 : quid de la concurrence ?
- 01:10:00 : quid du bio-méthane ?
- 01:11:43 : comment aider Terraform Industries ? quels profils vont être recrutés ?
- 01:13:24 : le profil particulier du fondateur Casey Handmer
- 01:14:50 : le "château" de Terraform industries en Californie est ouvert aux visites !
- 01:15:50 : 10 ans de réflexion sur les énergies renouvelables ont amené Lucie là où elle est aujourd'hui, dans l'équipe de Terraform Industries
- Leur site : https://terraformindustries.com/
- Leur premier produit qui entre en production l'année prochaine : https://terraformindustries.wordpress.com/2023/06/26/the-terraformer-mark-one/
- Leur dernier livre blanc (janvier 2023) : https://terraformindustries.wordpress.com/2023/01/09/terraform-industries-whitepaper-2-0/
- Le blog du fondateur Casey Handmer avec des articles passionnant sur l'énergie et l'exploration spatiale : https://caseyhandmer.wordpress.com/
- Leur compte twitter/x : https://twitter.com/TerraformIndies
- Le compte twitter/x de Lucie Nurdin : https://twitter.com/lucie_nurdin
- Le compte twitter du fondateur Casey Handmer : https://twitter.com/CJHandmer
- Mon article qui détaille leur projet : N’en déplaise à Jean-Marc Jancovici, l’abondance énergétique neutre en carbone dès 2050, c’est possible !
- Ma newsletter Parlons Futur : une fois par semaine au plus, une sélection de news, mêlant sources anglophones et francophones, résumées en bullet points sur des sujets tech 🤖, science 🔬, éco 💰, géopolitique 🌏 et défense ⚔️ pour mieux appréhender le futur 🔮.
- La liste de mes plus de 50 essais à ce jour dont certains publiés dans le Journal du Net, Les Echos (ici), l'Express.
- Me retrouver sur Twitter : twitter.com/thomasjestin
- Suivez le podcast Parlons Futur pour recevoir les prochains entretiens, voici celui avec Jacques Attali par exemple
- Plus d'infos sur moi
- Me contacter : parlonsfutur@substack.com
Tuesday Sep 26, 2023
Thursday Apr 13, 2023
Après le texte et ChatGPT, la vidéo fera passer un nouveau cap à l’IA
Thursday Apr 13, 2023
Thursday Apr 13, 2023
Thursday Apr 13, 2023
Thursday Apr 06, 2023
Approximations et omissions du dernier C dans l’Air sur l’IA
Thursday Apr 06, 2023
Thursday Apr 06, 2023
Attention : je diffuse des extraits de C dans l'Air et les commente ensuite, les extraits sont difficilement audibles malheureusement, mais il suffit de les passer, car je les résume ensuite avant de les commenter, désolé, je m'y prendrai mieux la prochaine fois.
Ressources utiles discutées dans le podcast :
Lien vers l'épisode de C dans l'Air en question, avec notamment comme invités :
- Gaspard Koenig, philosophe, auteur de "La fin de l’individu : voyage d’un philosophe au pays de l’intelligence artificielle"
- Laurence Devillers, professeur en intelligence artificielle : Université La Sorbonne, experte en interaction humain / machine, auteur de "Les robots "émotionnels"
La pétition en question, signée notamment par Yoshua Bengio, un des 3 parrains du deeplearning qui est derrière les dernières grandes avancées en IA. Yoshua Bengio est le seul des 3 à ne pas avoir rejoint le privé (à la différene de ses aînés Yann LeCun chez Meta et Geoffrey Hinton chez Google Brain)
La pétition s'interroge "Should we let machines flood our information channels with propaganda and untruth? Should we automate away all the jobs, including the fulfilling ones? Should we develop nonhuman minds that might eventually outnumber, outsmart, obsolete and replace us? Should we risk loss of control of our civilization?", considérant ainsi des risques de court terme, moyen terme et long terme.
La position la plus radicales sur les risques liés à l'IA, celle d'Eliezer Yudkowsky :
"Many researchers steeped in these issues, including myself, expect that the most likely result of building a superhumanly smart AI, under anything remotely like the current circumstances, is that literally everyone on Earth will die. Not as in “maybe possibly some remote chance,” but as in “that is the obvious thing that would happen.” (tribune dans le magazine Time Pausing AI Developments Isn't Enough. We Need to Shut it All Down, écouter aussi mon précédent épisode de podcast)
Chimp beats students at computer game (article dans le magazine Nature, en vidéo sur Youtube)
Why Are Our Brains Shrinking? (University of San Francisco)
"over the last 20,000 years alone, human brains have shrunk from 1,500 cubic centimeters (cc) to 1,350 cc, roughly the size of a tennis ball."
Les 4 grandes positions face à l'IA pour simplifier
- Ceux qui ont signé cette pétition (Gary Marcus et Yoshua Bengio notamment) ou qui soutiennent les mêmes positions sans avoir pour autant signé ou soutenu la pétition, s'inquiétant des risques de court, moyen et long terme (notamment parmi ceux qui n'ont pas signé : Geoffrey Hinton, le plus anciens des 3 parrains de l'IA ; Demis Hassabis, CEO de Deepmind, l'autre labo de pointe sur l'IA avec openAI ; une partie des employés d'OpenAI en off, et même Sam Altman CEO d'OpenAI sur les enjeux de moyen et long terme)
- Ceux qui ont refusé de signer cette pétition car elles n'insistent pas assez sur les risques de court terme (en anglais: fairness, algorithmic bias, accountability, transparency, inequality, cost to the environment, disinformation, cybercrime) et trop sur les risques de long terme relevant de la science fiction (notamment les chercheuses en AI et sciences du langage Emily M. Bender, Timnit Gebru, Angelina McMillan-Major, and Margaret Mitchell)
- Ceux qui refusent de signer car ils considèrent que c'est en développant l'IA qu'on trouvera aussi les solutions à ses problèmes, et que les risques encourus ne sont pas encore assez clairs, l'IA étant encore très primitive (notamment Yann LeCun, et OpenAI pour l'instant)
- Enfin les plus radicaux comme Eliezer Yudkowsky qui refusent de signer cette pétition car ils pensent qu'elle ne vas pas assez loin et minimise le risque existentiel.
Thursday Mar 30, 2023
Thursday Mar 30, 2023
- Eliezer Yudkowsky est sans doute la figure la plus connue et respectée depuis 20 ans dans le milieu de la recherche sur les façons d'aligner l'IA sur nos valeurs humaines
- Wikipedia : Eliezer Yudkowsky is an American decision theory and artificial intelligence (AI) researcher and writer. He is a co-founder and research fellow at the Machine Intelligence Research Institute (MIRI), a private research nonprofit based in Berkeley, California. His work on the prospect of a runaway intelligence explosion was an influence on Nick Bostrom's Superintelligence: Paths, Dangers, Strategies.
- Yudkowsky's views on the safety challenges posed by future generations of AI systems are discussed in the undergraduate textbook in AI, Stuart Russell and Peter Norvig's Artificial Intelligence: A Modern Approach.
- Eliezer Yudkowsky a livré il y a quelques semaines un entretien de près de 2 heures durant lesquelles il a partagé et expliqué sa conviction profonde: "nous allons tous mourir des mains d'une super intelligence artificielle", se montrant plus résigné que jamais, mais disant malgré tout vouloir "fight until the end with dignity"
- Eliezer Yudkowsky s'est dit d'abord surpris par le rythme des progrès en IA ces dernières années, à ses yeux, il est très probable qu'on parvienne à développer une super IA, plus capable que tous les êtres humains réunis à un moment ou un autre ce siècle-ci ("3 ans, 15 ans, plus ? Difficile de savoir...")
- Ses travaux depuis 20 ans l'on conduit à un constat sans appel : nous ne savons pas comment programmer une super IA pour être certain qu'elle ne nous nuise pas, et ne sommes pas près de le faire, c'est une tâche éminemment compliquée et sans doute impossible, qui demanderait qu'on y consacre des ressources extraordinaires, et il est trop tard pour cela
- C'est tout l'inverse qui se passe selon lui, les meilleurs labos en IA foncent tête baissée, leurs précautions sont bien insuffisantes et principalement de façade
- L'actualité semble lui donner raison : "Microsoft got rid of its entire company division devoted to AI "ethics and society" during its January layoffs" "Most of their 30-person staff was reassigned way back in October, leaving just seven employees to manage the department." "Months later, though, they were all dismissed, along with the division — right as the company announced its mammoth $10 billion investment in OpenAI." (source)
- à noter toute fois que Sam Altman, CEO d'OpenAI, écrivait récemment : "Some people in the AI field think the risks of AGI (and successor systems) are fictitious; we would be delighted if they turn out to be right, but we are going to operate as if these risks are existential.", linking to that article AI Could Defeat All Of Us Combined
- Eliezer Yudkowsky a eu un espoir en 2015 quand il a participé à la grande conférence sur les risques de l'IA organisée par Elon Musk, rassemblant des experts du sujet comme Stuart Russel, Demis Hassabis (co-fondateur de DeepMind en 2014), Ilya Sutskever et bien d'autres.
- Mais il a très vite déchanté, la conférence a accouché du pire des résultats à ses yeux : la création d'OpenAI peu après (par Ilya Sutskever, Sam Altman, Elon Musk, Peter Thiel et d'autres)
- Au lieu de freiner le développement de l'IA et d'essayer de résoudre la question de son alignement avec "nos valeurs", OpenAI cherche à accélérer les capacités de l'IA autant que possible, en reléguant selon lui au second plan et avec insincérité les efforts sur la sécurité, comme dit Sam Altman, CEO d'OpenAI, "ma philosophie a toujours été de scaler autant que possible et de voir ce qui se passe"
- Eliezer Yudkowsky conclut que les labos les plus en pointe sur l'IA, ivres de leur pouvoirs démiurgiques naissants et en pleine concurrence, nous emmènent tout droit vers la catastrophe, tandis que les politiques, dépassés, n'ont pas saisi le caractère existentiel du risque. La cause est perdue à ses yeux.
- Il explique qu'une super IA sera très vite si supérieure à nous dans tous les domaines cognitifs que nous ne pourrons pas anticiper ce qu'elle fera.
- Une telle IA ni ne nous aimera ni ne nous détestera, mais nous sera indifférente, comme nous pouvons l'être vis à vis des fourmis. Car encore une fois nous n'avons aucune idée quant à comment la programmer pour être "gentille", en quelques mots :
- soit car on est trop spécifique dans nos règles, et la super IA trouvera une faille, car il est impossible pour nous de prévoir tous les cas de figures
- soit parce qu'on serait trop général, nos règles seraient alors sujettes à une interprétation trop large
- Et au-delà, encore une fois, impossible de prévoir comment se comportera une super IA plus douée que nous à tous les niveaux, impossible a priori de savoir ce qu'elle ferait de nos règles
- Eliezer Yudkowsky explique qu'une telle IA trouvera sans doute très vite un bien meilleur usage à faire des atomes nous constituant, bref, nous serons tous éliminés, c'est le scénario dont il est persuadé.
- Eliezer Yudkowsky est apparu plus résigné que jamais dans ce podcast, et l'émotion était palpable, ambiance.
- Eliezer Yudkowsky est reconnu, il connaît bien son sujet, on ne peut s'empêcher de penser en l'écoutant qu'il décrit là un futur possible, mais que faire ? Pendant ce temps-là, les sommes investies dans l'IA explosent...
- Ezra Klein du New York Times sur ce sujet récemment :
- In a 2022 survey, A.I. experts were asked, “What probability do you put on human inability to control future advanced A.I. systems causing human extinction or similarly permanent and severe disempowerment of the human species?” The median reply was 10%.
- I find that hard to fathom, even though I have spoken to many who put that probability even higher. Would you work on a technology you thought had a 10 percent chance of wiping out humanity?
- I often ask them the same question: If you think calamity so possible, why do this at all? Different people have different things to say, but after a few pushes, I find they often answer from something that sounds like the A.I.’s perspective. Many — not all, but enough that I feel comfortable in this characterization — feel that they have a responsibility to usher this new form of intelligence into the world.
Tuesday Mar 21, 2023
The Third Magic
Tuesday Mar 21, 2023
Tuesday Mar 21, 2023
Résumé d'un article très intéresssant de Noah Smith https://noahpinion.substack.com/p/the-third-magic
Saturday Feb 06, 2021
Saturday Feb 06, 2021
Monday Feb 01, 2021
Monday Feb 01, 2021