Episodes
Thursday Apr 06, 2023
Approximations et omissions du dernier C dans l’Air sur l’IA
Thursday Apr 06, 2023
Thursday Apr 06, 2023
Attention : je diffuse des extraits de C dans l'Air et les commente ensuite, les extraits sont difficilement audibles malheureusement, mais il suffit de les passer, car je les résume ensuite avant de les commenter, désolé, je m'y prendrai mieux la prochaine fois.
Ressources utiles discutées dans le podcast :
Lien vers l'épisode de C dans l'Air en question, avec notamment comme invités :
- Gaspard Koenig, philosophe, auteur de "La fin de l’individu : voyage d’un philosophe au pays de l’intelligence artificielle"
- Laurence Devillers, professeur en intelligence artificielle : Université La Sorbonne, experte en interaction humain / machine, auteur de "Les robots "émotionnels"
La pétition en question, signée notamment par Yoshua Bengio, un des 3 parrains du deeplearning qui est derrière les dernières grandes avancées en IA. Yoshua Bengio est le seul des 3 à ne pas avoir rejoint le privé (à la différene de ses aînés Yann LeCun chez Meta et Geoffrey Hinton chez Google Brain)
La pétition s'interroge "Should we let machines flood our information channels with propaganda and untruth? Should we automate away all the jobs, including the fulfilling ones? Should we develop nonhuman minds that might eventually outnumber, outsmart, obsolete and replace us? Should we risk loss of control of our civilization?", considérant ainsi des risques de court terme, moyen terme et long terme.
La position la plus radicales sur les risques liés à l'IA, celle d'Eliezer Yudkowsky :
"Many researchers steeped in these issues, including myself, expect that the most likely result of building a superhumanly smart AI, under anything remotely like the current circumstances, is that literally everyone on Earth will die. Not as in “maybe possibly some remote chance,” but as in “that is the obvious thing that would happen.” (tribune dans le magazine Time Pausing AI Developments Isn't Enough. We Need to Shut it All Down, écouter aussi mon précédent épisode de podcast)
Chimp beats students at computer game (article dans le magazine Nature, en vidéo sur Youtube)
Why Are Our Brains Shrinking? (University of San Francisco)
"over the last 20,000 years alone, human brains have shrunk from 1,500 cubic centimeters (cc) to 1,350 cc, roughly the size of a tennis ball."
Les 4 grandes positions face à l'IA pour simplifier
- Ceux qui ont signé cette pétition (Gary Marcus et Yoshua Bengio notamment) ou qui soutiennent les mêmes positions sans avoir pour autant signé ou soutenu la pétition, s'inquiétant des risques de court, moyen et long terme (notamment parmi ceux qui n'ont pas signé : Geoffrey Hinton, le plus anciens des 3 parrains de l'IA ; Demis Hassabis, CEO de Deepmind, l'autre labo de pointe sur l'IA avec openAI ; une partie des employés d'OpenAI en off, et même Sam Altman CEO d'OpenAI sur les enjeux de moyen et long terme)
- Ceux qui ont refusé de signer cette pétition car elles n'insistent pas assez sur les risques de court terme (en anglais: fairness, algorithmic bias, accountability, transparency, inequality, cost to the environment, disinformation, cybercrime) et trop sur les risques de long terme relevant de la science fiction (notamment les chercheuses en AI et sciences du langage Emily M. Bender, Timnit Gebru, Angelina McMillan-Major, and Margaret Mitchell)
- Ceux qui refusent de signer car ils considèrent que c'est en développant l'IA qu'on trouvera aussi les solutions à ses problèmes, et que les risques encourus ne sont pas encore assez clairs, l'IA étant encore très primitive (notamment Yann LeCun, et OpenAI pour l'instant)
- Enfin les plus radicaux comme Eliezer Yudkowsky qui refusent de signer cette pétition car ils pensent qu'elle ne vas pas assez loin et minimise le risque existentiel.
Comments (0)
To leave or reply to comments, please download free Podbean or
No Comments
To leave or reply to comments,
please download free Podbean App.