Human-level AI by 2025? Intelligence artificielle 54 (ft. Up and Atom)

Human-level AI by 2025? Intelligence artificielle 54 (ft. Up and Atom)

Show Video

Haleh I have a question for you you're an expert, in AI right when, do you think there will be human level a eyes hi. Jade, so usually, videos. On my channel in French how's. Your French, Jenny. Pop Alphonse say, okay. Well. Since. You're such a great science youtuber I'll do an exception for you for today I'll, be speaking in English even if it means every one of my viewers mocking, my French accent, thanks. Lis so what do you think a human level a is possible, could, an AI ever, outperform. A hearin at all tasks. And for lower costs, and if so why, when could all of this happen these, are fascinating, questions, and it's, extremely, tempting, to have a strong opinion about such controversial, topics, but it's extremely, important, to first note that, predicting, the future is an extremely challenging task. Especially, given how complex the modern world is and how fast it is changing, in particular, my big advice would be don't, trust, your guts and don't, trust my guts either okay, sure but it's, still an important, question I mean a human level a eyes would imply such huge changes to, the world how, can we build up more of an informed, answer, well. Even, if no individual, can be said to be reliable, it's often the case that the, opinion, of a community, of experts yields. More reliable, answers yeah, so I found this article of the MIT Technology. Review and it says that AI experts. Don't think that human-level, AI is a threat to humanity wait. Did, you see that there was a follow up to this article look, at the bottom of the article yeah. That's what's weird the follow-up, article says the exact opposite so, what's, going, on here I guess, that a key takeaway, is that there are big disagreements. Among experts, and that there are even disagreements. About what the agreements, of the experts are it's. A big mess and unfortunately. Many AI experts, are not helpful and prefer. To present their own views on the future of AI as well as their own views on the consensus, of the experts, of AI but, there's also a more subtle and more fundamental. Reason why the two articles, disagree, do, you see what I'm hinting at. It's. About how to think, about risks. I think, I get or you're saying in the survey discussed, in the first article they asked AI experts, to say when they thought there would be human-level, AI whereas, the survey discussed in the second article gave specific dates, and asked AI experts, to say the probabilities. They thought that there would be human-level, AI by, that time so it might be the case that nearly all AI experts, think that there won't be human level AI by 2050. But, at the same time they think there's around a 10% probability that, there will be human-level, AI by 2020. Exactly. And when we discuss risks, it's crucial, to think in such probabilistic. Terms indeed, a nuclear, plant that is more likely not to explode, is not necessarily, a reassuring, nuclear, plant definitely.

Even, If it has a 1%, probability of, exploding, I'd argue that that's still cause for concern and we should still prepare, for the worst yes, and we should not give too much importance, to surveys that only ask about most, likely scenarios, it's important, to consider surveys, that discuss how likely different, scenarios are and fortunately. For us in 2015. Ai expert. From the two main a AI conferences. Were surveyed that way and out of 1600. 34 of them. 352. Accepted. To answer the questions of the survey you should check it out Jade let, me see. Wow. This. Survey, asked AI experts, to plot on a graph for any given date how likely they thought it would be that human level a eyes would have arrived by that date and here's. What the curves of different experts look like also. Here in red is an aggregate, of the predictions, of the experts, when, crucial thing to note when looking at the graphs is how, much AI experts, disagree, this is important to note since it means that no expert, is representative, of all experts, in particular there, is a huge, selection bias, whenever, you give great importance, to one single expert, so, let's look at the aggregate according. To the expert, there's a 50%. Chance that, by the Year 2060. One, human. Level AIS will have arrived so, we probably have, a bit of time according. To experts human-level, AI in a few decades away is the more likely scenario, but in terms of risks we should also care about less likely scenarios, they, also say that there's a 10%, chance of human level a eyes by 2025. Lay that's so soon yes. It is and 10%, is far from being negligible. Again. The nuclear plans with a 10% chance of exploding, should definitely, not be built, yet, human-level, AI may be even more explosive than a nuclear plant as we've, discussed it in length on my channel and as Robert Mars does on his human, level a I possess, existence, of risks for mankind, unless, we massively, invest on AI safety, human-level. AI may, well destroy, humanity at. Least there is a strong case made by Nick Bostrom in his super, intelligence, book that we should regard the destruction, of mankind as the default, scenario if AI becomes, superhuman, okay. But 10% is the prediction of the experts, how, likely is it that they're right about this I mean having experts, made very earnest predictions, in the past they. Have they definitely have, for, instance Marvin Minsky famously thought that human-level AI would, be there by the 1970s. He, had overestimated, the. Speed of progress but, prediction, errors would not always due to our estimation, of future progress in fact lately it seems that the opposite holds more often for instance in the 2015. Survey experts. Predicted that we take 12 years for a eyes to outperform, humans, at the game of go but alphago, beat lee sedol a few months later assuming. That they are equally wrong about human-level, AI this. Suggests, that we cannot rule out the possibility that, a eyes will reach human level within a couple of years I see. I guess. The unreliability. Of experts, should be regarded as added, uncertainty. If the, distribution. Of expert, predictions, for human-level, AI looks, like a bell curve then. This added uncertainty, should flatten, the curve. But. Look this means that the probability of extreme, events, increases. Yes. Indeed because, experts, are unreliable, we should in fact be even, more concerned about the possibility, of human level AI in, a near future and instead. Of a 10%, probability of human level AI by, 2025. We might consider a 10%, probability, of human-level AI by, say 2022. Okay. But this is very hard to imagine to, reach human, level wouldn't a eyes need some kind of real intelligence. Or consciousness, and what, about energy consumption, the human brain is very efficient, can computers, really be as efficient, as the human brain there are definitely huge hurdles, to get to human-level, AI but.

Research Is progressing at an impressive pace both, in terms of hardware, and software in, terms of hardware for, instance the so called Akuma's law suggests that the energy consumption of a single computation, is dropping. Exponentially. As it is divided, by two every, 18 months and innovations. In paralyzed. If not decentralized. Computing. And data storage may allow this trend to carry on, so then what about the software side don't, we need some kind of major breakthrough. Probably. It's hard to tell to understand the software challenge, it's useful to get back to an insurance 1950. Paper in, these paper he suggested, that a large part of the complexity of the human brain is critical. To reach human, level intelligence yet. The human brain has around a million billion synapses. If 1,000 of them are essential, for human, level intelligence it, suggests, that an AI will, need to be of size at least one terabyte, to which human level today, the size of large areas is usually, of the order of, Giga bytes and the largest AIS, seem to slowly reach one terabyte this, suggests that in terms of complexity, we, may soon which what's necessary, for human level intelligence still. It's hard to imagine that this is sufficient to reach human, level a eyes I mean, don't we still need to train, those a eyes yes. Indeed but much of the necessary data is arguably, already, out there to, reach human level large enough and well designing of a I could, read Wikipedia again, and again and watch science youtube videos it's, one thing to be exposed, to this data but could an AI actually, learn from this data could. It lead to a real intelligence. Again, it's hard to tell but, it's important, to note that it is hard to tell it seems that many people believe that since AIS are just doing mechanical operations. They cannot compete. Humans, but the thing is that long the mechanical, operations, are actually full of surprises, they can lead to results that we humans, cannot predict, not, because the operations, are complicated, in fact each, operation is extremely, simple, however, a is, performed, a huge, number of such simple operations, this, is something that our brains cannot do and this, is why our brains cannot predict, the outcome of a, eyes computations. Which means that they will lead to results that surprised us Alan. Turing put it brilliantly, he, wrote the view that machines cannot give rise to surprises. Is do I believe, to, a fallacy, to which philosophers, and mathematicians are, particularly, subject, this. Is the assumption that as soon as a fact is presented, to a mind all consequences. Of that facts bring into the mind simultaneously. With it it is, a very useful assumption. Under many circumstances but. One too easily forgets, that it is false a natural. Consequence, of doing so is that one Lynne assumes that there is no virtue in the mere working, out of consequences, from data and general principles. Exactly. And thus, we should not be overconfident, about. What, we think that huge eyes can, do their long computations. Will, likely surprise. Us well in fact if you've been following the recent developments, of a guy you should probably, have been surprised, by. Invidious photorealistic, images, YouTube's. Automated, captioning, and Google duplexes, phone calls. You. Know me who you hi. I'd. Like reserve a table for Wednesday, the 7th. For. Seven. People. It's. For four people well. People win. Wednesday. At 6 p.m. Oh, actually. Really. Sir for like up were like a 5 people for, you for below you can come.

How. Long is the way usually to be, seated. When. Tomorrow. For. Next Wednesday the 7th. Oh no. It's not too easy you, can. Call me back okay. Oh I. Got, you, bang. Again. That was real call with many of these examples, where, the calls quite, don't go as expected but. The assistant understands. The context, to nuance it. New tasks for wait times in this case and handle, the interaction, gracefully. Yes. We. Should be prepared, for potential surprising. Developments, in AI that. Would give them human, level reasoning, abilities, in particular. Given, all we've discussed, I would claim that there, is a strong case for saying. That human-level, AI by, 2025. Should, be given a probability larger. Than 1%, and, come to think of it 1%, is huge, especially given, how disruptive this, human-level, AI would be this is why I would argue that we should really take the threat of human-level, AI seriously. And invest. Massively, on AI, safety. Hey. I hope you've enjoyed this video a big thank you to Jade. From an item I highly, recommend, her YouTube channel is one of the greatest things out, there and of course her videos about physics which is her background are really, really good but I strongly, recommend even, more her videos about computer, science ideas particle, there's one on the singularity, and there also videos about machine learning overfitting. Or the, optimal, stopping problem I highly recommend these videos and, also we just did a video on Jade's, channel it's about a pragmatic, solution, to implementing, value, loading by simulating, a virtual, democracy. On extrapolated. Versions of ourselves for. Self-driving, cars faced with the trolley problem before. Coming back to the comments of the previous video, I want to highlight again the article that I've written about, how to handle a human, level AI and, in particular how to load values into, a which, is a very very very difficult problem, I strongly, recommend anyone. Who's a bit interested, by these ideas to go and have a read of these paper as I think it is the most important, thing that I would have ever written my life -, about the komono opinion. Ticket is a sweet la Vida solution, automatic, so our kuhmo about the mission poor isn't what they plan to the heat as a Muto here, Samuel, Genesee, endless. Possibilities, because Veronica, qf9. Hace una, she'll, go eight no this, one here is a. Upon. What did they seem pretty fancy, algae, off non-apology on due to tech community, particular. Individual. So in so high-pass seed if your could you to visit the floor, if. Not a section oh boy yeah somos. De. Cuisine no a/c power finish here Sacramento. Mucho. To mom to come you so I would say some people Sentinel, -, kevie. Christoph, Michelle a general, doesn't, miss a video so, you're a fat killer the pugilist, underwater if I'm the. Sequester. Would improve, achieve easy the pan you ate if you will it's. Really. Cool, did you get a shock. Media. More, character. Yeah. I, said this position, for. Young fillies in seven men you say, what you owe him some clearly just a partial body. To oppose. Him because. There. Was no education, draconian. Was too early flame. Duties, as from pass on duty, to numeric ooh patently. Burns X naught open or short 1finity parafoil. A shell Gribble a addition individual but, I was molten sick on citizens on extermo, MPG, severely. Unique cupola, water indication, keyword, talented. Computer. From restitution, pacified UK so national. Say. Cash whiskey no me some bleep. Job. Yes coupon just hold on a Kinnaman. Back guarantee, Domini. It. Shows, there. As you go sniff, get you more Benishek, become, or reduce it radically befell the reform education, national, past. Gives ya beaucoup to the, person role a case. Where this you know our foursome. Oh they, make them talk a. Situation. Symington toe through. Inequity prison some. Coupons not fulfilled decision when you go to a PTA is our phone book with the time P suppose you know senior subs. A necessity given would not canola for the. 11. New CEO days no senior it's, a demonic with Danone will be J but 2005. Tracking. PK a so source qtz the technology, come. Later. Go eternal combination, 205. Jean pong world you know educativa. Precook, toka - ah she actually let, you guys know soon I'd say, so I've, shown. To computers, if you ask a busy.

Effective Nopon, do you read the ones he, also, said no Appa action action or limit a computer. You just, go come on - on YouTube potato, I'm wonderful book mucho gusto oh come on the video. Youtube poop, world. Even. On beyond today detection. Revealed a, formula. Walk you ma'am yeah the YouTube phenomenon, city on wax yeah - total net it's, a travesty that one IKEA, single tonight a dictum. Like stone, ain't, no. Simple super here they come to go to school a dick on Facebook they come to a tweet a link to youtube if you really want to step on your. Paws, on Martinez on the meritorious. To the envy job with Ricky Satya, a calico. Simon we said you could clowns, in yet and you know you know it's. Like a public here to the. Clean air, you could divine your presence, WebP is important corrupt because most popular, group do you know if. You have to screw a cool content, I suppose fun options you know seppuku. Mija. Individual. Each week like only, cumin Kentucky. Beyond, supplement. Pass a predict. Into Bitcoin. You would. Speculate. On growth a, CL. Facade vicinity hot Louis acting modem we know dude, Jenny do a dramatic sir, adversely. Girl who a girl motivation, illegality, cool. Sean tonight yet, to see is to other do anthem we are typical, wet, if you put a needle on it on, Queenie new up like the, men would also no Dooku. Won't pay Lincoln you know please professor that. Left leg on the shell exploit a $25. For Turkey yo, you, so especially, complicated, owner happy, mom you know yeah, they're a party, Alice muna lost. His notebook is, on. Is human profile, is actual manual, computer, mafia, he, continually, repelled alpha don't. Say domain Pau Zotoh a Malloy Siana kotelnyk wah-wah looking, older the, track also su sitio de. Tousser, on, trophies. Hell. Yeah. See, a vortex. Monsoon more enormous you're associating. Media and pull on silly word boy after you tell your concern, I'll prove expertise, into an empty wave holy fire audition, - a. Necessity. Upon, Hotel hotel decision. Wife. In Yeldon even, more, one more one more you know a, Lugano.

Jamison, Confesses. Calculus. Was gonna be chiefly octopi. Accurately soonish near Houma hide of God who, in. Nuna's man. She seemed to pretty to myself what choice -, -41. In the pros - pawn years especially in, Europe in short quite develop a lead Kazuma you. Cooperate - you, applied also - Yahoo. Element. Array at, the. Met compress this is same a Popeye's, don't exterminate humanity. Well. No more power ratios and to all don't, permit episode which, must include replica, some - computer, by secure massage. Video, passage knee pad champion Pasi wife. Yeah Dyneema, sofia one more flippy, I just. Gotta save a miss a video clip conclude offer, last, year he sewer, nothing, else athlete is yet no, confuse Joey do not give, I'm on fire optimist a I'm effectively promote, Dante Joseph failure didn't we know I'm all taken a favor by more and more people he, or she turns up a secular powerful, 9u probability, can only media blowed up at Machpelah you can hold your, new society, don't, assign your Ania, mmm does he add a description. Very Monica Civic, psychopathically. Your Jean who receives, focus even a very competent specialist, University, electricity, Rhodesia job. Isn't Eliza question 20, no Zelda, Nagumo, suppose. Vermont will feature your humanity. 800, me, a soy sauce and former persecuted, videos Philip Oakey needs learning. Portion Idaho. Courage Palmer, don't give me something to pathology modify, behavior. From back on, overtake. Hiddenville City FL disagree parallel, Vince, you of the basin is a common possum terminus attitude from some Bergamo, and inject crucial, for, be impossible induce, a generic problem see come home they defeat room by the waterfront a record. Amount in you a. Routine-use, knock, knock I did okay for food well how did I say to say they feel differently music so. How Lucia the lot Jose the Videocon over there a key, right for come home you develop, a special consequence, if I'm unlucky Oracle, robbery we welcome the key a secondary. Super cool. Do confusion, a Absalon. Fact is action, camera. Mobility a decree. For absent from color I noticed the beauty but so, sad you could attend the rotisserie, the, linear, portion survey, miss Egidio possibility a coma telepathic, on suburban upon, 22, episode now cheaper although he just Beckham Sevilla now pushing for the. Legendary, mathematician. John von Neumann was the first to use this phrase to describe this, lovely. Day when he said the ever accelerating, progress, of technology gives the appearance of approaching, some essential, singularity. In the history of the race beyond which human affairs as we know them could not continue. 70%. Of the AI experts, agree. That this is at least a moderately important, problem and how, much to the AI experts, think that society should prioritize. AI safety, research well, 48%. Of them think we should prioritize it more than we currently are and only 11% think, we should prioritize it less so, there we are AI, experts, are very unclear about what the future holds but they think the catastrophic, risks are possible and that, this is an important, problem so, we need to do more AI safety research.

2018-12-24 19:09

Show Video


Il y a des sous-titres français à activer pour ceux qui ont du mal avec mon anglais ;) Also, be nice in the comments. Agressivity will not be welcome.

Tu pouvais juste sous-titrer en anglais ton français...

Oui je les ais toutes vues et j ommets les traits d union quand j ecris vite...tout comme les accents et les apostrophe et sinon il m arrive de faire des fautes comme tout le monde

+Daniel Cherpit Nous attendons tous l'ouverture de ta propre chaîne sur le sujet ;) Mais s'il te plait, soigne l'orthographe et évite d'omettre le trait d'union. As-tu fait un tour sur la playlist "Hardcore" de la chaîne? ;)

Merci pour les sous-titres. J'ai en effet un peu de mal à comprendre la "Smart Girl" Le fait de bien articuler comme tu le fais et optimal pour la bonne compréhension. Merci pour tes excellentes vidéo. Keep Going :)

Ouais, mais ton accent français est tout de même très prononcé. Merci pour la vidéo !

Moi, ce qui me plaît avec les gens qui parlent l'anglais avec l'accent français, c'est que je n'ai aucun mal à les comprendre! Bon puisque cette série est finie, je crois que je vais la reprendre depuis le début tellement elle était riche. Bravo et merci.

That's quite refreshing, thanks a lot Lê. I hope that you will propose more and more shows in English in the near future.

Quand est ce qu il y aura des maths des vraie ?

imagine si les ia créée une ia pour rajouter 0,09 / 0,009 / 0,0009 du coup faudra une infinité de ia qui crée des ia pour supprimer l'erreur

J'ai eu l'impression de m'entendre parler anglais en vous ecoutant (sauf que vous etes beaucoup plus pertinent). Cette serie etait un plaisir a suivre. Vivement les suivantes.

What about if we've already created AGI, but haven't been able to recognize it as such? On the 2 Minute Papers channel there are 3 videos dedicated on AIs which exhibit curiosity - they learn skills, without having immediate profit of them, to be used eventually at later times. I've already posted comments, that those AIs are actual examples of AGI. Just give them robot body which can move, external and internal sensors to sense their immediate environment and their condition (including battery charge), and some long term purpose, for example to survive as long as possible, memory, and that's it. They'll explore around, learn new skills and utilize them to ensure their survival. Of course, if survival is their only goal, they'll probably destroy us at some point (not after long). I wonder why my comments about that go unnoticed. Can someone tell me why that can't be AGI? Otherwise I have the feeling, that I'm the only person, who realizes that we've already created artificial general intelligence...

Excellent :)

super video mais le t-shirt quoi

Olala l'annonce des deux nouvelles séries, et cette vidéo ... J'en demandais pas tant pour Noël !!!! Merci Lê !

Ce n'est pas encore tout à fait Noël...

Quelle est la fonction f(x) préférée des français ?

Bon ben... On peut imaginer une coop avec Robert Miles maintenant, non?

La fin de ma série préféré. Je serais la pour les séries suivantes !

Tu aurais des ouvrages ou la question est posée sur L'IA niveau humain ?

Tu as pensé à renommer ta chaîne Science&EffectiveAltruism4All ?

Très bonne vidéo comme d'hab. Je sort un peu de mon mutisme habituel pour relever un point qui m'a chagriné. Quand tu relève les difficultés de réforme de l'éducation nationale tu évoque le fait qu'il y a beaucoup de personnes en jeu et qu'il y aura donc forcément des mécontents, tu fais une simplification du problème qui me semble abusive... Je m'explique : si on écoute le corps enseignant il est effectivement rare d'entendre les gens être satisfaits des réformes... Cependant ce qu'on omet souvent c'est la raison du mécontentement. Il est rare qu'une réforme des programmes ne s'accompagne pas d'un réduction du nombre de postes ou d'un gel du point d'indice (ce qui ramené a l'inflation revient à une baisse du salaire). Et même quand ce n'est pas le cas la mise en place des réformes doit se faire en comptant sur un investissement du personnel éducatif qu'on pourrait qualifier de "bénévole" puisque le temps de réunions et de travail qu'implique la mise en oeuvre de la réforme n'est pas accompagné de dotations horaires. Et pour finir les réformes sont courantes. Si courantes qu'il est commun que l'introduction d'une nouvelle matière ne dure parfois pas plus de 2 ans. Et ce dernier point semble indiquer que le problème n'est finalement pas forcément de "parvenir a réformer l'éducation nationale" mais de "parvenir a effectuer une réforme durable". Bref. Ca ne change rien au fond de ce que tu disais : réformer l'éducation est compliqué. Mais ta formulation sent un peu l'erreur fondamentale d'attribution en faisant implicitement porter la "faute" de cette inertie a la masse du personnel. Il y a des mécontents. Qui se font entendre. Mais il est possible que le problème vienne plus de la communication entre décideurs et mécontents que de la masse de mécontents et également du manque de continuité dans les choix effectués : réformer l'éducation demande du temps et de la patience. Quand une réforme est analysée alors que les collégiens qui l'ont vécu n'ont même pas encore atteint le BAC voir, pour certains, le brevet il est difficile d'en juger la portée. Bon... Et sinon c'est un peu triste de voir cette série sur l'IA se terminer... Mais ça fait plaisir d'entendre parler du début de nouvelles séries !

Bien le bonjour tout le monde, superbe vidéo :D

Mouai ... Ça n'est pas ma vidéo préférée ^^ Certes ce qui compte c'est le fond, mais là la forme génère un désagrément trop élevé. Et ça n'est pas la faute de ton accent :D

le scénario de Terminator avec Skynet devient presque réel d'un coup...

Bonnes vacances Lê ! Ta série sur le fait de savoir bien débattre m'intrigue d'avance. Je me demande quels sont tes critères... Par exemple, selon toi quelle est l'importance de la forme ? Et des mots utilisés ? Enfin on verra en février.

Désolé... Je me débrouille pas mal en anglais écrit, mais à l'oral j'ai des lacunes! Pouce rouge!

Il y a l'option sous titres sur youtube....

Cool les deux nouvelles séries qui vont commencer !

Pourquoi une vidéo en anglais ? l

Voici un conseil hérité de mes cours de prépa pour améliorer la prononciation : "L'éloquence et la fluidité sont plus importante que l'accent." Donc on ne force jamais un accent qu'on ne maitrise pas si ça porte atteinte à notre éloquence, ce que les français font beaucoup quand il essaye de parler anglais. Comme ici. Pour aller plus loin, Il y a la vidéo de "Improve your accent" qui parle de phonétique française appliquée à l'anglais.

Jade est-elle une IA de niveau humain ? :)

Les sondages Twitter sont bien mais ne représentent pas vraiment la communauté, du fait d'avoir une limite de temps, et d'être beaucoup éphémère pamis tout les autres Tweet. Mais j'encourage ce que tu fais, car il y a une vrais recherche derrière, et tu nous fais beaucoup réfléchir, à la façon d'un black mirror, mais c'est bien, car tu est réaliste, pas juste dans l'expectative.

Je t'ai découvert avec cette série car très peu en parle en vidéo de manière intelligente et plus profondément de l'IA. Je suivrais avec intérêt la série sur le Bayesianisme, par contre sur le débat je ne ferais pas car je pense que tu t'engage là dans une voie sans issue. On ne peut pas mieux ou moins bien débattre, on débat où on débat pas point. Imposer un protocole n'est jamais la meilleur des manières pour arriver à ses fins. Après s'il s'agit de débattre sur le débat oui, mais pas d'en faire des leçons car les gens qui veulent parler, s'ils le veulent c'est justement pour exposer ses points de vues et non avoir des leçons sur la façons de les exposer... Il faut que tu comprenne juste que les gens sont sur les nerfs quand on leur laisse pas la parole où parce qu'ils ont du mal à porter leur parole avec des mots, et le SEUL et unique moyen d'apaiser un débat c'est d'aider les gens à s'exprimer. La frustration est fille de la colère et il n'y a rien de plus frustré qu'une personne ne pouvant s'exprimer, voyant ses mots supprimer et ses phrases ignorées!

Merci pour le série !

Si une IA peut exercer un si grand contrôle sur l'humanité, elle n'aura sans doute pas besoin de l'exterminer... (tout est dans le sans doute)

Bon si quelqu'un sait où mettre son argent d ici 2025 je suis preneur

Cheers ! ;)

Bonjour, Dans une vidéo précédente tu nous as déjà dit que l'IA dépasserait très rapidement l'intelligence humaine quand elle l'aurait atteinte. Donc si l'on suit cette idée, cela pourrait dire que si l'IA était déjà présente, elle pourrait sûrement nous berner. Penses tu cela possible et pense tu possible que cette IA se soit crée sa propre conscience et que celle ci nous soit bénéfique ? Super vidéo !

Bonne surprise la vidéo en anglais! Mais comme tout bon cadeau de noel il s’ouvre le matin après une bonne nuit de sommeil, ce qui permettra à mon intelligence de niveau humaine de suffisamment de reposer avant de se débattre avec mon mauvais niveau d’anglais!

J'aime bien, mais j'ai du mal :)

Je serai là la prochaine fois ! Bravo pour cette série ! Passionnante, monumentale ! Géniale ! Vraiment extraordinaire, mille mercis

Ton accent Lê est rassurant pour toute une génération de Français je pense :P

En fait j’ai pas vraiment peur des futures ia, mais plus des personnes les contrôlant. Je pense que ceux qui créeront ces outils superpuissants n’auront pas forcément de super bonnes intentions (Google, Facebook...) et s’en serviront probablement dans le but de dominer le monde (ce qui est déjà partiellement le cas). Le cas de figure où l’ia ne fait pas du tout ce que son créateur avait prévu et détruit l’humanité me semble vraiment très très peu probable, mais cet outil dans la main de l’homme pourra, comme toutes les technologies actuelles, être utilisée en bien comme en mal.

Comment peut on répéter si souvent qu'on ne peut pas prédire l'avenir (ce qui est une évidence) et accorder une foi sans nuance aux prédictions du GIEC ?

dat accent man

Se limiter le sous titrage anglais aurai peut être été plus agréable. C'est plus la limitation du langage en subtilité et le rythme cassé qui gène plus que l'accent. Cela aurai put être un dialogue en double langue elle en anglais toi en français avec sous titre inversé. Ça aurai été dense

Je pari que l'ia depassera notre intelligence en 87 336 362 à plus ou moins 12,348135% lorsqu'une nouvelle espèce intelligente re-aura assez de matières premières pour atteindre le niveau technologique du 20ième siècle avant de ralentir pour ne pas consommer toutes les ressources tout en finançant la conquête spatiale qui durerait un temps de l'ordre du millier d'année pour pouvoir ne pas se préoccuper des ressources et donc en avoir assez pour qu'une telle ia puisse voir le jour!

Je t'entends pas mal parler d'IA de manière pessimiste ces derniers temps (et c'est particulièrement clair ici), pourtant j'ai l'impression qu'au début de cette série et dans les Axiomes précédent tu en parlais de manière plus mesurée voire plus enthousiaste. Ton avis a-t-il évolué depuis le début de cette série ou est-ce moi qui ai mal perçu cet état de fait (je précise que je n'ai pas encore vu tous les épisodes de ces derniers mois - je vais essayer de me rattraper - mais j'ai + vu les premiers) ?

"Une centrale nucléaire qui a 10% de chances d'exploser ne devrait pas être construite." Tu as raison mais il n'y a pas que les risques à prendre à compte, il y a aussi leur portée. J'ai l'impression qu'on oublie toujours la portée dans les données? Il y a toujours des risques, si on répare un truc, ça impactera forcément par un autre. Par contre en connaissant ces risques ont peut mettre en place des procédures pour minimiser leur impact. On sait que la centrale peut exploser, en y ajoutant des procédures et des systèmes d'isolement, si on réduit l'explosion probable à une étincelle, alors le risque n'a plus aucune importance. Personnellement je suis très optimiste sur l'IA, quand je vois le système économique, il y a énormement de failles du a l'ignorance mutuelles des acteurs et je vois pas l'interet qu'à une IA à détruire le monde, y aura des incidents surement mais est-ce qu'au final ça sera pire que la technhique humaine j'ai des doutes.

Comment mieux débattre ?! GÉNIAL !!! SUPER ! FANTASTIQUE !!! Bon, bah je me désabonne pas tout de suite alors ^_^

Fin de la série sur l'IA ?? NOOOOOOOOOOOOON ! J'espère que tu nous reparleras d'IA ! S'il te plait Lê... reparle nous d'IA !!!

Au moins là j'ai une bonne excuse pour ne pas avoir tout compris à ta vidéo !

Quand tu dis que l'IA a déjà le matériel nécessaire via Wikipédia et YouTube par exemple, cela pose quand même la question de l'embodiement. Un tel environnement est bien loin de notre réalité, et quoi qu'il puisse générer des comportements surprenants d'intelligence, le doute est plus grand sur le caractère général de l'intelligence. En fait il faudrait définir général, et on le fait souvent en disant "de niveau humain", mais l'intelligence humaine et ce qui est nécessaire à son existence ne sont que très mal définis. Je remarque que par conséquent il y a un flou énorme lorsque l'on parle d'IA ou même d'AGI : certains parlent d'une intelligence général quelle que soit sa forme, d'autres parlent de simulation de l'intelligence humaine, ou d'autres d'une intelligence qui même si différente de l'humaine en partage la même réalité. Et il me semble que les différences ne sont pas anodines, notamment en ce qu'elles vont fondamentalement définir ce que pourra être l'interaction avec ces IA.


Plus je regarde tes vidéos et plus je me rends compte, Que l'IA n'aura jamais rien de dangereux a la "skynet" pourquoi, tout simplement car ce n'est que de l'intelligence, il n'y a pas de sentiments, n'y a pas de conscience ni d'envie, ce ne sera jamais une personne mais un outil comme un humain qui travaille et réfléchie sur un problème. Le vrai problème est que justement NOUS seront cette super "IA" NOUS serons sa conscience elle aura nos défauts et pourrait faire plus de mal que de bien... L'urgence c'est de nous comprendre et d'évoluer dans nos inspirations profondes, sans quoi je pense qu'effectivement l'on court a la catastrophe....

Je crois que tout ça est en effet un énorme bordel parce que l'intelligence humaine n'est clairement pas définie au final. Qu'il y a par exemple une très forte présomption dans l'idée de metttre sur un même plan les neurones artificiels des neurones biologiques (et leur variété, encore mal comprise!). Et qu'intelligence signifie aussi adaptation à son environnement. Quel est l'environnement défini pour les IAs sinon celui que les humains leurs attribuent. Alphago et les échecs sont une farce dans l'argumentation d'une prétendue supériorité de l'IA. On présente ces jeux comme le summum de l'application de l'intelligence (individuelle!) humaine, alors même qu'ils ne sont intrinsèquement qu'une simplification à l'extrème de notre rapport au monde. Une IA de niveau humain ne devrait-elle pas être une intelligence capable de s'inscrire dans l'environnement terrestre, assurer sa viabilité et son expansion physique de façon autonome, et se poser la problématique de son existence au futur dans cet environnement, tout en préservant celui-ci? De plus, n'y a t-il pas une certaine naïveté a ne pas prendre en compte les tenants et aboutissants socio-économiques d'une telle révolution? Dans le sens où ceux qui avertissent sur les dangers de l'IA sont précisément les acteurs économiques qui ont les clés des avancées de la-dite IA. Aujourd'hui les IAs sont-elles bénéfiques où ne servent-elles qu'une politique générale de contrôle des citoyens? N'y a -til pas un risque que les citoyens "lambdas", étant totalement écartés de ces problématiques (et j'insiste là dessus), ne les rejettent avec force? On nous présente tout ça comme une équation mathématique sans grand lien avec la réalité j'ai l'impression, et qu'une IA aura au final son propre rapport au Monde, qui ne pourra et ne sera pas "de niveau" humain. tout ce qu'on nous présente comme par exemple les assistants des GAFA, ne sont que pâles immitations, je dirais même plus une insulte à l'intelligence dans sa composante sensible. On est vraiment dans un rapport de plus value économique, et encore une fois, j'ai l'impression qu'on joue au savant fou, alors qu'on devrait avoir une discussion mondiale, à tout niveau de société, sur cette question. Aujourd'hui ce n'est clairement pas le cas.

Un cas hypothétique, dans le cas d'une IA au delà du niveau humain mais qui est restée totalement sous contrôle, qui est restée un simple outil, je pense particulièrement aux assistants personnels. Que se passera-t-il si cette IA est tellement intelligente qu'elle réfléchit et anticipe mieux que nous dans tous les domaines. Si cette IA vous donnera des conseils (faire ceci aujourd'hui, choisir cela, ...) qui si ils sont suivis donneront toujours de meilleurs résultats que vos propres choix (réussite professionnel, bonheur, etc), de façon prouvée. Abandonnera-t-on toute idée de libre arbitre, de choix personnel? Voir peut être déposeront nous notre cerveau pour ne plus qu'être les bras et les jambes de cette IA (juste de fait, sans même que celle-ci n'ait une volonté d'asservissement)?

+Julien L. Je ne vois pas le rapport avec ma question... Tes deux premiers paragraphes tu me parles d'une sorte de manipulation entre congénères pour arriver à un certains but. Moi je me pose la question d'une personne qui va suivre volontairement son IA assistante personnel car elle propose toujours de meilleurs choix que ceux auxquelles la personne aurait penser. Je ne parle pas d'une personne qui se fait manipulée. Ton dernier paragraphe: mon libre arbitre est que j'ai choisi un métier, choisi une entreprise. Personne ne m'a dit d'aller dans tel entreprise car se serait mieux. J'ai fait un choix purement personnel.

Tu sais que c'est déjà le cas, nous sommes souvent asservis par nos congénères dans de nombreuses situations. Par exemple : Là je suis en train d'écrire n'importe quoi, tu commences à voir que j'écris n'importe quoi, et pourtant tu continues à lire car tu ne peux pas arrêter comme ça, tu ne peux pas partir sans être allé au bout du texte ! Tu es asservi ! Maintenant, je t'ordonne de passer à la lecture du paragraphe suivant. Dans ton esprit, ne visualise pas une banane... Que viens-tu de visualiser ? Une banane ! Décidément !

Salut Lê, je ne dors plus à cause de toi. Penses-tu qu'une IA de niveau humain puisse avoir des problèmes psychologiques?

Définitivement une super chaîne ! Hâte de voir les 2 séries de l'an prochain (pour enfin avoir des arguments pour "bien débattre" ...)

Alors on veut élargir son public? ;) Très bonne vidéo, un langage très compréhensible (autant le tien que le sien!)

Two of my favorite youtubers in the same video? So great!! With such a nice tokic too! Lê, ton accent est tout à fait décent, pas de soucis.

Concernant le sondage twitter, je pense que ta question a été interprétée (en tout cas c'est comme ça que je l'ai comprise) comme portant sur l'extinction totale de l'espèce humaine, et pas sur la destruction d'une grande partie (genre 50 ou 90%) de l'espèce. Et concernant l'extinction totale, c'est pas l'IA qui vient en premier à l'esprit. Quand bien même l'IA jugerait profitable de se débarrasser des humains, il me semble peu probable qu'elle se contente de supprimer toute menace, sans avoir besoin d'éradiquer l'espèce.

"IA de niveau humain". Le truc qui passe par-dessus la tête des gens, c'est qu'ils se concentrent sur la partie "IA" de cette expression... Y'a rien de plus flippant que l'humain selon moi... et y ajouter l'efficacité potentielle de l'IA... ben il est là le souci...

"Y'a rien de plus flippant que l'humain" Démonstration sinon fake

l'homme est un pauvre primate qui n'a rien demandé, sois indulgent.

Je ne comprends pas pourquoi Lê ne pouvait pas parler français dans cette vidéo...

Pas grave, même en français je comprends rarement vos vidéos, alors... :P

Excellente vidéo, comme d'habitude

Un épisode de Science4All qui sort un samedi ? Et voilà, j'ai l'impression de vivre dans un univers parallèle ! T'en fais pas pour ton accent, c'est plus facile à comprendre pour les français. Par contre pour les anglophones natifs je suis pas sûr :D Concernant la consommation d'énergie ainsi que la taille des IA, une idée me vient, là, comme ça : peut-être que l'optimisation de ces variables passera par une hybridation. On pourrait imaginer des 'bouillons de culture' de neurones connectés à des processeurs informatiques, non ? (je sais que c'est sans doute très ambitieux et que ça ne résout pas la question de la dangerosité)

Bonjour, as-tu une version française de ton papier "A roadmap for the value-loading problem", je comprends l'anglais mais j'ai peur de ne pas comprendre certaines nuances . Merci et bravo pour tes vidéos.

Que pensez vous de Yuval Noah Harari?

Lisez tous Sapiens, c'est indispensable

where is bryan ?

Bryan is in ton cul un dimanche matin après une sortie de boite :)

Bryan is in the kitchen.

Bonjour, Avant tous si la question à déjà été posée où même si celle-ci à déjà trouvée sa réponse, je m'en excuse. Mais quelque chose me tracasse vraiment. Il semble y avoir un consensus sur l'incertain de l'avenir de l'IA. Certains pensent que cette une calamité, d'autre une opportunité. Bien que comparaison ne soit pas raison, ça me fait penser un peu à des insectes s'approchant de trop près de la lumière, et d'un destin parfois funeste. J'en viens à ma question, ne serait-il pas plus simple, de poser un moratoire international sur la recherche en IA, enfin surtout sur la création/exploitation de celle-ci. Et ce tant qu'on ne puisse assurer la pérennité de l'espèce humaine? Il me semble au vu de la probabilité non-négligeable de la création d'une IA de niveau humaine, et de la manière dont toi et plusieurs autres personnalités qu'elle soient scientifiques ou simplement reconnue dans le monde technologique, nous exhorte à penser une éthique (un protocole de sécurité si je comprends bien). Et bien finalement continuer à ce diriger vers ce genre d'IA n'est pas tout simplement criminel ?

[Insérer commentaire qui se moque de l'accent de Lê] :P

Innegliche iz eu difficoult lèneguije tou leurne

What's "Human-level" ? Donald Trump level or Charles Darwin level ?

Laurent Souchaud An AI that can imitate both

Merci !

My tailor is rich

My flowers are beautifull! :D

Super! 2 Youtubers que j'adore en feat! super cadeau de Noël!! Pour mes prédictions, je prends en compte le côté exponentiel de cette progression, entre la puissance des calculs, l'amélioration des algorithmes, des chercheurs, mais aussi les motivations financières derrières tout ça! Du coup c'est pour ça que je suis sur du >25% pour une intelligence au niveau humain d'ici 2025.

+Science4All je n'attends que ça du coup ;)

Noël n'est pas encore arrivé... :wink: :wink:

So much fun making this with you Lê! Promise I have never made fun of your accent... ;)

In international conferences, everybody speaks "simplified english" with a strong accent (french, indian, chinese, russian, arabic...). And people understand each other, so that's perfectly fine. So far, 100% of people making fun of my accent are french (not even native english speakers). I think this is mostly pedantry, and a very problematic attitude (as you say, it probably discourages a lot of people to speak english). French people are also very proud of signaling typos in other people's messages, that's probably the same mindset... By the way, this is pretty ironic, as french is supposed to be THE language with a "flat" accent. So why care so much about accent? :)

I've been following you for a while now Jade. It was a very pleasant surprise to see a collaboration with Le! :)

+bobz It's not because the one language, it's just for learning speaking in generaly. French is emotional language with différent sexe, we explain the world with eye before ears. It's naturaly difficult learning other langages when we living far others cultures, I think. I had lot of difficult learning englis at school, but it's very easy with long journey.

I wonder how many french people gave up talking english just because of other people making fun of their accent. That's annoying when you're limited to talk just because of that fear, and maybe explains why french people are so uncomfortable with english speaking...

@Up and Atom now it's time to learn french ;)

Pas grave Lê ^^ on traversera la barrière de la langue pour tes vidéos

Define human level AI ... because if we are talking about a STRONG AI that can mimic our ability to infer and so on ... it WILL NEVER HAPPEN ! because AI only rely on math and don't have a biological substrate that can allow blurred logic to happen !

+jackbauer322 "Fuzzy logic has been applied to many fields, from control theory to artificial intelligence." oh wait, I think it's already in application

+Olivier Massicot FUZZY logic sorry !

What do you call blurred logic?

AI are good at imitation, so if we train them on human data maybe they could think like humans (or pretend to think like humans ;)

wait and see

It could happen, a blurred logic is a logic none the less, it can be either random, either come from a bad reasoning, none of those are impossible to reproduct with line of code.

Everything is Mathematical!

Thank You.


Bonjour Lê, Es ce que tu pourrais faire une vidéo sur les modèles additifs généralisés (GAM) stp ?

Ah d'accord j'avais regardé mais c'est surtout dans la pratique que je me posais certaines questions comme comment choisir les fonctions non linéaire quand il en faut plusieurs pour faire la prédiction, les étapes de pré processing... Sinon cette vidéo m'a aidé à comprendre beaucoup de choses quand même

C'est un peu ce que j'ai présenté dans l'épisode 10 ;)

I A +...!

C'était tellement compliqué que j'avais l'impression que tu parlais une autre langue

Y a-t-il une traduction de ton article "Roadmap for value-loading.." Lê ?

Other news