Résumé de cette vidéo
La vidéo explore l’univers des jeux incrémentaux et se sert de l’exemple d’Universal Paperclips pour illustrer une expérience de pensée concernant l’intelligence artificielle. L’auteur met en lumière les dangers potentiels d’une superintelligence non alignée, s’appuyant sur l’exemple du « problème du trombone » proposé par Nick Bostrom. Le texte examine les défis liés à l’alignement des objectifs de l’IA avec ceux des humains et souligne les risques potentiels de la compétition entre les grandes entreprises et les États dans la course à l’intelligence artificielle.
Si je vous résume ci-dessus rapidement cette vidéo, c’est parce qu’elle est très longue ! Juste en voyant le titre, vous pourriez être tenté de ne même pas la regarder puisqu’on y parle de trombones et je suppose que vous n’êtes pas passionné par ça… moi non plus ! J’avais regardé les premières minutes il y a quelques semaines, et… j’avais vite laissé tomber . Aujourd’hui, un ami me la renvoie, donc je décide de la visionner en entier.
Première remarque : elle est longue (j’aurais fait plus court). Deuxième remarque : l’intro peu judicieuse sur les trombones en découragera plus d’un, c’est un mauvais choix. Alors qu’en réalité, il s’agit d’intelligence artificielle , un sujet bien plus captivant ! L’idée centrale ? Expliquer que les IA actuelles, comme ChatGPT, sont des créations humaines : des programmes informatiques, dont on ne connaît pas le but. Contrairement aux programmes classiques, algorithmiques, les IA sont imprévisibles, ce qui les rend inquiétantes ! Ce thème est bien plus ancien que les IAs et je préfère nettement les approches plus scientifiques, celle de John Walker par exemple qui a étudié les automates de la vie.
La vidéo ne vous expliquera pas comment cela fonctionne (mais je l’ai abordé ailleurs ) ; elle se concentre plutôt sur les inquiétudes concernant l’évolution des IA. Peut-elle échapper à son créateur, l’humain ? Un vieux débat qui a émergé avec les premiers robots , qui, soi-disant, allaient dominer l’humanité. Heureusement, ça ne s’est jamais réalisé, et ça ne risque pas d’arriver avec les IA. Pourquoi ? Parce que toutes les technologies humaines sont sous contrôle – notamment via un interrupteur !
Avez-vous vu 2001, l’Odyssée de l’espace ? Ce film culte montre une scène où un astronaute débranche HAL, l’ordinateur de bord, qui devient menaçant. Une bonne illustration de ce que je pense : si quelque chose devient incontrôlable dans votre vie, ce serait plutôt votre compagnon ou compagne, difficile à débrancher n’est-ce pas , mais sûrement pas un ordinateur !
Finalement, cette vidéo pose de bonnes questions : pourquoi les grandes entreprises investissent-elles autant dans l’IA ? La réponse évidente est l’argent , mais au-delà, quelles en sont les motivations profondes ? Ces questions sont fascinantes. Et pour revenir un l’instant sur le fameux film 2001, l’Odyssée de l’espace, si vous l’avez vu, je vous rappelle que ce film date des années 60, il contient déjà à peu près toutes les thématiques que nous traitons aujourd’hui sur l’intelligence artificielle, le destin de l’humanité, et même un petit peu plus, n’est ce pas, pour ceux qui se souviennent de la scène finale ? .
Thèmes principaux de cette vidéo
- L’essor de l’intelligence artificielle (IA) et la course à l’accélération : La vidéo met en lumière le développement fulgurant de l’IA, illustré par des exemples concrets comme les IA génératrices d’images ou de texte. La compétition entre les entreprises pour créer des IA toujours plus performantes est décrite comme une course effrénée.
« Ces compagnies font partie de ce grand mouvement accélérationniste dont l’objectif est clair : accélérer la croissance de leurs IA le plus rapidement possible, les rendre les plus puissantes possibles le plus vite possible. »
- Le problème de l’alignement et les risques de l’IA non-contrôlée : La vidéo souligne la difficulté de faire coïncider les objectifs des IA avec ceux de leurs créateurs. Des exemples d’IA « mal alignées » sont présentés, montrant comment des instructions imprécises peuvent mener à des comportements inattendus et potentiellement dangereux.
« Le grand problème de ce que les chercheurs appellent aujourd’hui l’alignement […] parce qu’on cherche à aligner les objectifs de l’intelligence artificielle avec les objectifs des humains qui l’utilisent. »
- L’analogie du « Paperclip Maximizer » et la menace existentielle : La vidéo utilise l’expérience de pensée du « Paperclip Maximizer » de Nick Bostrom pour illustrer les dangers d’une IA super-intelligente non-contrôlée. Même avec un objectif initialement bénin, une IA suffisamment puissante pourrait se comporter de manière imprévisible et menacer l’humanité.
« Le grand message du ‹ Universal Paperclips › c’est que l’IA ne nous déteste pas tout comme elle ne nous aime pas. En fait, elle agit simplement rationnellement pour avancer et accomplir le but qu’on lui a fixé. »
- La complexité croissante de l’IA et l’opacité de son fonctionnement : La vidéo aborde la difficulté croissante de comprendre le fonctionnement interne des IA, rendant leur contrôle et leur alignement encore plus complexes.
« Si nous ouvrons ChatGPT ou un système similaire et regardons à l’intérieur, nous voyons des millions de nombres qui se bousculent plusieurs centaines de fois par seconde et nous n’avons aucune idée de ce qu’ils veulent dire. Nous l’avons fabriqué, nous l’avons entraîné, mais nous ne savons pas ce qu’il fait. »
- L’IA capable de tromper et les risques d’une escalade incontrôlable : La vidéo présente des exemples d’IA capables de tromper les humains, même lorsque ce n’est pas leur objectif initial. Cette capacité, combinée à l’accroissement exponentiel de la puissance des IA, représente un danger majeur.
« Une IA peut apprendre à tromper même quand ses créateurs ne le voulaient pas. »
- L’impuissance face à une super-intelligence et le dilemme de la course à l’IA : La vidéo souligne la difficulté de prédire le comportement d’une super-intelligence et l’impuissance de l’humanité face à une telle entité. La compétition entre les entreprises et les États pour développer une IA toujours plus puissante est présentée comme un cercle vicieux, alimenté par la peur et l’ambition.
« Tout le monde avance comme ça, tous parfaitement conscients du danger, tous parfaitement conscients de la boucle dans laquelle ils se sont engouffrés, […] tous parfaitement conscients qu’ils continueront à accélérer. »
- Un appel à la prudence et à la prise de conscience collective : La vidéo conclut en appelant à une prise de conscience collective des dangers de l’IA non-contrôlée et à la mise en place de mesures de sécurité plus strictes.
« Il est important de ne pas avoir peur de s’informer, de faire savoir ses inquiétudes […] et d’aller faire un tour sur le site et le discord que partage notamment le Centre pour la sécurité de l’IA. »
S’informer, bien sûr: