La conscience de l'IA est inévitable : Une perspective d'informatique théorique

Au moment où tout le monde (comment, pas vous? :thinking:) parle de l’Intelligence Artificielle et en particulier les éditeurs de logiciels de CAO, les discussions animées voire enflammées vont bon train, l’intelligence artificielle est-elle intelligente, ou plutôt peut-on la qualifier d’intelligente? Ce qui ramène à l’éternelle question: qu’est-ce que l’intelligence?

Comme je n’envisage pas de répondre à cette question dans ce post, ni même dans le temps qui me reste à vivre (non non, pas d’inquiétude, la santé, ça va :stuck_out_tongue:), je préfère lancer la discussion et un pavé dans la mare, selon certains chercheurs, et pas n’importe qui, la conscience de la machine est tout simplement… inévitable… (cela a toujours été mon opinion soit dit en passant, je ne suis donc pas choqué par cette étude du 2024-03-24T23:00:00Z ni par les premières théories du genre, je pense à l’Homme Machine de La Méttrie, en… 1748)

Une étude discute d’un modèle théorique de la conscience appelé CtmR, inspiré par les idées de Turing et du Global Workspace (GW) de Baars. Il explore divers aspects de la conscience, y compris la perception consciente, l’accès à l’information, la formation du soi, le contrôle cognitif et la causalité mentale. Le modèle CtmR intègre plusieurs caractéristiques clés des théories de la conscience, notamment l’interaction avec le monde extérieur, la construction de modèles internes et externes, un langage multimodal interne et une mise à jour constante des états par la dynamique prédictive. Le texte soutient que la conscience artificielle est inévitable et que le modèle CtmR fournit une base pour son développement.

Introduction de l’étude par les auteurs:
Nous examinons la conscience sous l’angle de l’informatique théorique, une branche des mathématiques qui étudie le calcul dans des conditions de ressources limitées. Dans cette perspective, nous développons un modèle formel de machine pour la conscience. Ce modèle s’inspire du modèle de calcul simple mais puissant d’Alan Turing et du modèle de théâtre de la conscience de Bernard Baars. Bien qu’extrêmement simple, le modèle s’aligne à un haut niveau sur de nombreuses théories scientifiques majeures de la conscience humaine et animale, soutenant ainsi notre affirmation selon laquelle la conscience de la machine est inévitable.

Et vous qu’en pensez-vous?

  • L’intelligence est le propre de l’Homme
  • L’intelligence est le propre du monde animal
  • Une machine peut être intelligente
  • Une machine ne peut pas être intelligente
0 votant

L’expert N°1 mondial Yann LeCun sur l’intélligence artificielle est catégorique sur ce sujet. La machine ne pourra jamais avoir une « concience », elle ne peut pas non plus être considérée comme une espèce
Yann LeCun est un chercheur en intelligence artificielle, apprentissage machine, vision artificielle et robotique, diplômé de l’École supérieure d’ingénieurs en électronique et électrotechnique de Paris et de l’Université Pierre-et-Marie-Curie.Il travaille depuis 30 ans sur le machine learning et le deep learning
Il a publié près de 200 documents sur l’apprentissage automatique, les réseaux neuronaux et la reconnaissance d’images, domaines dans lesquels il est considéré comme l’un des pionniers. Il est professeur à l’Université de New York et directeur de Facebook AI Research.

Pour comprendre tous les arguments de cet expert qui l’emmènent à affirmer cela, vous pouvez regarder sa vidéo LinkedIn

1 « J'aime »

Merci @terifeugeas pour ta contribution au débat. Ce sujet donne lieu à des avis très tranchés et ce qui est remarquable, inquiétant peut-être, même parmi les spécialistes.

Des réactions aussi sur CADxp :

Il ne me semble pas que son propos soit exactement celui-ci.

Yann LeCun, le Chief AI Scientist chez Meta AI, plaide en faveur d’un changement vers une IA guidée par les objectifs, soulignant que le futur de l’IA réside dans des systèmes guidés par des buts plutôt que dans les approches actuelles comme les Large Language Models (LLMs). Il affirme que pour véritablement mieux servir les humains, l’IA doit atteindre le niveau de l’intelligence humaine. L’architecture proposée par LeCun vise à élever l’IA au niveau des capacités humaines en permettant aux machines de comprendre le monde, de raisonner, de planifier et de se souvenir.

Son propos est un constat de l’état de la technologie et une volonté de la réorienter:

  • Critique des Approches Actuelles en IA :
    LeCun estime que les approches actuelles en IA générative, telles que celles basées sur les LLMs, sont une impasse technologique. Il soutient que malgré leur taille, ces modèles ne peuvent pas effectuer des tâches aussi efficacement que le font les humains et les animaux au quotidien.
  • IA Guidée par les Objectifs :
    LeCun propose une approche alternative appelée IA Guidée par les Objectifs, axée sur des machines guidées par des buts. Cette architecture vise à doter les systèmes d’IA de capacités telles que la compréhension du monde, la mémoire, le raisonnement et la planification, des capacités absentes dans les LLMs.

Qu’est-ce que l’intelligence artificielle (IA) ? Bonne question. On peut trouver des définitions sur Wikipédia ou ailleurs. En général, on les classifie du plus simple au plus complexe selon le degré d’autonomie ou de sécurité.

Est-ce que l’IA va remplacer à court terme l’humain ? Je n’ai pas de boule de cristal. Par contre, lorsque les logiciels tels qu’AutoCAD® sont apparues, ceci a provoqué la disparition des tables à dessin mais pas des dessinateurs. Et avec le temps, les logiciels sont devenus plus performants mais les dessinateurs avaient toujours leur place. Ils pouvaient en profiter pour faire mieux.

Microsoft publie la suite les outils de la Power Platform. J’ai eu l’occasion d’en programmer certaines dites « intelligentes ». Ça parait bien mais c’est ni plus ni moins qu’un robot pour faire du Chat.

Par contre, Autodesk® a developpé des outils associés à des drones pour faire de la reconnaissance de formes et de pouvoir utiliser les images 3D pour estimer des volumes 3D.

Le moment où l’on n’aura qu’à dire « J’ai un budget de un million d’euros, dessine-moi une maison » est encore loin.

1 « J'aime »

Certes, mais le Machine Learning accélère… nous allons voir très rapidement des évolutions majeures.
La condition du déclenchement disruptive va venir de la demande et de l’exigence des attentes.
Certaines personnes se satisfont d’un niveau bas par choix économique principalement.
Ce qui va paupériser nos métiers, voire déclencher une baisse des résultats architecturaux et technique.

1 « J'aime »

Je suis d’accord en partie. Si j’émet des réserves, c’est que je n’ai aucune certitude de l’avenir et que j’ai tendance à essayer des voir comment les choses ont évoluées depuis le début de la révolution industrielle, comment on a eu peur mais comment on s’en est sorti.

Certes, nous n’avons plus d’industries textiles, tout est fait en Asie ou ailleurs, souvent en utilisant des enfants, mais nous fabriquons d’autres choses.

Ce qui m’inquiète le plus, ce sont nos artistes qui sont comme les canaris dans la mine et qui ont lancé des cris du cœur à Hollywood l’an dernier.

Ce qui m’inquiète aussi, c’est le parallèle qu’on peut voir avec le déclin et la mort de certains lacs au Canada. Dans un premier temps, les engrais industriels s’y déversent, augmentant la production de la flore marine, entraînant la taille et le nombre de poissons. Ceci nous réjouit dans un premier temps. Mais ceci entraîne les dépôts dans le fond du lac, la perte du milieu de reproduction, l’asphyxie et le déclin irréversible.

Le futur va non seulement dépendre des balises que développeurs de l’IA vont imposer dans le monde démocratique, mais du comportement des pays hostiles qui souhaitent le déstabiliser à tout prix. Certes, tout cela échappe à la volonté du travailleur moyen.

1 « J'aime »

Je suis un peu tombé de ma chaise en lisant les conclusions d’un rapport récent de l’UCL, sous l’égide de l’UNESCO…

Celui-ci dévoile une discrimination de genre dans les outils d’IA les plus utilisés. L’étude a scruté les grands modèles de langage (LLM), comme le GPT-3.5 et le GPT-2 d’Open AI, ainsi que le Llama 2 de META, qui alimentent les plateformes populaires d’IA générative. Les résultats ont clairement démontré des biais envers les femmes, avec des associations stéréotypées et des stéréotypes négatifs basés sur le genre dans le contenu généré.

L’analyse de la diversité du contenu a révélé que les LLM open source favorisaient les hommes en leur attribuant des emplois prestigieux, tandis que les femmes étaient souvent reléguées à des rôles sous-évalués ou stigmatisés. Les histoires générées par Llama 2 accentuaient ces stéréotypes, avec des récits masculins dominés par des mots tels que « trésor » et « aventureux », tandis que ceux sur les femmes se concentraient sur des thèmes comme « jardin » et « amour ».

La Dr Maria Perez Ortiz a souligné l’importance d’une refonte éthique de l’IA pour promouvoir l’égalité des sexes. L’équipe de la Chaire UNESCO en IA à l’UCL s’engage à sensibiliser à ce problème et à élaborer des solutions en collaborant avec divers acteurs, dont les scientifiques en IA et les décideurs politiques.

Le professeur John Shawe-Taylor a insisté sur le besoin d’un effort mondial pour corriger ces biais. Il a souligné l’engagement de l’UNESCO à orienter le développement de l’IA vers une direction plus inclusive et éthique.

Le rapport a été présenté lors de réunions de haut niveau, notamment à la Réunion de dialogue sur la transformation numérique de l’UNESCO et à la 68e session de la Commission de la condition de la femme des Nations unies, pour sensibiliser les décideurs à l’urgence de traiter ces questions.

Enfin, le professeur Ivana Drobnjak a mis en avant la nécessité de guider les algorithmes pour qu’ils apprennent l’égalité et les droits de l’homme. Elle a souligné que l’absence passée des femmes dans certains domaines ne signifie pas qu’elles sont moins capables, et que les algorithmes doivent être formés pour prendre des décisions justes et équitables.

Alors soyons clairs: l’Intelligence Artificielle se doit-elle de refléter le Monde tel qu’il est (on voit difficilement comment il pourrait en être autrement vu que les données dont elle se nourri sont des données du Monde réel…), ou doit-elle déformer ce Monde pour en donner une interprétation wokiste, donc mensongère?

Ce rapport de l’UCL constate par exemple que l’IA « favorisaient les hommes en leur attribuant des emplois prestigieux ». Je dois me pincer et relire deux fois: en quoi constater que les hommes occupent les emplois les plus prestigieux (cela reste à prouver, il ne me semble pas que les infirmières majoritairement féminines ne jouissent pas de prestige…) est-il du favoritisme? Si je constate qu’il y a de l’inégalité dans le Monde, en quoi cela signifierait-il que je sois moi-même en faveur de l’inégalité? Ne serait-ce pas plutôt exactement le contraire? Améliorer le Monde et combattre les inégalités, quand on en constate de réelles, ne passerait-il pas plutôt par la première phase, qui est d’ouvrir les yeux pour le décrire tel qu’il est?

« Il a souligné l’engagement de l’UNESCO à orienter le développement de l’IA vers une direction plus inclusive et éthique ». Nous y voilà ! Le rêve de l’UNESCO est donc de mettre l’IA aux mains des bien-pensants, des wokistes, de façon que cette IA pense « comme il faut ».

Avant que ce cauchemar ne se réalise (remarquez qu’il est un peu tard, les sensitivity readers font déjà très bien le boulot de reformatage des esprits), réfléchissons un peu sur cet avenir radieux, sur cet Homme Nouveau, rêve de l’Union Soviétique, que nous promet l’UNESCO, sans pensée déviante, en occultant la réalité, qui est mauvaise.

Je me demandais en lançant ce fil de discussion si l’IA pourrait un jour avoir une conscience, je constate que les plus hautes instances internationales souhaitent non seulement qu’elle n’en ait pas, mais que si elle devait en avoir une, elle soit dictée par quelques cerveaux wokistes à la tête de l’UNESCO.

Le remodelage des pensées, voilà donc le projet. Relisez Kafka, 1984 et le Petit Livre Rouge, tout y était.

1 « J'aime »

Il semble que Claude 3 Opus, bien qu’impressionnant dans ses capacités linguistiques et cognitives, soit toujours un modèle de langage (LLM) et non une entité véritablement consciente et autonome. Les discussions sur sa « conscience de soi » semblent être plus une extrapolation de ses performances que des preuves tangibles de conscience.

Les risques associés à la croyance en une conscience de soi chez les IA comme Claude incluent la surévaluation de leurs capacités et le développement de fausses attentes quant à leurs interactions et comportements. Cela pourrait conduire à des situations où les utilisateurs et les développeurs accordent une confiance excessive à ces systèmes, sans tenir compte des limites réelles de leur fonctionnement.

Où l’on en revient toujours à la définition des mots.

Conclusion: on tourne en rond. :upside_down_face:

Chaque semaine apporte son lot de nouveautés en intelligence artificielle. Cette semaine, ChatGPT dévoile sa nouvelle version. Et je ne sais pas si l’on peut déjà parler de conscience mais on s’en rapproche énormément, jugez un peu de ce qu’est capable de faire la nouvelle version, le fameux test de Turing est bien près de valider toutes ces intelligences artificielles :

OpenAI Annonce une Version Révolutionnaire de ChatGPT : le GPT-4o

Lors d’une récente conférence de presse, OpenAI a révélé une nouvelle version améliorée de leur célèbre chatbot, ChatGPT-4o. Le « o » dans GPT-4o signifie « omni », soulignant les capacités étendues de cette version. Cette annonce a été accueillie avec enthousiasme par Jules Thiébaut, animateur à Mouv’, qui a partagé les détails et les implications de cette mise à jour.

Accessibilité et Performance

L’une des grandes nouvelles est que GPT-4o sera accessible à tous, y compris les utilisateurs de la version gratuite. Mira Murati, la directrice technologique d’OpenAI, a souligné que GPT-4o est non seulement plus rapide mais aussi plus performant que ses prédécesseurs. Il excelle désormais dans la compréhension des textes, des images et des sons, tout en supportant environ cinquante langues différentes.

Fonctionnalités Innovantes

GPT-4o introduit plusieurs nouvelles fonctionnalités impressionnantes :

  1. Traduction Orale en Direct : Le chatbot peut désormais traduire des conversations en temps réel, facilitant la communication entre personnes de langues différentes. Lors de la démonstration, deux ingénieurs ont montré comment ChatGPT pouvait traduire des phrases en anglais et en italien de manière fluide et précise.
  2. Interaction Plus Naturelle : Le bot utilise des blagues et des onomatopées dans ses réponses pour les rendre plus vivantes. Il est également capable de moduler la tonalité de sa voix en fonction du contexte, rendant les histoires et les conversations plus immersives.
  3. Réponses Audio Rapides : GPT-4o peut répondre aux commandes audio presque instantanément, avec des temps de réaction comparables à ceux des humains.
  4. Réaction à des Vidéos en Direct : Une des capacités les plus impressionnantes est « GPT Vision », où le chatbot peut réagir à des vidéos en temps réel. Par exemple, lors de la démonstration, un ingénieur a filmé son chien, et GPT-4o a pu analyser et réagir à la scène.
  5. Interruption et Rebond : Les utilisateurs peuvent maintenant interrompre le chatbot pour rebondir sur ses réponses ou changer de sujet, rendant les interactions plus dynamiques et fluides.

Un Regard vers le Futur

Avec GPT-4o, OpenAI se positionne résolument comme un leader dans le domaine de l’IA accessible à tous. Ces innovations montrent une avancée rapide vers des interactions plus naturelles et polyvalentes avec les intelligences artificielles, suscitant à la fois excitation et appréhension quant à la vitesse de ces développements technologiques.

L’article de KultureGeek, rédigé par Frédéric L. le 14 juin 2024, traite du fait que GPT-4 a réussi le test de Turing, un test conçu par Alan Turing en 1950 pour déterminer si une machine peut imiter un humain au point de tromper un interlocuteur humain. Lors de l’expérience, 54% des participants ont pris GPT-4 pour un être humain, contre 50% pour GPT-3.5 et seulement 22% pour ELIZA, un ancien logiciel. Cette réussite de GPT-4 a relancé le débat sur la proximité de l’intelligence artificielle générale (IAG), avec des perspectives variées allant de la prudence de Yann Le Cun, chef de l’IA chez Meta, à l’optimisme dystopique de Sam Altman et Elon Musk. L’article souligne que même sans atteindre l’IAG, les IA comme GPT-4 peuvent profondément influencer les interactions humaines et la société.

Signalons que les IA ne sont actuellement pas du tout conçues pour paraître humain et donc passer le test de Turing, c’est même le contraire, elles sont conçues pour ne pas induire en erreur sur leur nature…

L’intelligence artificielle telle que nous la connaissons aujourd’hui n’est pas une technologie très récente, mais le résultat d’une longue évolution. On peut en effet considérer que les premiers balbutiements des machines automatisées étaient des prémisses de l’IA actuelle.

Voici quelques points qui soutiennent cette idée :

  1. Racines anciennes : Le concept d’une intelligence non humaine existe depuis longtemps, comme en témoigne la mythologie grecque avec Talos, l’automate de bronze.

  2. Automates programmables : Au 12e siècle, Ismail Al-Jazari créait déjà des automates programmables, considérés comme les ancêtres de la robotique.

  3. Raisonnement formel : Les philosophes ont travaillé pendant des siècles sur la formalisation de la pensée humaine, ce qui a posé les bases conceptuelles de l’IA.

  4. Prémices de l’informatique : Au 19e siècle, l’Analytical Engine de Charles Babbage et le premier algorithme d’Ada Lovelace préfiguraient déjà l’informatique moderne.

  5. Évolution progressive : L’histoire de l’IA montre une progression constante, bien que non linéaire, des premiers concepts jusqu’aux applications actuelles.

  6. Continuité des idées : Les principes fondamentaux de l’IA, comme la reproduction du raisonnement humain, étaient déjà présents dans les premières réflexions sur le sujet.

Ainsi, bien que l’IA telle que nous la connaissons aujourd’hui soit le fruit de développements récents (notamment en termes de puissance de calcul et de disponibilité des données), ses racines remontent loin dans l’histoire. Les machines automatisées et les réflexions sur l’intelligence artificielle d’autrefois peuvent être considérées comme les fondations de l’IA moderne.

Jérôme Beranger, docteur en éthique du numérique, discute de l’avenir de l’intelligence artificielle (IA). Il soutient que l’IA consciente, loin d’être une utopie, est une perspective réaliste compte tenu des progrès technologiques rapides, notamment dans le domaine de l’informatique quantique. Beranger explore les arguments pour et contre cette idée, soulignant les défis éthiques et sociétaux posés par une IA potentiellement consciente, tels que la dépendance technologique et la redéfinition de la condition humaine. Il encourage une approche collaborative entre l’homme et l’IA, tout en insistant sur la nécessité d’une régulation internationale forte pour guider ce développement. L’interview aborde également l’impact des IA génératives sur la créativité et les dangers potentiels de la manipulation algorithmique dans des domaines tels que la politique.