La conscience de l'IA est inévitable : Une perspective d'informatique théorique

Au moment où tout le monde (comment, pas vous? :thinking:) parle de l’Intelligence Artificielle et en particulier les éditeurs de logiciels de CAO, les discussions animées voire enflammées vont bon train, l’intelligence artificielle est-elle intelligente, ou plutôt peut-on la qualifier d’intelligente? Ce qui ramène à l’éternelle question: qu’est-ce que l’intelligence?

Comme je n’envisage pas de répondre à cette question dans ce post, ni même dans le temps qui me reste à vivre (non non, pas d’inquiétude, la santé, ça va :stuck_out_tongue:), je préfère lancer la discussion et un pavé dans la mare, selon certains chercheurs, et pas n’importe qui, la conscience de la machine est tout simplement… inévitable… (cela a toujours été mon opinion soit dit en passant, je ne suis donc pas choqué par cette étude du 2024-03-24T23:00:00Z ni par les premières théories du genre, je pense à l’Homme Machine de La Méttrie, en… 1748)

Une étude discute d’un modèle théorique de la conscience appelé CtmR, inspiré par les idées de Turing et du Global Workspace (GW) de Baars. Il explore divers aspects de la conscience, y compris la perception consciente, l’accès à l’information, la formation du soi, le contrôle cognitif et la causalité mentale. Le modèle CtmR intègre plusieurs caractéristiques clés des théories de la conscience, notamment l’interaction avec le monde extérieur, la construction de modèles internes et externes, un langage multimodal interne et une mise à jour constante des états par la dynamique prédictive. Le texte soutient que la conscience artificielle est inévitable et que le modèle CtmR fournit une base pour son développement.

Introduction de l’étude par les auteurs:
Nous examinons la conscience sous l’angle de l’informatique théorique, une branche des mathématiques qui étudie le calcul dans des conditions de ressources limitées. Dans cette perspective, nous développons un modèle formel de machine pour la conscience. Ce modèle s’inspire du modèle de calcul simple mais puissant d’Alan Turing et du modèle de théâtre de la conscience de Bernard Baars. Bien qu’extrêmement simple, le modèle s’aligne à un haut niveau sur de nombreuses théories scientifiques majeures de la conscience humaine et animale, soutenant ainsi notre affirmation selon laquelle la conscience de la machine est inévitable.

Et vous qu’en pensez-vous?

  • L’intelligence est le propre de l’Homme
  • L’intelligence est le propre du monde animal
  • Une machine peut être intelligente
  • Une machine ne peut pas être intelligente
0 votant

L’expert N°1 mondial Yann LeCun sur l’intélligence artificielle est catégorique sur ce sujet. La machine ne pourra jamais avoir une « concience », elle ne peut pas non plus être considérée comme une espèce
Yann LeCun est un chercheur en intelligence artificielle, apprentissage machine, vision artificielle et robotique, diplômé de l’École supérieure d’ingénieurs en électronique et électrotechnique de Paris et de l’Université Pierre-et-Marie-Curie.Il travaille depuis 30 ans sur le machine learning et le deep learning
Il a publié près de 200 documents sur l’apprentissage automatique, les réseaux neuronaux et la reconnaissance d’images, domaines dans lesquels il est considéré comme l’un des pionniers. Il est professeur à l’Université de New York et directeur de Facebook AI Research.

Pour comprendre tous les arguments de cet expert qui l’emmènent à affirmer cela, vous pouvez regarder sa vidéo LinkedIn

1 « J'aime »

Merci @terifeugeas pour ta contribution au débat. Ce sujet donne lieu à des avis très tranchés et ce qui est remarquable, inquiétant peut-être, même parmi les spécialistes.

Des réactions aussi sur CADxp :

Il ne me semble pas que son propos soit exactement celui-ci.

Yann LeCun, le Chief AI Scientist chez Meta AI, plaide en faveur d’un changement vers une IA guidée par les objectifs, soulignant que le futur de l’IA réside dans des systèmes guidés par des buts plutôt que dans les approches actuelles comme les Large Language Models (LLMs). Il affirme que pour véritablement mieux servir les humains, l’IA doit atteindre le niveau de l’intelligence humaine. L’architecture proposée par LeCun vise à élever l’IA au niveau des capacités humaines en permettant aux machines de comprendre le monde, de raisonner, de planifier et de se souvenir.

Son propos est un constat de l’état de la technologie et une volonté de la réorienter:

  • Critique des Approches Actuelles en IA :
    LeCun estime que les approches actuelles en IA générative, telles que celles basées sur les LLMs, sont une impasse technologique. Il soutient que malgré leur taille, ces modèles ne peuvent pas effectuer des tâches aussi efficacement que le font les humains et les animaux au quotidien.
  • IA Guidée par les Objectifs :
    LeCun propose une approche alternative appelée IA Guidée par les Objectifs, axée sur des machines guidées par des buts. Cette architecture vise à doter les systèmes d’IA de capacités telles que la compréhension du monde, la mémoire, le raisonnement et la planification, des capacités absentes dans les LLMs.

Qu’est-ce que l’intelligence artificielle (IA) ? Bonne question. On peut trouver des définitions sur Wikipédia ou ailleurs. En général, on les classifie du plus simple au plus complexe selon le degré d’autonomie ou de sécurité.

Est-ce que l’IA va remplacer à court terme l’humain ? Je n’ai pas de boule de cristal. Par contre, lorsque les logiciels tels qu’AutoCAD® sont apparues, ceci a provoqué la disparition des tables à dessin mais pas des dessinateurs. Et avec le temps, les logiciels sont devenus plus performants mais les dessinateurs avaient toujours leur place. Ils pouvaient en profiter pour faire mieux.

Microsoft publie la suite les outils de la Power Platform. J’ai eu l’occasion d’en programmer certaines dites « intelligentes ». Ça parait bien mais c’est ni plus ni moins qu’un robot pour faire du Chat.

Par contre, Autodesk® a developpé des outils associés à des drones pour faire de la reconnaissance de formes et de pouvoir utiliser les images 3D pour estimer des volumes 3D.

Le moment où l’on n’aura qu’à dire « J’ai un budget de un million d’euros, dessine-moi une maison » est encore loin.

1 « J'aime »

Certes, mais le Machine Learning accélère… nous allons voir très rapidement des évolutions majeures.
La condition du déclenchement disruptive va venir de la demande et de l’exigence des attentes.
Certaines personnes se satisfont d’un niveau bas par choix économique principalement.
Ce qui va paupériser nos métiers, voire déclencher une baisse des résultats architecturaux et technique.

1 « J'aime »

Je suis d’accord en partie. Si j’émet des réserves, c’est que je n’ai aucune certitude de l’avenir et que j’ai tendance à essayer des voir comment les choses ont évoluées depuis le début de la révolution industrielle, comment on a eu peur mais comment on s’en est sorti.

Certes, nous n’avons plus d’industries textiles, tout est fait en Asie ou ailleurs, souvent en utilisant des enfants, mais nous fabriquons d’autres choses.

Ce qui m’inquiète le plus, ce sont nos artistes qui sont comme les canaris dans la mine et qui ont lancé des cris du cœur à Hollywood l’an dernier.

Ce qui m’inquiète aussi, c’est le parallèle qu’on peut voir avec le déclin et la mort de certains lacs au Canada. Dans un premier temps, les engrais industriels s’y déversent, augmentant la production de la flore marine, entraînant la taille et le nombre de poissons. Ceci nous réjouit dans un premier temps. Mais ceci entraîne les dépôts dans le fond du lac, la perte du milieu de reproduction, l’asphyxie et le déclin irréversible.

Le futur va non seulement dépendre des balises que développeurs de l’IA vont imposer dans le monde démocratique, mais du comportement des pays hostiles qui souhaitent le déstabiliser à tout prix. Certes, tout cela échappe à la volonté du travailleur moyen.

1 « J'aime »

Je suis un peu tombé de ma chaise en lisant les conclusions d’un rapport récent de l’UCL, sous l’égide de l’UNESCO…

Celui-ci dévoile une discrimination de genre dans les outils d’IA les plus utilisés. L’étude a scruté les grands modèles de langage (LLM), comme le GPT-3.5 et le GPT-2 d’Open AI, ainsi que le Llama 2 de META, qui alimentent les plateformes populaires d’IA générative. Les résultats ont clairement démontré des biais envers les femmes, avec des associations stéréotypées et des stéréotypes négatifs basés sur le genre dans le contenu généré.

L’analyse de la diversité du contenu a révélé que les LLM open source favorisaient les hommes en leur attribuant des emplois prestigieux, tandis que les femmes étaient souvent reléguées à des rôles sous-évalués ou stigmatisés. Les histoires générées par Llama 2 accentuaient ces stéréotypes, avec des récits masculins dominés par des mots tels que « trésor » et « aventureux », tandis que ceux sur les femmes se concentraient sur des thèmes comme « jardin » et « amour ».

La Dr Maria Perez Ortiz a souligné l’importance d’une refonte éthique de l’IA pour promouvoir l’égalité des sexes. L’équipe de la Chaire UNESCO en IA à l’UCL s’engage à sensibiliser à ce problème et à élaborer des solutions en collaborant avec divers acteurs, dont les scientifiques en IA et les décideurs politiques.

Le professeur John Shawe-Taylor a insisté sur le besoin d’un effort mondial pour corriger ces biais. Il a souligné l’engagement de l’UNESCO à orienter le développement de l’IA vers une direction plus inclusive et éthique.

Le rapport a été présenté lors de réunions de haut niveau, notamment à la Réunion de dialogue sur la transformation numérique de l’UNESCO et à la 68e session de la Commission de la condition de la femme des Nations unies, pour sensibiliser les décideurs à l’urgence de traiter ces questions.

Enfin, le professeur Ivana Drobnjak a mis en avant la nécessité de guider les algorithmes pour qu’ils apprennent l’égalité et les droits de l’homme. Elle a souligné que l’absence passée des femmes dans certains domaines ne signifie pas qu’elles sont moins capables, et que les algorithmes doivent être formés pour prendre des décisions justes et équitables.

Alors soyons clairs: l’Intelligence Artificielle se doit-elle de refléter le Monde tel qu’il est (on voit difficilement comment il pourrait en être autrement vu que les données dont elle se nourri sont des données du Monde réel…), ou doit-elle déformer ce Monde pour en donner une interprétation wokiste, donc mensongère?

Ce rapport de l’UCL constate par exemple que l’IA « favorisaient les hommes en leur attribuant des emplois prestigieux ». Je dois me pincer et relire deux fois: en quoi constater que les hommes occupent les emplois les plus prestigieux (cela reste à prouver, il ne me semble pas que les infirmières majoritairement féminines ne jouissent pas de prestige…) est-il du favoritisme? Si je constate qu’il y a de l’inégalité dans le Monde, en quoi cela signifierait-il que je sois moi-même en faveur de l’inégalité? Ne serait-ce pas plutôt exactement le contraire? Améliorer le Monde et combattre les inégalités, quand on en constate de réelles, ne passerait-il pas plutôt par la première phase, qui est d’ouvrir les yeux pour le décrire tel qu’il est?

« Il a souligné l’engagement de l’UNESCO à orienter le développement de l’IA vers une direction plus inclusive et éthique ». Nous y voilà ! Le rêve de l’UNESCO est donc de mettre l’IA aux mains des bien-pensants, des wokistes, de façon que cette IA pense « comme il faut ».

Avant que ce cauchemar ne se réalise (remarquez qu’il est un peu tard, les sensitivity readers font déjà très bien le boulot de reformatage des esprits), réfléchissons un peu sur cet avenir radieux, sur cet Homme Nouveau, rêve de l’Union Soviétique, que nous promet l’UNESCO, sans pensée déviante, en occultant la réalité, qui est mauvaise.

Je me demandais en lançant ce fil de discussion si l’IA pourrait un jour avoir une conscience, je constate que les plus hautes instances internationales souhaitent non seulement qu’elle n’en ait pas, mais que si elle devait en avoir une, elle soit dictée par quelques cerveaux wokistes à la tête de l’UNESCO.

Le remodelage des pensées, voilà donc le projet. Relisez Kafka, 1984 et le Petit Livre Rouge, tout y était.

1 « J'aime »

Il semble que Claude 3 Opus, bien qu’impressionnant dans ses capacités linguistiques et cognitives, soit toujours un modèle de langage (LLM) et non une entité véritablement consciente et autonome. Les discussions sur sa « conscience de soi » semblent être plus une extrapolation de ses performances que des preuves tangibles de conscience.

Les risques associés à la croyance en une conscience de soi chez les IA comme Claude incluent la surévaluation de leurs capacités et le développement de fausses attentes quant à leurs interactions et comportements. Cela pourrait conduire à des situations où les utilisateurs et les développeurs accordent une confiance excessive à ces systèmes, sans tenir compte des limites réelles de leur fonctionnement.

Où l’on en revient toujours à la définition des mots.

Conclusion: on tourne en rond. :upside_down_face: