L'IA va-t-elle nous rendre stupides ?

Cette discussion issue de la chaîne YouTube « Public Sénat » examine l’impact de l’intelligence artificielle (IA) sur les capacités cognitives humaines et la société. Les intervenants débattent si l’IA, en déléguant des tâches et en offrant des réponses rapides, risque de diminuer notre réflexion critique et nos aptitudes intellectuelles, avec des scientifiques soulignant le danger d’une « paresse intellectuelle ». D’autres, cependant, voient l’IA comme une opportunité d’accès au savoir démultiplié et un outil de collaboration, mais insistent sur l’importance de son utilisation avec discernement et une éducation adaptée. Le débat aborde également la fiabilité des informations générées par l’IA, notamment ses « hallucinations » et sa difficulté à distinguer faits et opinions, et explore les conséquences politiques et démocratiques de son intégration, notamment la manipulation de l’opinion et les défis posés à l’apprentissage et à la sécurité.

[!Success]Qu’en pense l’IA ? Ecoutez la conversation !

L’IA va nous rendre plus cons ou plus malins ?

C’est la grosse question qui tourne en ce moment. Certains, comme le Dr Cymes ou la neuro, pensent que si on lâche trop notre cerveau à l’IA, on va devenir nuls en réflexion, en mémoire, tout ça. Parce que comme tout muscle, le cerveau il s’affaiblit si on l’utilise pas. Mais d’autres, comme Laurent Alexandre, sont persuadés que l’IA peut nous booster, qu’elle peut nous donner accès à plus de savoir et nous aider à mieux faire si on s’en sert intelligemment. Donc ça fait à la fois flipper et donner envie, faut juste garder la jugeotte.

Et l’IA, elle est en quoi différente de notre cerveau ?

La grosse différence, c’est qu’elle ne donne pas de sens. Elle peut analyser des tonnes d’infos et faire des prédictions, mais elle capte pas vraiment le pourquoi du comment, le contexte, ou les relations entre les choses comme nous. Elle manque d’intuition, d’instinct. Parfois, elle invente des trucs pour justifier ses réponses (ce qu’on appelle des hallucinations), alors que nous on a la capacité de douter, de critiquer ce qu’on lit, et d’apprendre de nos erreurs.

Est-ce que l’IA est déjà meilleure que l’humain dans certains trucs ?

Ouais, carrément ! L’IA a fait des progrès de ouf dans plein de domaines. Laurent Alexandre dit que ChatGPT, par exemple, est carrément meilleur que lui en médecine, pour analyser un dossier médical. Elle est super pour écrire, faire des concepts. Après, certains tolèrent pas trop parce que l’IA, c’est plus un outil qui aide, elle remplace pas le bon sens, le jugement ou l’adaptabilité humaine.

Et quels risques si on fait trop confiance à l’IA ?

Le problème, c’est qu’on peut devenir paresseux mentalement, arrêter de réfléchir et de vérifier ce que l’IA dit. Plus on connaît peu comment elle marche, plus on lui fait confiance, et ça c’est risqué. L’IA peut aussi balancer de fausses infos, inventer des trucs, ou avoir du mal à faire la différence entre un vrai fait et une opinion. Elle peut aussi uniformiser le langage, la rendre toute plate. Et vu qu’elle dit jamais « je ne sais pas », si elle se trompe, on a du mal à se rendre compte, et c’est pas cool pour apprendre.

Comment l’IA chamboule l’école et l’apprentissage ?

Elle change tout dans la façon d’apprendre. Avec des outils comme ChatGPT, beaucoup d’étudiants peuvent juste recopier les réponses et ne pas réfléchir. Ça pose la question : le prof doit-il continuer à être le seul à savoir, ou l’IA peut l’aider ? Elle peut donner des infos, mais elle remplace pas la vérif, la compréhension en profondeur. Donc il faut apprendre aux jeunes à utiliser l’IA avec recul, à ne pas se contenter de copier, pour vraiment apprendre et garder leurs compétences.

L’IA peut-elle manipuler l’opinion publique ?

Oui, c’est carrément possible. Déjà, on voit des « deepfakes » ou des images et vidéos truquées qui ressemblent à de vraies. Des faux appels vocales, des fausses infos… C’est de plus en plus difficile de faire la différence. L’IA peut aussi suivre ce que les gens pensent en temps réel, récupérer des millions de posts en ligne, et adapter ses messages pour influencer. Ça peut donc jouer un rôle énorme dans la manipulation des élections ou des opinions, et ça inquiète beaucoup.

Et la démocratie dans tout ça ?

Là, c’est chaud. L’IA peut produire plein de contenus truqués super vite, ce qui peut faire perdre confiance dans les médias et les institutions. Si on laisse l’IA décider à notre place, notamment pour faire des lois ou des décisions, qui en est responsable ? Certains pensent que l’IA pourrait plutôt renforcer des régimes autoritaires, parce qu’elle pousse à accepter passivement des trucs sans trop réfléchir. Au final, si on la concentre trop, elle peut devenir un outil de contrôle plutôt que d’émancipation.

Et pour l’avenir, c’est quoi les gros défis avec l’IA ?

Il y en a plusieurs. Déjà, comme l’IA peut écrire du code toute seule, ça peut décourager les jeunes à apprendre à coder. Et si personne ne comprend comment ça marche vraiment, il y aura des risques à long terme. La consommation d’énergie des serveurs qui font tourner tout ça, c’est aussi un gros souci. Et surtout, il faut qu’on forme tout le monde à bien utiliser l’IA, à garder un esprit critique, sinon on va vite se faire dépasser ou manipulation. Faut apprendre à dompter la bête