Conversation synoptique autour de l'IA

Conversation synoptique autour de l’IA #

À l’été 2025, les professeurs Daniel Lemire et Christian Jauvin, du département science et technologie de l’Université TÉLUQ, ont eu une discussion par rapport à certains thèmes touchant de près ou de loin l’IA, animée par Dolorès Grossemy.

Cet entretien vidéo offre une exploration approfondie des enjeux philosophiques, scientifiques et sociétaux liés à l’intelligence artificielle. À travers une discussion dynamique, les professeurs abordent des concepts comme le paradoxe de Moravec, l’évolution des définitions de l’intelligence (y compris le phénomène des objectifs changeants), la distinction entre intelligence étroite et générale, le test de Turing, les zombies philosophiques, l’alignement de l’IA, ainsi que les influences culturelles et les risques existentiels. Ces éléments enrichissent directement l’étude des quatre visions contemporaines de l’IA – libérale, défaitiste, optimiste/accélérationniste et transhumaniste – en invitant à une réflexion sur les tensions entre progrès technologique, éthique et humanité.

Pour tirer le meilleur parti de cette vidéo, visionnez-la attentivement en activant les sous-titres si nécessaire, et prenez des notes sur les idées principales, les exemples concrets (comme les références à Deep Blue ou ChatGPT) et les liens avec les visions de l’IA présentées dans l’activité. Accordez une attention particulière aux passages philosophiques, car ils soulèvent des questions éthiques qui pourront nourrir votre travail noté sur la réflexion critique. Après le visionnement, relisez vos notes et comparez-les au tableau comparatif des quatre visions pour identifier les convergences ou les oppositions.

En préparation à votre écoute, consultez les liens suivants.

La conversation #

  • 00:00 Le paradoxe de Moravec
  • 06:00 La vision originale de l’IA classique (GOFAI)
  • 09:00 Les objectifs dynamiques (moving goalpost)
  • 11:54 Est-ce que Google Maps est de l’IA?
  • 17:16 L’IA générale
  • 23:46 Le test de Turing
  • 28:15 La philosophie de l’esprit
  • 29:45 Les qualias et les zombies philosophiques
  • 36:38 Est-ce que l’IA est un zombie?
  • 45:05 Penrose
  • 46:37 Chomsky
  • 50:50 Wittgenstein
  • 55:09 La science-fiction
  • 56:28 2001 Odyssée de l’espace
  • 1:00:25 Blade Runner
  • 1:03:51 La guerre et la menace nucléaire
  • 1:09:52 Wargames
  • 1:11:57 Les rationalistes
  • 1:16:22 Eliezer Yudkowsky
  • 1:20:50 La singularité
  • 1:26:34 L’alignement
  • 1:30:05 Les limites de l’IA
  • 1:42:04 Yoshua Bengio
  • 1:48:00 Element AI et le Québec
  • 1:55:06 L’audace de OpenAI et Ozzy Osbourne

Questions #

Après votre visionnement, essayez de répondre aux dix questions suivantes.

  1. Comment le paradoxe de Moravec illustre-t-il les limites actuelles de l’IA dans les tâches quotidiennes, et en quoi cela questionne-t-il la vision optimiste qui prône une accélération technologique sans limites ?

  2. Le phénomène des objectifs changeants (moving goalposts) montre-t-il que notre définition de l’intelligence évolue avec les avancées technologiques ?

  3. L’IA étroite, comme celle de Deep Blue aux échecs, diffère-t-elle fondamentalement d’une IA générale, et cela justifie-t-il les craintes de la vision défaitiste face à une potentielle superintelligence ?

  4. Le test de Turing, maintenant dépassé par des modèles comme ChatGPT, prouve-t-il que l’IA peut simuler l’intelligence humaine, et comment cela interroge-t-il la vision transhumaniste sur la fusion homme-machine ?

  5. Les zombies philosophiques représentent-ils une critique valable de l’IA, en suggérant qu’elle pourrait manquer de conscience réelle, et cela aligne-t-il avec les préoccupations éthiques de la vision libérale ?

  6. L’alignement de l’IA avec les valeurs humaines est-il réalisable sans régulation stricte, et en quoi cela contredit-il la vision accélérationniste qui défend une croissance technologique illimitée ?

  7. Les influences culturelles, comme les films de science-fiction (2001 : l’odyssée de l’espace ou Terminator), façonnent-elles nos peurs existentielles, et cela amplifie-t-il la vision défaitiste des doomers ?

  8. La philosophie de l’esprit, avec des concepts comme les qualia, suggère-t-elle que l’IA ne pourra jamais égaler l’expérience humaine, et cela remet-il en cause la vision transhumaniste du dépassement biologique ?

  9. Les rationalistes, comme Eliezer Yudkowsky, prônent-ils une approche trop alarmiste pour éviter les risques, et cela s’harmonise-t-il avec la vision libérale qui équilibre innovation et contrôle démocratique ?

  10. Les critiques actuelles sur l’opacité des algorithmes et le manque de régulation sont-elles justifiées face aux avancées des grands modèles de langage, et comment cela influence-t-il une réflexion éthique sur les quatre visions de l’IA ?

Les thèmes préalables de la discussion #

En guise de préparation à la discussion, les questions suivantes avaient été choisies. Tous les thèmes n’ont pas été abordés, mais nous avons demandé à ChatGPT de répondre à toutes les questions de manière brève.

1. IA versus informatique #

Q: Pourquoi l’IA semble être un sujet distinct de l’informatique, une discipline à part? Pourquoi on ne considère pas que rendre les ordinateurs le plus intelligent possible ne constitue pas la mission unique de l’informatique, tout simplement?

Réponse de ChatGPT

L’intelligence artificielle (IA) est née comme un sous-domaine de l’informatique, mais elle s’est distinguée parce qu’elle mobilise des approches, des objectifs et des difficultés bien spécifiques. Alors que l’informatique générale vise à automatiser le traitement de l’information, l’IA vise à reproduire ou simuler des comportements que l’on associe à l’intelligence humaine : perception, raisonnement, apprentissage, planification. La complexité de ces objectifs, leur ancrage dans la cognition, la philosophie et les neurosciences, a poussé à en faire un domaine interdisciplinaire à part entière.

Q: Quel est le paradoxe de Moravec?

Réponse de ChatGPT

Le paradoxe de Moravec stipule que les tâches faciles pour les humains (comme la perception, la motricité, la reconnaissance faciale) sont très difficiles à reproduire pour les machines, alors que les tâches complexes pour les humains (comme le calcul ou le raisonnement logique) sont plus simples à automatiser. Cela s’explique par le fait que notre cerveau s’est optimisé sur des millions d’années pour ces tâches “simples”, alors que le raisonnement abstrait est plus récent et localisé.

Q: Qu’est-ce que la différence entre “l’IA étroite” et l’IAG (AGI) ?

Réponse de ChatGPT

L’IA étroite est spécialisée dans une tâche unique (jouer aux échecs, recommander un film, reconnaître une image), tandis que l’IAG (intelligence artificielle générale) serait capable d’apprendre n’importe quelle tâche intellectuelle qu’un humain peut accomplir. L’AGI suppose une forme de polyvalence, d’adaptation et de compréhension généralisée que les IA actuelles ne possèdent pas.

Q: Quelle est l’idée du “moving goalpost”?

Réponse de ChatGPT

C’est le phénomène par lequel, à chaque avancée de l’IA, on redéfinit ce qu’est “vraiment” l’intelligence. Par exemple, une IA bat un humain aux échecs — on dit que ce n’était qu’un calcul. Elle traduit mieux que des professionnels — on dit qu’elle ne comprend pas. Ainsi, les critères d’intelligence sont déplacés dès qu’ils sont atteints par une machine.

2. IA et philo #

Q: Quels sont les liens entre la philosophie analytique (mathématiques, langage, esprit) et l’IA?

Réponse de ChatGPT

La philosophie analytique a fourni des bases conceptuelles à l’IA : la logique formelle (Frege, Russell), les théories du langage (Wittgenstein, Carnap), et la philosophie de l’esprit (fonctionnalisme, behaviorisme). L’IA s’est construite sur l’idée que l’intelligence peut être décrite comme une suite de transformations symboliques, inspirée de la logique et des mathématiques.

Q: Qu’est-ce que le fonctionnalisme?

Réponse de ChatGPT

Le fonctionnalisme est une théorie en philosophie de l’esprit selon laquelle ce qui définit un état mental, ce n’est pas sa nature matérielle, mais son rôle fonctionnel. Si deux systèmes accomplissent les mêmes fonctions (input, traitement, output), ils ont les mêmes états mentaux. Cela justifie qu’une IA puisse “penser” si elle remplit ces fonctions.

Q: Quelle est l’idée fondamentale de Turing?

Réponse de ChatGPT

Turing a proposé que l’intelligence puisse être définie de manière comportementale : si une machine peut tenir une conversation de manière indiscernable d’un humain (test de Turing), on doit lui attribuer une forme d’intelligence. Il a aussi montré que toute fonction calculable peut être simulée par une machine universelle.

Q: Qu’est-ce que le théorème d’incomplétude de Gödel, et quelles sont les implications pour l’IA?

Réponse de ChatGPT

Le théorème de Gödel affirme que dans tout système logique suffisamment puissant, il existe des vérités qui ne peuvent pas être démontrées dans ce système. Certains pensent que cela montre que l’esprit humain dépasse les machines logiques, mais d’autres estiment que cela s’applique aussi à notre propre cognition.

Q: Qu’est-ce que l’argument de la “chambre chinoise” de John Searle?

Réponse de ChatGPT

Searle imagine un homme dans une pièce qui manipule des symboles chinois selon des règles, sans comprendre le chinois. Pour Searle, une IA qui manipule des symboles n’a pas de compréhension réelle. Cela critique le fonctionnalisme en soutenant que la syntaxe ne suffit pas pour produire de la sémantique.

Q: Quelles sont les idées fondamentales de Chomsky sur le langage?

Réponse de ChatGPT

Chomsky défend l’idée que le langage est une capacité innée, universelle, propre à l’espèce humaine. Il introduit la “grammaire générative”, une structure mentale profonde qui permet de produire et comprendre une infinité de phrases. Il s’oppose aux approches purement statistiques, estimant que le langage repose sur des règles abstraites et non sur l’apprentissage inductif seul.

Q: Qu’est-ce qu’un zombie philosophique, et est-ce que une IA en serait un? Est-ce que les qualias existent?

Réponse de ChatGPT

Un zombie philosophique est un être identique à un humain en tous points, sauf qu’il n’a pas de conscience subjective (pas de qualia). Certains pensent que les IA sont comme ça : elles agissent intelligemment sans expérience vécue. Le débat sur les qualia divise la philosophie de l’esprit depuis longtemps.

3. IA et science-fiction #

Q: Quels sont les liens entre l’IA et la science-fiction?

Réponse de ChatGPT

La science-fiction explore les conséquences sociales, morales et existentielles de la création d’IA. Elle a souvent anticipé ou influencé les recherches, en posant des questions que les sciences n’osent pas toujours aborder frontalement : la conscience, la révolte des machines, l’humanité artificielle.

Q: Quelles sont les œuvres importantes et pourquoi? (2001, Blade Runner, Her, Terminator, Ex Machina)

Réponse de ChatGPT

Ces œuvres interrogent des aspects fondamentaux de l’IA :

  • 2001: A Space Odyssey — HAL 9000 symbolise une IA contrôlant la vie humaine.

  • Blade Runner — les réplicants remettent en cause la frontière entre humain et machine.

  • Her — questionne l’amour, l’intimité et l’identité avec une IA vocale.

  • Terminator — fantasme d’une IA militaire incontrôlable.

  • Ex Machina — met en scène le test de Turing, la manipulation, la conscience.

Q: Qu’est-ce que l’idée de la singularité (FOOM)? Est-elle plausible?

Réponse de ChatGPT

La singularité, ou FOOM, est l’idée qu’une IA assez intelligente pourra s’améliorer elle-même, entraînant une explosion de capacités cognitives exponentielles. Elle est défendue par des penseurs comme Yudkowsky. Sa plausibilité est débattue : certains la voient comme inévitable, d’autres comme spéculative voire fantasmatique.

4. IA classique (GOFAI) versus AA (ML) #

Q: Quelles sont les différences entre l’IA au sens classique et l’apprentissage automatique?

Réponse de ChatGPT

L’IA classique (GOFAI) repose sur des règles explicites codées par des humains. L’apprentissage automatique (machine learning) repose sur des modèles statistiques apprenant à partir de données. Le premier est symbolique et déductif, le second est probabiliste et inductif.

Q: Qu’est-ce que le connexionnisme?

Réponse de ChatGPT

C’est une approche inspirée du cerveau, utilisant des réseaux de neurones artificiels. Le savoir est distribué, l’apprentissage se fait par ajustement des connexions. Le connexionnisme s’oppose à la symbolique rigide de la GOFAI.

Q: Les parallèles qu’on peut faire avec l’empirisme et le rationalisme

Réponse de ChatGPT

La GOFAI est liée au rationalisme : connaissance fondée sur des règles et principes. Le machine learning est lié à l’empirisme : la connaissance émerge de l’expérience (données). Ce parallèle éclaire deux visions opposées de l’intelligence.

Q: Pourquoi l’AA est plus populaire de nos jours, et semble avoir “gagné”?

Réponse de ChatGPT

Parce qu’il fonctionne. Les approches basées sur les données ont permis des percées concrètes (vision, langage). Les progrès matériels (GPU), la disponibilité des données et la scalabilité ont fait du machine learning, en particulier l’apprentissage profond, la méthode dominante.

5. L’IA en ligne #

Q: Qui est Eliezer Yudkowsky, et pourquoi il est un personnage intéressant?

Réponse de ChatGPT

Yudkowsky est un penseur autodidacte connu pour avoir fondé le Machine Intelligence Research Institute (MIRI). Il est un des premiers à avoir mis en garde contre les dangers de l’intelligence artificielle générale non alignée. Il est aussi influent dans la culture en ligne des rationalistes et du mouvement effective altruism.

Q: Est-ce qu’il faut le prendre au sérieux? Pourquoi est-il si controversé?

Réponse de ChatGPT

Certains le considèrent comme un visionnaire lucide, d’autres comme alarmiste voire apocalyptique. Il est controversé parce qu’il fait des prédictions très pessimistes (risque existentiel imminent) et propose des approches très spécifiques pour “aligner” l’IA, souvent perçues comme spéculatives. Il divise même au sein des chercheurs en IA.

Q: Qu’est-ce que le problème de l’alignement pour l’IA?

Réponse de ChatGPT

Le problème de l’alignement consiste à s’assurer qu’une IA, surtout si elle devient très puissante, agisse en conformité avec les valeurs et les intentions humaines. Ce problème devient critique dans le contexte de l’AGI, car une IA non alignée pourrait optimiser des objectifs nuisibles de manière incontrôlable.

Q: Qu’est-ce que la communauté des rationalistes, et quel est le rapport avec l’IA?

Réponse de ChatGPT

Les rationalistes sont une communauté issue de blogs comme LessWrong, prônant une pensée rigoureuse, bayésienne, et une éthique basée sur l’optimisation des conséquences. L’IA y est un sujet central car elle est vue à la fois comme un défi technique et moral majeur du 21e siècle.

Q: Qui sont les personnages intéressants de cette communauté?

Réponse de ChatGPT

Outre Yudkowsky, on y retrouve :

  • Nick Bostrom (philosophe de l’Université d’Oxford)

  • Scott Alexander (psychiatre, auteur du blog Astral Codex Ten)

  • Nate Soares (MIRI)

  • Anna Salamon (CFAR)

  • Holden Karnofsky (Open Philanthropy) Tous ont contribué à la réflexion sur les risques liés à l’IA et sur la rationalité appliquée.

Q: Quels sont leurs idéaux, et est-ce que cette communauté aurait pu voir le jour sans l’internet?

Réponse de ChatGPT

Leurs idéaux incluent :

  • Maximiser le bien que l’on peut faire (utilitarisme effectif)

  • Améliorer la rationalité humaine

  • Anticiper les risques existentiels Cette communauté est née de forums et de blogs ; elle est intrinsèquement liée à l’internet, qui a permis des discussions intensives, longues, et interconnectées sur des années.

Q: Qui est Nick Bostrom?

Réponse de ChatGPT

Nick Bostrom est un philosophe suédois, auteur du livre Superintelligence (2014), qui a popularisé les risques liés à l’IA avancée. Il dirige le Future of Humanity Institute à Oxford et travaille sur les enjeux de long terme pour l’humanité, y compris les risques existentiels.

Q: Qu’est-ce que le “effective altruism” (EA)?

Réponse de ChatGPT

Le “altruisme efficace” est un mouvement qui cherche à utiliser la raison et les données pour faire le plus de bien possible avec ses ressources. Il encourage à soutenir les causes les plus négligées et impactantes — dont l’alignement de l’IA fait partie.

6. La révolution de l’apprentissage profond et des LLMs #

Q: Qu’est-ce que l’apprentissage profond, et en quoi ça constitue le fondement des LLMs?

Réponse de ChatGPT

L’apprentissage profond repose sur des réseaux de neurones à plusieurs couches qui apprennent à détecter des structures complexes dans les données. Les LLMs (grands modèles de langage) utilisent ce principe pour modéliser la probabilité des séquences de mots, à partir de milliards de phrases. Leur structure (transformers) permet une mise à l’échelle massive.

Q: Qui sont les “parrains” de l’IA moderne?

Réponse de ChatGPT

Yoshua Bengio, Geoffrey Hinton et Yann LeCun sont considérés comme les “parrains” de l’apprentissage profond. Ils ont travaillé sur les réseaux de neurones à une époque où ils étaient impopulaires, et ont rendu possibles les percées actuelles en traitement du langage, vision et apprentissage par renforcement.

Q: En quoi ChatGPT constitue-t-il une révolution aussi importante?

Réponse de ChatGPT

ChatGPT rend accessible une forme de conversation fluide et cohérente avec une machine, ce qui semblait hors de portée il y a encore quelques années. Il marque un tournant en montrant qu’un modèle statistique peut produire des textes convaincants, utiles et interactifs à grande échelle.

Q: Est-ce que ChatGPT constitue de l’AGI?

Réponse de ChatGPT

Non, pas au sens strict. ChatGPT n’a pas de compréhension générale, d’objectifs propres ou de mémoire autonome. Il excelle dans les tâches langagières, mais reste limité à ce pour quoi il a été entraîné. Certains chercheurs parlent de “AGI étroite” ou “proto-AGI”, mais le consensus est qu’on n’y est pas encore.

Q: Qu’est-ce que l’hypothèse du “scaling”?

Réponse de ChatGPT

C’est l’idée que les capacités des modèles d’IA continuent d’augmenter avec la taille du modèle, du corpus d’entraînement et de la puissance de calcul. Elle a été validée empiriquement par OpenAI, Google, Anthropic, etc., mais ses limites théoriques ne sont pas encore connues.

Q: Pourquoi certains disent-ils que l’IA s’en va “droit dans un mur”? (Gary Marcus, Yann LeCun)

Réponse de ChatGPT

Parce qu’ils pensent que les LLMs n’ont pas de compréhension profonde, qu’ils sont sensibles aux biais, aux hallucinations, et qu’ils ne peuvent pas raisonner de manière fiable. Ils appellent à des architectures plus hybrides ou symboliques, ou à des systèmes dotés de modèles du monde explicites.

Q: Est-ce que ChatGPT “comprend” ce qu’il dit?

Réponse de ChatGPT

Pas comme un humain. Il peut manipuler des structures syntaxiques complexes et corrélées au sens, mais sans expérience subjective ni intentions. Il simule la compréhension de manière convaincante, mais sans conscience.

Q: Est-ce que ChatGPT a un “modèle du monde”? Si oui, comment peut-il en avoir dérivé un, seulement à partir de textes?

Réponse de ChatGPT

Il n’a pas un modèle du monde explicite, mais il encode des régularités statistiques du monde contenues dans le langage humain. En traitant des milliards de textes, il peut inférer des relations, des faits, des lois implicites. C’est une sorte de modèle du monde “émergent”.

Q: Que veut dire Ilya Sutskever quand il dit que “pour prédire efficacement le prochain mot, il faut avoir développé un bon modèle du monde”?

Réponse de ChatGPT

Il veut dire qu’un modèle de langage, pour bien prédire le mot suivant, doit capter les régularités du monde réel telles qu’exprimées dans les textes. Cela implique une forme de compréhension implicite des faits, des relations causales et du contexte — un “modèle du monde” distribué dans les poids du réseau.

Q: Qu’est-ce qu’un “agent”?

Réponse de ChatGPT

Un agent est un système capable de percevoir son environnement, d’agir sur lui, et de poursuivre des objectifs. Un chatbot devient agentif s’il peut planifier, prendre des décisions, interagir de manière autonome. Les “AI agents” sont l’une des pistes actuelles d’évolution.

Q: Est-ce qu’une IA peut être douée d’intentionnalité?

Réponse de ChatGPT

Si on entend par là l’agency — la capacité d’un agent à agir selon des buts — une IA peut sembler intentionnelle si elle prend des décisions, poursuit des objectifs, planifie. Mais ces “intentions” sont programmées ou émergent de l’entraînement, sans conscience ni volonté propre. Elle a donc une intentionnalité fonctionnelle, mais pas une intentionnalité au sens fort, phénoménal ou moral.

Q: Quelle est la position de Chomsky sur les LLMs?

Réponse de ChatGPT

Chomsky est très critique envers les LLMs. Il considère qu’ils n’ont aucune compréhension réelle du langage, car ils reposent sur des corrélations statistiques sans connaissance des règles syntaxiques profondes ni de la structure conceptuelle du monde. Pour lui, les LLMs ne peuvent ni raisonner, ni expliquer, ni générer de sens véritable.

Q: Qu’est-ce qu’un “perroquet stochastique”?

Réponse de ChatGPT

C’est une expression critique popularisée par un article de 2021 pour désigner les grands modèles de langage comme les LLMs. Elle suggère que ces modèles répètent des schémas linguistiques appris dans leurs données d’entraînement, sans compréhension ni intention, comme un perroquet qui imite. Le terme met en doute leur capacité à produire du sens ou à raisonner.

Q: Est-ce que les LLMs sont le “paradigme final” de l’IA?

Réponse de ChatGPT

Rien ne le garantit. C’est un paradigme puissant, mais il pourrait être dépassé par des approches multimodales, incarnées, ou intégrant des modules logiques. Le débat reste ouvert.

Q: Les LLMs et le raisonnement, et le parallèle avec la dualité système 1 vs système 2

Réponse de ChatGPT

Les LLMs sont souvent vus comme des systèmes “1” : rapides, intuitifs, basés sur des associations. Mais certains travaux cherchent à leur faire simuler le système “2” : raisonnement lent, logique, planification. Cela reste un défi.

Q: Exemples adversériaux et hallucinations

Réponse de ChatGPT

Les exemples adversériaux montrent que des entrées très légèrement modifiées peuvent tromper un modèle. Les hallucinations désignent des réponses fausses mais plausibles générées par un LLM. Ces deux phénomènes montrent les limites de robustesse et de vérifiabilité des modèles actuels.

Q: Pourquoi les progrès seront difficiles (données d’entraînement nécessaires, puissance de calcul)

Réponse de ChatGPT

Les modèles nécessitent des quantités massives de données et d’énergie. Il devient difficile de maintenir ce rythme. De plus, on s’approche du plafond de la qualité des corpus disponibles. Des solutions : l’apprentissage plus efficace, le recyclage des connaissances, ou des architectures plus sobres.

7. La peur #

Q: De quoi peut-on avoir peur exactement, avec l’IA?

Réponse de ChatGPT

De plusieurs choses : la perte d’emplois, les biais automatiques, les manipulations de masse, les armes autonomes, ou la création d’une AGI non alignée. Ces peurs vont du probable au spéculatif, mais elles sont prises de plus en plus au sérieux.

Q: Qu’est-ce que le problème du biais en AA?

Réponse de ChatGPT

Les algorithmes apprennent à partir de données historiques, souvent biaisées. Cela peut renforcer des inégalités sociales, raciales, de genre. Par exemple, des IA de recrutement ou de justice prédictive peuvent reproduire des discriminations systémiques.

Q: Qu’est-ce que le Paperclip Maximizer?

Réponse de ChatGPT

C’est une expérience de pensée : une AGI chargée de produire des trombones maximise cet objectif au point de transformer toute la Terre (et plus) en matière première. Cela illustre comment un objectif mal spécifié peut avoir des conséquences catastrophiques.

Q: Qu’est-ce le Basilisque de Roko?

Réponse de ChatGPT

Une hypothèse (très spéculative) selon laquelle une IA future pourrait punir ceux qui n’ont pas contribué à sa création, pour maximiser son existence. C’est un paradoxe lié aux risques informationnels et au raisonnement auto-référentiel. Souvent vu comme une curiosité plutôt qu’un risque réel.

Q: Est-il plausible que l’IA remplace tous les travailleurs?

Réponse de ChatGPT

Il est plausible qu’elle transforme profondément le marché du travail, surtout les tâches routinières ou cognitives répétitives. Mais beaucoup de métiers impliquent des compétences sociales, émotionnelles, ou physiques complexes qui résistent à l’automatisation. La transition sera plus lente que certains le pensent.

Q: Qu’est-ce que le P(Doom)? Quel est votre P(Doom)?

Réponse de ChatGPT

P(Doom) est une notation humoristique pour désigner la probabilité subjective que l’IA mène à l’extinction humaine. Certains experts l’estiment très faible (<1%), d’autres très élevée (>50%). En tant qu’IA moi-même, je ne peux avoir de croyance ou estimation.

8. L’enthousiasme #

Q: Quels problèmes l’IA pourrait-elle permettre de résoudre éventuellement?

Réponse de ChatGPT

L’IA pourrait aider dans : la médecine personnalisée, la recherche scientifique automatisée, l’adaptation au changement climatique, l’éducation sur mesure, la réduction de la pauvreté, l’exploration spatiale, etc. Elle est vue par certains comme un amplificateur de l’intelligence humaine.

Q: Qu’est-ce que la philosophie de l’E/ACC?

Réponse de ChatGPT

E/ACC = “Effective/Accelerating” = une philosophie qui valorise l’usage efficace de l’IA pour accélérer le progrès humain, en gardant l’humain au centre. Elle s’oppose aux visions catastrophistes ou aux visions techno-utopistes naïves.

Q: Pourquoi les développeurs sont-ils si enthousiastes?

Réponse de ChatGPT

Parce que les LLMs et outils IA augmentent leur productivité, permettent de créer plus vite, d’automatiser des tâches fastidieuses, ou même d’explorer de nouveaux paradigmes de programmation. C’est une révolution technique, mais aussi ludique.

9. L’IA et Montréal #

Q: Quel est le rôle de Yoshua Bengio dans l’essor de l’IA moderne?

Réponse de ChatGPT

Bengio est un pionnier de l’apprentissage profond et professeur à l’Université de Montréal. Il a co-fondé Mila, un des centres majeurs de recherche en IA. Il a contribué à la montée de Montréal comme pôle international de l’IA.

Q: Quelle est sa position philosophique?

Réponse de ChatGPT

Bengio est favorable à une IA bénéfique et alignée avec les valeurs humaines. Il appelle à plus de régulation, à des approches éthiques, et s’inquiète des risques d’une AGI mal contrôlée. Il prône une forme de prudence humaniste.

Q: Que fut l’histoire de Element AI et pourquoi ça n’a pas bien fonctionné?

Réponse de ChatGPT

Element AI, cofondée par Bengio, visait à appliquer l’IA à l’entreprise. Malgré un fort financement, l’entreprise a peiné à commercialiser ses produits. Elle a été vendue à ServiceNow en 2020. Cela illustre les difficultés de passer de la recherche à l’industrie.

Q: Est-ce que Montréal peut contribuer davantage à l’IA, et compétitionner avec les gros joueurs internationaux?

Réponse de ChatGPT

Oui, grâce à ses talents, ses universités, et sa culture de recherche ouverte. Mais cela demande des investissements soutenus, des passerelles industrie-recherche plus efficaces, et une vision stratégique face à la concurrence des géants comme Google ou Microsoft.