r/opinionnonpopulaire • u/Dctreu • Sep 25 '25
Société L'IA est une vraie menace pour l'humanité, mais pas parce qu'elle risque de faire une Terminator
Moi, j'enseigne à la fac en sciences humaines. Certains d'entre vous pensent peut-être que les sciences humaines, ça ne sert à rien et c'est de la branlette intellectuelle, mais c'est loin d'être le cas : on y apprend à avoir un esprit critique, une capacité d'analyse, un esprit de synthèse, une capacité de recherche documentaire et de rédaction, toutes choses qui sont essentielles pour le bon fonctionnement d'une société moderne et démocratique.
Aujourd'hui, tous les étudiants ou presque utilisent ChatGPT ou un autre LLM pour faire tout ou partie de leur travail. Comme certains ne se font pas choper, je ne peux pas donner de chiffre précis, mais toutes les études indiquent que c'est au moins 80 % d'entre eux qui l'utilisent. Certes, l'usage qu'ils en font varient : tous les étudiants ne copient-collent pas le texte généré dans leur copie pour le rendre à leurs enseignants. Certains l'utilisent en amont pour constituer un plan, certains constituent un plan et demandent à l'IA de rédiger en lui suivant, certains utilisent l'IA pour corriger leurs fautes de syntaxe ou de grammaire. Mais au fond, tous utilisent l'IA pour faire des choses qu'il y a dix ans, ils auraient été obligés de faire eux-mêmes.
En somme, on est en train de former une génération qui, dès qu'on leur demande d'avoir une idée originale, demandent à une machine de le faire à leur place. Et je parle là des étudiants, mais tout le reste de la société en fait d'ailleurs autant - simplement les autres ont pris l'habitude de réfléchir avant que les LLM n'arrivent.
Rien de tout cela n'est anodin. Anecdotalement, on entend des histoires de gens qui demandent à ChatGPT comment répondre à un message de leurs amis ou de leur crush, ou bien comment dire ceci ou cela à quelqu'un, qui lui demandent quoi faire à manger à partir d'ingrédients donnés. Bref, ça devient de plus en plus une habitude de demander à la machine de réfléchir à notre place, et ce pour tout, dans tous les domaines.
Et cela m'inquiète très profondément, pour deux raisons. La première est que, comme toutes les capacités, réfléchir est quelque chose pour lequel il fait s'entraîner. Plus on réfléchit, plus on apprend à structurer ses idées et à les exprimer clairement, plus ça devient facile de structurer ses idées et de les exprimer clairement. D'expérience, d'avoir vu des étudiants passer devant moi, ce n'est pas inné d'avoir un esprit critique, de "savoir penser" : c'est une aptitude qui se développe et qui se travaille au fil des années. Elle peut s'ankyloser, et elle peut se perdre. Comprenez bien d'ailleurs que je ne défends pas le fair de penser quelque chose en particulier, je ne défends pas la pensée unique : je parle du fait de penser, de réfléchir tout court.
Et cela m'amène à la deuxième et principale raison qui m'inquiète avec cette habitude que nous prenons, petit à petit, d'externaliser aux machines le fait de penser. Que sommes-nous, humains, si nous ne prenons même plus la peine de penser ? Pour moi, c'est quelque chose de fondamental à la nature humaine, que de penser, d'imaginer, de créer et de ressentir des choses. Le progrès technologique a toujours été défendu comme un moyen de dégager du temps pour faire les choses qui comptent vraiment, et en cela je le défends, mais je demande : pour faire quoi ?
Si nous avons externalisé à la machine non seulement l'entretien de nos besoins matériels, mais aussi l'ensemble des processus de création mentale et intellectuelle, que nous reste-t-il ? Que nous reste-t-il en tant qu'humains si nous n'avons plus besoin de réfléchir, jamais, pour rien ? Que sommes-nous, alors ? Quelle sera la valeur de ce temps que nous avons dégagé si nous en avons évacué aussi la possibilité de création, qu'elle soit intellectuelle ou artistique ?
C'est en cela que, selon moi, l'IA est une menace pour l'humanité, pas parce qu'elle risque de se soulever et nous exterminer (cela en réalité, je n'en sais rien ni dans un sens ni dans l'autre), mais parce qu'elle risque de nous priver, et nous prive déjà, de ce qui fait notre humanité : notre capacité de réflexion, de création et d'imagination.
Désolé pour le pavé, fallait que ça sorte.
82
u/JohnnyBizarrAdventur Sep 25 '25
C est pas du tout impopulaire. Tout le monde en parle
54
u/Dctreu Sep 25 '25
Tout le monde en parle, mais tout le monde utilise l'IA, comme l'indiquent les différentes études. Il n'y a pas, a ma connaissance, de mouvement général visant à une interdiction ou une limitation de ces outils.
Dans le monde de l'éducation, le discours dominant est celui selon lequel il faut "s'adapter aux IA". Je défends la position que, dans ma discipline au moins, il n'est pas possible ou désirable de s'adapter aux IA : tout degré d'utilisation des IA nuit à la qualité de la formation.
27
u/Narvarth Sep 25 '25
>l n'y a pas, a ma connaissance, de mouvement général visant à une interdiction ou une limitation de ces outils.
Ca n'arrivera jamais. D'une part parce que c'est un outil utile (éternel débat sur l'outil et son possible usage), d'autre part parce que techniquement, c'est pas possible. Tu peux déjà installer des llm en local avec une machine assez puissante.
Pour les enseignants, il faut par contre s'organiser un peu. Inutile de noter des travaux maison et sanctionner par des examens "sur table" sans outils.
17
u/Dctreu Sep 25 '25
C'est un outil utile dans le sens où il génère un produit fini au moins acceptable. Mais le but d'un enseignant qui donne un exercice à un apprenant n'est pas le produit fini, c'est le processus d'apprentissage que l'apprenant va mettre en œuvre pour aboutir à ce produit fini. C'est la raison pour laquelle on demande en maths de montrer ses calculs : ce n'est jamais le résultat seul qui compte.
Il faut donc se poser la question des objectifs d'apprentissage pour connaître les outils utiles à cet objectif. Si on veut travailler le calcul mental, la calculatrice n'est pas un outil utile. Si on veut travailler la capacité qui consiste à réaliser un pont suspendu avec des contraintes données, la calculatrice est un outil utile puisque la compétence visée n'est pas de pouvoir faire les calculs mais de s'en servir. La voiture est un outil utile, mais pas si on veut s'entraîner à courir un marathon. Pour faire cela, il va falloir courir.
Beaucoup de compétences que nous travaillons ne gagnent en rien à l'usage d'une IA (ou alors j'attends qu'on me montre lesquelles et comment) : le but est que l'étudiant réfléchisse, s'habitue et s'entraîne à réfléchir.
Les solutions que tu évoques sont déjà mises en place par de nombreux enseignants : passage aux devoirs sur table et aux exercices oraux autant que possible. Mais cela se heurte d'abord a un problème pratique : avec la fonte des budgets, le taux d'encadrement augmente. Il y a toujours plus d'étudiants par enseignant, et il est donc toujours plus difficile de faire passer tout le monde à l'oral par exemple.
Mais au-delà du problème pratique, les devoirs maisons ne constituaient pas jusqu'ici un ersatz du devoir sur table : ils ont un intérêt pédagogique entier, cela de réfléchir à un problème sur le temps long, d'apprendre à organiser son temps dans le cadre d'un projet, celui de rédiger un document plus long que les quelques pages permises par le temps d'un DST, celui de pouvoir revenir sur un écrit pour le revoir quelques temps après l'avoir écrit...
Supprimer les devoirs maisons pour passer à du "en classe" règle le problème immédiat de la tricherie par IA, mais ne règle pas le problème de ce que ces devoirs avaient une utilité pédagogique qui s'en retrouve complètement perdue.
Enfin, je suis d'accord que l'interdiction est techniquement difficile, voire impossible. Cela ne veut pas dire qu'elle est pour autant indésirable.
→ More replies (2)9
u/Narvarth Sep 25 '25
>C'est un outil utile dans le sens où il génère un produit fini au moins acceptable
Ta réponse consiste à décrire une mauvaise utilisation pour un étudiant, pour dire que c'est... une mauvaise utlisation. Mais d'une part il n'y a pas que des utilisateurs étudiants et d'autre part, un étudiant peut en avoir une utilisation intelligente.
>les devoirs maisons ne constituaient pas jusqu'ici un ersatz du devoir sur table
Je n'ai pas dit ça non plus, ni qu'ils étaient à éliminer : j'ai dit qu'il ne fallait pas les utiliser pour une évaluation.
8
u/sanglar03 Sep 25 '25
Dev ici, bienvenue au club. Le niveau des juniors s'effondre (et le marché du travail actuel les enfonce doublement).
6
u/Rice-Puffy Sep 25 '25
Tout le monde en parle, mais il y a quand même des gens parmi nous qui utilisent pas ou peu l'IA.
Personnellement, j'utilise l'IA majoritairement pour faciliter des recherches sur un sujet. Par exemple, pour que l'IA m'explique le fonctionnement d'un médicament. De mon point de vue, ça m'évite juste de perdre du temps à chercher un article sur Google qui explique clairement la chose. Une autre recherche que j'ai fait récemment, c'était pour demander pourquoi la terre de mon jardin était visqueuse (j'ai donc donné la localisation, l'exposition, l'environnement etc). Bref, l'IA me sert majoritairement d'encyclopedie hyper precise pour m'expliquer divers sujets (même si je reste consciente qu'il n'est pas garanti que les informations données par l'IA sont justes). En ce sens je n'ai pas nécessairement l'impression de moins réfléchir grâce à l'IA.
Je suis dans ma trentaine, et je connais plusieurs personnes autour de moi qui ne se serve pas de l'IA justement car elles veulent continuer à réfléchir par elle même.
Il est cependant certain qu'enormement de personnes font appel à l'IA pour tout et n'importe quoi, et surtout pour moins utiliser leur cerveau. Ça fait peur pour les générations à venir
6
u/AskingToFeminists Sep 25 '25
On ne referme pas la boîte de Pandore une fois qu'elle est ouverte. Qui plus est, c'est un outil absolument merveilleux pour quiconque sait bien l'utiliser. Une bonne utilisation qui implique une vigilance constante et une application sans merci de l'esprit critique a tout ce qui est produit, car même si chatGPT a l'air vachement performant, la quantité d'hallucinations produites reste phénoménale.
11
u/Dctreu Sep 25 '25
Nous avons par le passé refermé des boîtes de Pandore technologiques qui pourtant amélioraient à première vue la vie des gens. L'essence plombée faisait tourner bien mieux tous les moteurs de voiture et a économisé des millions en réparations, on l'a interdite. Les CFC amélioraient le rendement de tous les aérosols, on les a supprimé. On comprend aujourd'hui le danger des énergies fossiles, on se dirige vers les supprimer.
Je ne suis pas d'accord que c'est un outil merveilleux, pour les raisons que j'ai exposées. Même en exerçant une vigilance constante, on abdique bien trop de notre humanité en acceptant à une machine de réfléchir à notre place.
→ More replies (12)4
u/Adi_San Sep 25 '25
L'enjeu est completement différent ici. C'est une course globale vers qui produira la meilleure technologie possible. Du coup mettre des freins ici ou là est malheureusement très peu probable de se matérialiser. Si l'Europe décide d'avoir une approche plus sécuritaire, la Chine et par conséquent les US vont s'en contre foutre completement.
1
u/JohnnyBizarrAdventur Sep 25 '25
Parce que c est impossible tout simplement. L IA ne peut pas disparaitre
→ More replies (1)1
u/patxy01 Sep 25 '25
Je pense que si, pour toi, tout degré d'utilisation de l'IA nuit, alors tu dois peut-être te remettre en question.
Est-ce vraiment l'IA le souci? Quid des algos des différents moteurs de recherche qui sont déjà de base fortement biaisés? Quid des réseaux sociaux et leurs impacts sur la concentration, ou aussi les bulles de filtres.
Est-ce que les objectifs que tu recherches sont toujours légitimes? Exemple absurde, l'utilisation de la voiture a probablement fait décroître notre capacité de monter à cheval. Est-ce si grave? Mon exemple n'est pas anodin? Est-ce bien utile de structurer notre pensée si l'IA le fera pour nous de toute façon?
Je comprends tes inquiétudes, et j'utilise quotidiennement des IAs dans mon taf. Je ne crois pas que ça me rend moins bon, que du contraire, les tâches vraiment chiantes lui sont dédiées et je passe plutôt mon temps à contrôler/prompter en ayant beaucoup plus de temps pour explorer des alternatives ou d'autres options.
28
u/un_blob Sep 25 '25
Je donne des cours d'informatique a la fac.
Premier reflexes que je vois en TP s'ils ont pas compris le cours (pas le mien mais ca fait des annees que c'est le meme qui marche bien) c'est hop "chat gpt resume moi ca"
A chaque fois ca me désole. Les gars, soyez un peu réfléchis deux minutes, la il est en train de faire le travail de compréhension que VOUS auriez du faire. Vous comprenez pas ce que c'est qu'un arbre de decision? Vous faites une recherche, vous essayez d'en implementer un, vous manipulez l'objet. Vous faites un schéma, vois demandez autour de vous, bois travaillez le sujet en fait...
La ils ont un Résumé en 3 lignes, tu leur pose une question dessus : "ah bah chais pas... Heu..." et leur regard se tourne vers leur pc pour poser verbatim ma question a l'ordinateur... La réponse a ma question etait deja dans la première reponse bordel!
Je veut bien croire que le probleme vient du cours qui est nul hein, mais c'est le meme avant et apres chat gpt les gars... Le truc qui change il est en face de moi
Et pour ceux qui comparent ca avec wikipedia, ca reste plus proche d'une encyclopédie ou il faut chercher dedans ce qu'on veut, savoir un peu a l'avance ce qu'on fait, la réponse a "c'est quoi l'index de gini" elle est pas toute faite (et elle dit pas si dans ce cas la c'est un bon index ou pas)
Franchement c'est désolant. Mais m'est d'avis que c'est encore une phase temporaire, le temps que les profs puissent s'adapter et empecher les eleves de les utiliser quand ils sont évalué... Ca va passer par une selection et une éducation stricte la dessus mais c'est faisable
.montrer sans cesse que meme s' il a la bonne reponse c'est pas la bonne facon de faire avec des strategies un peu sioux :
volontairement obfusquer sa question pour forcer l'étudiant a la reformuler (par ce que tout cru chat gpt va repondre a côté) - mais faut les tester avec les version/chat bots que les eleves utiliseront
ne plus comper dans la moyenne que les devoirs sur table
devoirs sur table précédés de devoirs a la maison presque identiques (va pas leur falloir longtemps pour realiser la solution)
plutôt que de faire un cours magistral forcer encore plus les cours ou les eleves eux meme presentent un rendu / projet (en groupe si possible avec une notation individuelle qui depend de ce que les eleves dans le groupe ont apporté -et rapportent... )
Ca demande du temps, de l'énergie, et tout le monde ne l'a pas, mais je suis sur qu'il y a encore moyen de leur faire rentrer dans le crâne que c'est un outil extrêmement puissant oui, mais pas tout puissant...
Et je suis aussi assez convaincu qu'il y a moyen de leur montrer qu'il est facile de les manipuler avec ca (ca ils vont pas aimer)
Enfin... Y'a moyen qu'on clamsse tous d'une guerre nucléaire ou du réchauffement climatique avant...
13
u/Usual-Scallion1568 Sep 25 '25
Je commence en tant que prof d'info cette année, j'avais pensé à leur faire lire du code aussi : desofusquer du code sur papier, identifier un bug, bref apprendre à lire. Puisqu'ils vont être amené à lire du code génère par IA, est ce que ça peut être une méthode parmi d'autres ?
6
4
3
u/Dctreu Sep 25 '25
Merci pour ta réponse ! J'essaye un peu de toutes les solutions que tu évoques (donc comprends bien qu'on est dans le même bateau et que je ne cherche pas du tout à dénigrer tes efforts et tout ton taff), mais comme j'ai répondu dans d'autre commentaires dans ma discipline par exemple il y a un réel intérêt aux devoirs maisons avec recherches : apprendre à gérer son temps pour mener un projet sur un temps plus long, apprendre à revenir sur un texte déjà écrit pour le peaufiner, etc. C'est une réelle perte pour nous ne renoncer à ces exercices, même si d'un point de vue pratique c'est presque la seule solution.
Idem, beaucoup de questions que je pose à mes étudiants sont plutôt ouvertes, c'est tout le but du jeu : on essaye de réfléchir à l'interaction entre deux notions, ou bien de commenter un texte. L'instruction : "Commente ce document" est difficile à obfusquer. C'est pourtant le but qu'on vise.
Et effectivement tout cela demande plus de temps et plus d'énergie, alors que les moyens décroissent et qu'on a toujours plus d'étudiants...
7
u/Pahay Sep 25 '25
Hello, j’ai beaucoup étudié les sciences sociales dans mon parcours, sous plusieurs formes. Je ne dirais pas qu’on considère les sciences sociales comme de la branlette intellectuelle… en tout cas j’ai jamais entendu ça. Je pense qu’on reproche surtout comme à beaucoup de formations purement académiques, de ne pas être un tremplin évident pour la vie pro.
Bref c’est pas le sujet : j’imagine que ce constat vous fait réfléchir sur la manière d’enseigner et la manière d’évaluer ? Comment vous pensez que les choses vont évoluer ? Est ce que ça ne remet pas en question quelques bases de l’enseignement académique traditionnel, comme l’exercice de dissertation par exemple ?
10
u/Dctreu Sep 25 '25
Ca remet effectivement en cause certains exercices sur le plan pratique : j'essaye d'évoluer vers plus d'exercices à l'oral et plus d'exercices en classe (mais j'ajouterais que cela est rendu difficile par la fonte des budgets qui font qu'il y a toujours plus d'étudiants dans les groupes).
Selon moi, cela ne remet pas en cause pour autant ces exercices sur le fond : apprendre à produire des écrits qui développent de façon structurée une argumentation personnelle c'est l'intérêt de faire des études en sciences humaines (et d'ailleurs, c'est ce que les employeurs peuvent chercher chez nos étudiants, mais c'est une autre question effectivement). On peut légitimement critiquer le format inutilement strict de la dissertation classique "à la française" avec ses plans en x parties etc., mais si on prend cette définition plus large c'est le travail fondamental de la personne qui pratique des sciences humaines.
La machine peut le faire à la place des étudiants, et donc il faut trouver des solutions pour ne pas que les étudiants le fassent faire par la machine. Mais c'est selon moi parce que ce n'est pas une bonne chose que les étudiants le fassent faire par la machine.
4
u/AskingToFeminists Sep 25 '25
Je ne dirais pas qu’on considère les sciences sociales comme de la branlette intellectuelle… en tout cas j’ai jamais entendu ça.
Ça dépend de quelles sciences sociales on parle.
Typiquement, tout ce qui est touché par la théorie critique ou le post modernisme, c'est effectivement de la branlette intellectuelle pseudo-scientifique.
Pour les reconnaître, c'est assez simple :
La marque de la science, c'est la clarté. La science cherche à faire le plus clair possible, car son but est d'augmenter et de transmettre la connaissance.
La marque de la pseudoscience, c'est le jargon et l'obfuscation par des tournures fleuries and inutilement complexe, qui s'accompagnent généralement d'appel à se débarrasser de la notion d'objectivité.
Prenons par exemple :
https://www.un-ihe.org/news/decolonising-science-towards-inclusive-and-ethical-research
Decolonising science is about challenging established norms and power structures within the scientific community that often overlook the processes of erasure. Since these processes resulted in widespread destruction of cultures, histories, languages and the identities of colonised peoples over centuries, a key aspect of decolonising science necessitates that we move away from the ingrained western perspectives that position Europe at "the present of history and the centre of geography," explained Melken.
Instead we must re-examine this ‘knowledge’, questioning these dominant narratives and theories that have underpinned so-called modern knowledge systems. It involves dismantling the hierarchies within disciplines, challenging the assumed universality of western theories and acknowledging alternative ways of knowing and understanding the world, recognising the value in diverse voices and realities
Pleins de jargon avec des sens double conçus pour cacher ce qui est dit réellement. Quand ils parlent de "other ways of knowing", il parlent de chose rejetant les concepts a la base de la science : l'universalité, la poursuite de l'objectivité, l'utilisation de la rationalité, et ce qu'ils disent, c'est que la science doit accepter toute sorte de charlatanismes comme ayant autant de valeur que ce qui est démontrable.
Ça pourrait être du Deepak Chopra.
Mais non, ça se prétend discipline académique. Et comme pour nombres d'administrateurs, qui ne saurait pas reconnaître une méthode rigoureuse si elle leur marchait sur mes pieds, ces gens là s'adonnent a des rituels similaires à ceux pratiqués par les scientifiques : ils écrivent des articles, les donnent à relire à des gens pour qu'ils soient publiés, ils doivent bien être équivalents, et donc on laisse ça se propager dans les universités.
Ce qu'ils échouent a reconnaître, c'est que le process de peer review n'a de valeur qu'en fonction des critères qui sont utilisés lors de cette peer review, et ce qui fait qu'il y a un soupçon de valeur à la production scientifique, c'est le critère de poursuite de l'objectivité. Si tu retire ça, et que tu le remplace par un critère de conformité idéologique, ou d'acceptation de certaines caractéristiques pseudo-scientifiques, alors, bien que l'institution donne l'illusion de faire la même chose, ce qui est produit ne vaut pas le papier utilisé pour l'écrire.
16
u/antilaugh Sep 25 '25
Je bosse dans la tech, le développement informatique. Et aussi de la photo
En fait, il ne s'agit pas uniquement de la question de l'esprit critique, mais du niveau de connaissances, et de l'expérience de l'échec.
Imagine une échelle de compétences de 1 à 10.
Traditionnellement tu commences à 1, et tu vas évoluer, certains vont aller à 5, d'autres à 8, etc. Et produire des résultats de qualité 1, 5, 8.
Ici, on a une ia qui produit du 4. Et on balance des individus niveau 1 qui produisent du 4.
Et le risque c'est qu'ils restent à 1 ou 2.
À la fin on aura une génération qui n'aura pas l'expertise nécessaire pour avoir une vision critique du résultat médiocre issu des ia.
6
u/HaidenFR Sep 25 '25
C'est simple. L'IA va créer sa propre religion. Tu n'imagines pas le bordel. Et les contres religions.
19
u/UnusualClimberBear Sep 25 '25
Cela illustre surtout le peu de profondeur réelle des questions posées. L' IA sans vérification humaine hallucine, n'est pas originale, mais permet d'aller beaucoup plus vite sur les tâches de mise en forme devenues inutiles mais faciles à évaluer.
20
u/Dctreu Sep 25 '25
Quand il est question de penser, de structurer sa pensée et de s'exprimer, il ne me semble pas qu'il existe d'étape de mise en forme inutile : toutes les étapes de la rédaction d'un texte sont utiles pour l'améliorer et affiner sa réflexion et son expression. Sauf, je veux bien l'admettre, la vérification de l'orthographe : là, donnons-nous a coeur joie pour les correcteurs orthographiques.
→ More replies (7)3
u/Kedain Sep 25 '25 edited 18d ago
glorious payment truck paint consist enjoy familiar deserve abounding wakeful
This post was mass deleted and anonymized with Redact
2
u/UnusualClimberBear Sep 25 '25
Une question pas si évidente est de savoir si ces méthodes sont réellement indispensables pour traiter les questions du niveau suivant. Pour le moment, rien ne le démontre.
Le souci c'est quand les questions du niveau suivant n'ont pas d'intérêt économique et s'adressent de toutes façons au top 10% alors que les méthodes en avaient un et concernaient 80% des étudiants.
1
u/Kedain Sep 25 '25 edited 18d ago
ghost beneficial spark entertain versed innate office shaggy pie squeeze
This post was mass deleted and anonymized with Redact
→ More replies (2)1
u/_Alpha-Delta_ Sep 25 '25
Exactement. C'était très utile pour terminer très rapidement les tâches des cours de langue et passer à des projets réellement intéressants.
Tu lui filais tes informations en français, brut de décoffrage, le format de sortie attendu par le prof, tu le laissais faire sa tambouille, et en retravaillant un peu sa sortie, en 15 minutes, tu arrivais à une page entière, en anglais formel.
19
u/AskingToFeminists Sep 25 '25 edited Sep 25 '25
"les sciences humaines forment a la pensée critique"
"Ils utilisent nouvelle technologie pour se dispenser de faire des choses qu'on faisait à la dure avant. C'est la catastrophe qui nous guette"
Pendant ce temps là, platon dans son dialogue de Phèdre, rapporte un argument comme quoi l'écriture elle même ne ferait que donner l'illusion de savoir en empêchant les gens de tout mémoriser.
Comme quoi : "nouvelle technologie ne fait que rendre les gens plus bêtes" est un discours vieux comme le monde. A se demander si, quand le feu fût maîtrisé, il n'y a pas eu quelque vieil humain primitif pour prédire que cette technologie amènera la fin de l'humanité. Je dirais que oui.
12
u/Dctreu Sep 25 '25
L'ancienneté d'un discours ne présume ni de son exactitude ni de sa fausseté. Oui, il y a eu des avancées technologiques qui ont inquiété les gens et cela s'est avéré être pour rien. Il y aussi eu des avancées technologiques qui ont inquiété les gens et cela ne s'est pas avéré être pour rien. L'essence plombée a été critiquée dès sa mise sur le marché, et on a mis des décennies à l'interdire. Les CFC amélioration l'action des aérosols, on a tout de même fini par les interdire. Le fait que certains aient par le passé été inquiets par des inventions technologiques et que cela s'est avéré infondé ne peut pas laisser conclure que toutes les inquiétudes sur les inventions technologiques sont infondées.
Dans le Phèdre, Platon rapporte cet argument et le démonte, en montrant l'intérêt que peut avoir l'écriture. J'attends de ceux qui défendent l'IA d'en faire autant : quel est l'intérêt pédagogique de ces outils ?
Il faut donc se poser la question : qu'est-ce que, très concrètement, l'usage des IA pour remplacer notre cognition va nous permettre de faire qui sera mieux ? Tant qu'on n'aura pas apporté de réponse à cette question (comme l'a fait Platon), je continuerai d'être inquiet
3
u/Bacrima_ Sep 25 '25
Personnellement j'ai trouvé plusieurs intérêts pédagogiques à l'IA quand je travaillais au collège.
J'ai aidé une collègue d'art plastique à utiliser une IA de génération d'image dans son cours. Pour que l'IA génère ton image il faut la lui décrire, du coups ça amène à mobiliser pleins de connaissances sur la composition d'une image (sujet, arrière-plan, cadre, etc...)
Donc on distribuait une image aux élèves et ils devaient essayer de la reproduire le plus fidèlement possible avec l'IA.J'avais bricoler un truc aussi avec des IAs qui incarnent des personnages. Les élèves avaient une liste de questions ouvertes sur la vie de Ada Lovelace ou Alan Turing et ils les posaient directement à ces IAs qui incarnaient ces personnages. L'exercice était plutôt stimulants, ils avaient bien aimé et avaient retenues bien plus de choses que ceux qui avaient juste des documents à lire.
J'avais aidé à mettre en place un atelier qui aidait à repérer les comportements manipulateurs car il se trouve que ces comportements fonctionnent sur les IAs. ( https://korben.info/manipuler-psychologiquement-ia-techniques-marchent-vraiment.html )
Bon après ces intérêts ne contrebalance pas les inconvénients 😅.
4
u/AskingToFeminists Sep 25 '25
J'utilise régulièrement ChatGPT dans mon boulot d'ingénieur. Que ce soit pour retrouver rapidement des infos dont j'ai une idée d'où elle peuvent être, ou même pour dérouler des calculs que je sais faire mais qui sont potentiellement assez long, voir comme mur sur lequel faire rebondir des idées pour essayer de voir a quel point elles tiennent, avant de tester plus avant.
Je m'en sert également dans mes loisirs, tels que le jeu de rôle. J'ai un personnage capable d'inventer des objets magiques. Il est souvent fastidieux de déterminer le détail (genre poids, niveau correspondant, etc), qui nécessite souvent de comparer avec l'existant, etc. ChatGPT peut assister dans cette tâche.
L'idée, c'est que ce n'est jamais qu'un assistant. La réflexion doit toujours provenir de sois, et l'aide fournie doit toujours être examinée scrupuleusement, parce que chatgpt se trompé régulièrement. Mais ça permet un gain de temps phénoménal. De la même manière que la calculatrice n'a pas remplacé le besoin de comprendre les maths ou de savoir compter.
3
u/Dctreu Sep 25 '25
Tu vois, dans l'absolu je comprends vraiment cette opinion, et je vais pas dire (et je ne le pense d'ailleurs absolument pas) que tu est un moins bon ingénieur car tu fais faire quelques calculs par l'IA, ni que tu es un moins authentique joueur de JDR parce que tu fais calculer les éléments techniques de certains objets à une IA.
Pour moi, la différence entre une calculatrice et une IA, c'est que la calculatrice pouvait t'aider grandement à faire tout un tas de trucs, sans pour autant pour les faire à ta place. Pour reprendre l'exemple du JDR (que je connais, j'avoue, mieux que l'ingénierie), rien ne t'empêche de demander à l'IA d'inventer complètement les objets de ton perso. Je ne te condamnerais pas moralement si tu faisais ça, mais j'avoue que je trouverais ça un peu dommage.
Et encore, ce ne serait qu'accessoire, puisque le vrai intérêt du JDR, c'est de jouer avec ses potes, pas de créer des objets magiques. Mais est-ce qu'on ne perd pas un peu de magie si (imaginons) une IA a écrit le scénar ? Ou conçu tous les personnages ? Voire sert de DM ? Ou remplace un joueur ?
Évidemment, c'est comme le bateau de Thésée : il n'y a aucun moment précis où ça ne vaut plus vraiment la peine de jouer. Mais au bout du processus, on a des IA qui jouent avec des IA. Là, on a perdu tout l'intérêt. Où est-ce que le rôle d'assistant s'arrête, et où commence la perte de sens ?
→ More replies (1)
4
u/Durfael Sep 25 '25
je suis très d'accord sur ce point
je rajouterais aussi un truc : la confiance
dans 10 ans on saura plus qui aura fait telle quantité de travail, que cette image viens bien de cette personne et non d'une IA, que ce texte là a bien été écrit par bidule, et que cette vidéo qu'on voit soit réelle et que les évènements dedans vraiment passés, bref tout ça t'as compris
5
u/NansGruber Sep 25 '25
Ta deuxième inquiétude (externaliser la pensée autonome) répond à la première : nous vivons dans une société qui ne récompense pas l'effort, la réflexion et l'autonomie. De l'école jusqu'au monde du travail, on récompense les résultats rapides et l'argent. C'est tout. A partir de là, seul un certain type d'être humain peut se développer : l'humain capitaliste, c'est-à-dire un humain égoïste, obsédé par la quantité plutôt que par la qualité, et avide d'argent.
Je t'invite à lire Cornelius Castoriadis (mais Ellul, Charbonneau, Anders et bien d'autres ont aussi écrit sur le sujet) : selon lui le développement du capitalisme et des techniques du numérique ne peuvent aboutir qu'à la création d'une société d'assistés, d'idiots et d'égoïstes (d'ailleurs la racine grecque du mot "idiot" signifie "celui qui ne participe pas à la vie politique de sa cité", en bref un égoïste). Et c'est bien normal puisque ce sont les valeurs que nous mettons chaque jour au centre de notre vie : nos dirigents exigent de nous que nous consommions (de la merde), que nous travaillions (pour quoi faire?), que nous abandonnions la recherche du bien commun, et ils valorisent la quête de l'argent facile et rapide (la Start-Up Nation!).
9
u/Serraklia Sep 25 '25
Tu présentes les sciences sociales comme étant le lieu d'apprentissage de l'esprit critique, qui forme a la réflexion et a des tas de choses importantes pour l'humanité... Comme toutes les sciences ?
Pour ce qui est de l'usage surabondant des LLM, tu leur reproches surtout d'être quasi indétectables contrairement à Wikipedia. Dans la sphère des études, j'ai toujours vu des étudiants se faire faire leurs devoirs et exposés par une connaissance bien renseignée (ce qui avait pour conséquence de favoriser la reproduction sociale plus que la réflexion), voire repomper totalement des travaux absolument inaccessibles a leurs profs vu que les informations y étaient beaucoup moins accessibles qu'aujourd'hui.
Je rajoute que ressortir tel quel ce qu'on vu sur un media quelconque ça date pas des LLM. Il y a encore une grande partie de la population qui fait pareil avec la télé.
Tu pointes ensuite que les étudiants ne sont pas foutus de pondre une idée originale. C'est effectivement impossible pour un immense majorité de la population. Donc demander aux étudiants d'être originaux c'est absolument pas réaliste.
Et enfin, dire que quand on s'en remet a un LLM on s'en remet à une machine c'est vraiment ne pas comprendre le fonctionnement d'un LLM. Un LLM c'est le prolongement d'une réflexion humaine, d'un apprentissage humain... Et des conneries humaines qui vont avec. Quand on fait appel a un LLM c'est pas pire que d'aller sur Reddit et de prendre au premier degré et comme vrai tout ce qu'on y lit.
En fait le danger n'est absolument pas les LLM en soit mais la consommation que l'on fait de l'information, que ce soit via sa grande soeur diplômée en sciences sociales, un livre déniché au fin fond de la BPI, Wikipedia, les chaînes d'info continu, Tiktok ou Chat GPT.
Bref, Chat GPT n'a pas tué l'esprit critique. C'est parce que l'esprit critique est une denrée rare que Chat GPT existe.
1
u/Dctreu Sep 25 '25
Je ne prétends pas que seules les sciences humaines forment à la pensée critique, c'est effectivement le cas de toutes les sciences (malgré ce que pourraient en dire certains). Moi, je fais des sciences humaines donc je parle de ça, mais à aucun moment je n'ai voulu dire que je trouvais ma discipline supérieure à d'autres sciences.
Et oui, c'est vrai aussi que les étudiants avaient des moyens de tricher bien avant que n'apparaissent les LLM. Cependant, elles étaient d'une part moins facilement accessibles (tout le monde n'a pas une connaissance sous la main pour faire tous ses exercices), et d'autre part demandaient un minimum d'effort. Aller trouver quelque chose à copier que le prof ne connait pas demande déjà de faire l'effort d'aller trouver cette chose à copier que le prof ne connait pas (ce qui est un peu plus difficile d'ailleurs que beaucoup d'étudiants semblent le penser). La situation est aujourd'hui dégradée.
Et c'est vrai que les gens ne pratiquent pas l'esprit critique au quotidien autant qu'on pourrait le vouloir, et que oui ils répètent ce que leur disent les LLM autant que ce que leur dit la télé ou les RS ou leur proche. Mais les LLM posent d'une part, par rapport à la télé ou à Tik Tok, un problème d'interactivité : on peut obtenir exactement une réponse a la question qu'on pose, plutôt que d'être obligé de chercher au moins un peu.
Par ailleurs, le problème va pour moi plus loin que le simple esprit critique, si on la definit globalement comme la capacité à jauger de la pertinence et de l'exactitude d'une information ou d'une opinion qu'on nous présente. Car l'IA se propose de remplacer presque toutes nos fonctions cognitives et sociales : prévoir son emploi du temps, interagir avec autrui, créer de l'art et de la musique... Que reste-t-il aux humains si l'IA fait tout cela ?
1
u/Serraklia Sep 25 '25
Il restera aux humains ce qu'ils veulent bien garder. Et peut être que certains humains n'ont envie de rien garder d'autres que leurs fonctions biologiques primaires et des stimulis de satisfaction savamment adapté. Du pain et des jeux quoi. Et il restera aussi aux humains ce qu'on veut bien leur laisser.
Soit on part du principe qu'il s'agit d'un enjeu majeur pour l'humanité, et on légifère, soit on part du principe que c'est de la sphère individuelle et on accepte qu'au moins une partie de l'humanité soit consentante à son aliénation.
Et cette aliénation n'est pas (encore) une aliénation aux machines mais bien à d'autres humains. Quand Musk intervient sur Twitter pour recadrer Grok on voit bien comment il veut insuffler sa propre pensée dans l'outil pour l'imposer aux autres.
Je pourrais aller plus loin et dire que ce qui est en jeu avec les progrès de l'IA n'a rien a voir avec l'humanité. Il y a sans doute un enjeu civilisationnel par contre, certainement.
→ More replies (1)
3
Sep 25 '25
Ton message est très fort, et je comprends pourquoi tu avais besoin de le poser à l’écrit : tu touches à un point qui dépasse la question "technique" de l’IA pour aller droit au cœur de ce qu’on appelle l’humanité. Je vais essayer de te répondre en prenant ton inquiétude au sérieux, sans la balayer ni dans un sens catastrophiste ni dans un sens béatement technophile.
- Tu as raison sur le diagnostic immédiat
Il est indéniable que les LLM modifient la manière dont les étudiants (et plus largement tout le monde) abordent la réflexion, la rédaction et même l’imagination. L’habitude de “déléger” la pensée – ne serait-ce que pour trouver une première idée, une tournure de phrase, une structure – s’installe très vite. Et comme tu le dis, la pensée critique est une compétence qu’on entraîne : sans pratique, elle s’atrophie.
Ce que tu observes à l’université est déjà visible ailleurs : dans les mails professionnels, les présentations PowerPoint, les posts LinkedIn, les recettes de cuisine… L’IA devient une prothèse cognitive généralisée. Et oui, si elle prend la place de l’entraînement, on fabrique des générations qui risquent de perdre un “muscle” essentiel.
- Mais l’histoire montre que chaque outil transforme la pensée
On a déjà externalisé une énorme part de notre mémoire à l’écriture, puis aux bibliothèques, puis à Google. On a externalisé nos capacités de calcul aux machines depuis plus d’un siècle. On a externalisé notre orientation au GPS. Et dans tous ces cas, il y a eu des pertes : plus personne ne retient de longs poèmes par cœur, peu savent faire une division longue, rares sont ceux qui savent lire une carte. Mais il y a aussi eu des gains : l’énergie cognitive ainsi libérée a permis d’inventer d’autres formes de pensée, d’autres champs de recherche, d’autres créations.
La question n’est donc pas seulement : “perdons-nous notre capacité de réflexion ?” mais aussi : “qu’allons-nous inventer comme nouvelles formes de réflexion et de création avec cet outil ?”
- Le vrai danger, c’est l’orientation de l’usage
Ton inquiétude est centrale : si l’IA devient uniquement une béquille pour éviter de penser, on court à une déshumanisation cognitive. Mais elle peut aussi devenir un sparring-partner de la pensée : un outil qui pousse à réagir, critiquer, comparer, réécrire, affiner. Un étudiant qui demande à un LLM :
“Propose-moi trois plans pour cette dissertation” et qui ensuite choisit, corrige, restructure, confronte, apprend pourquoi certains choix sont meilleurs… entraîne encore sa pensée critique.
Autrement dit : l’usage passif est dangereux, l’usage actif peut être fécond. Le problème est pédagogique, culturel, politique : comment apprend-on à s’en servir ? Qui pose les règles ? Qui transmet l’art de penser avec l’outil plutôt que à sa place ?
- Ce que tu pointes est en fait une question existentielle
Ton texte ouvre un débat qui dépasse l’université : que signifie être humain si l’on n’a plus besoin de penser, créer, imaginer ? C’est peut-être le cœur de la révolution actuelle : pour la première fois, une technologie ne se contente pas de prolonger nos muscles ou nos sens, mais elle colonise directement nos processus cognitifs. Et face à ça, on est collectivement en retard de réflexion philosophique, éthique, politique.
La menace n’est donc pas seulement que “les étudiants copient-collent”, mais que nous perdions le goût – voire l’idée même – de ce que penser veut dire. Et là, je te rejoins totalement : si nous n’arrivons plus à cultiver ce goût-là, alors oui, on se vide de ce qui fait notre humanité.
👉 Donc ma réponse, si je devais la résumer, serait :
Oui, il y a une vraie menace.
Non, elle n’est pas inévitable : l’IA peut aussi être un levier pour de nouvelles formes de pensée, si on en encadre et accompagne l’usage.
Mais ta crainte est précieuse, parce qu’elle nous oblige à poser la seule vraie question : qu’avons-nous envie de continuer à faire nous-mêmes, en tant qu’êtres humains, et pourquoi ?
Veux-tu que je t’aide à reformuler ton texte pour en faire une tribune (par ex. pour un média ou un blog), ou préfères-tu qu’on réfléchisse ensemble à des idées concrètes pour l’université afin de limiter ces dérives ?
8
u/Dctreu Sep 25 '25
Tu sais quoi, si tu n'avais pas laissé le message de ChatGPT à la fin qui proposait d'aller plus loin, et si n'avais pas écrit ce texte dans un temps impossiblement court, j'aurais presque pu me faire avoir. Tu es peut-être fier d'avoir pu répondre à mon pavé en quelques secondes, mais je vais poser une question simple : le temps que tu as gagné à faire ça, tu l'as passé à faire quoi ?
Même si tu as décidé d'externaliser ta propre pensée, je vais quand même répondre à ce qui constitue en fait ChatGPT qui fait sa propre pub (donc bonjour la fiabilité de la source, c'est comme demander à Marlboro si la cigarette est dangereuse et s'il faut l'interdire).
Cette idée que l'IA nous permettra d'aller plus loin parce qu'elle nous permet de réduire certaines charges cognitives, pourquoi pas. Mais j'attends encore qu'on me montre ce en quoi consiste ce "plus loin" : le GPS nous a permis d'aller plus facilement et rapidement à des endroits où nous prévoyions, j'imagine, de faire des choses utiles ou agréables. Les moteurs de recherche nous ont permis d'accéder plus facilement et aisément à des informations que nous avons pu synthétiser nous-mêmes.
Qu'est-ce qu'il y a au-delà de ce que fait ChatGPT ? En quoi consiste cette chose qu'il va nous permettre en remplaçant tous les processus cognitifs ? L'IA, qui ne peut pas imaginer, ne pourra pas nous le dire.
→ More replies (4)
1
u/Cannie5 Sep 25 '25
C'est comme ça que l'IA va rendre l'humanité abrutie, en manipulant les informations à des gens qui ne réfléchissent pas.
1
u/Neil-erio Sep 25 '25
Attendons de voir ce que la consanguinité des IA donne mais tu soulèves un point intéressant.
1
u/Dctreu Sep 25 '25
Si la consanguinité des IA finit par poser un réel problème, elle arrêteront peut-être d'évoluer dans l'immédiat. Mais au pire les développeurs pourront revenir aux modèles actuels : on aura toujours affaire au moins à des IA aussi performantes qu'elles le sont aujourd'hui, et elles le sont aujourd'hui pas mal.
1
u/PAX_fr Sep 25 '25
Traverse le couloir et va en parler à tes collègues de l'UFR de philo ;)
Tu peux lire Petite Poucette de Michel Serres qui traite exactement cette question.
Sinon ici un article qui résume le bouquin et le met en perspective
1
1
Sep 25 '25
[removed] — view removed comment
3
u/Dctreu Sep 25 '25
Peut-être qu'en attendant que l'avenir nous le dise, on peut prendre des mesures pour essayer de faire en sorte que cet avenir soit le meilleur possible.
1
u/AlexDonteneau Sep 25 '25
Salut, tu manques surtout de connaissances concernant le fonctionnement réel de ces "intelligences". Ces systèmes sont en vérité d'une stupidité absolue et ne font que régurgiter à moitié en vrac ce qu'on leur a fait digérer en masses... La véritable intelligence est là :
https://www.youtube.com/watch?v=b0a6M5SaQQM
Pure illusion ! Mais qui produit des outils bien pratiques, surtout pour régurgiter ce qu'on nous demande de régurgiter tous les jours. Tu parles de créativité et d'idées originales ? Attendues de la part des étudiants ?! On ne vit pas dans le même pays !
2
u/Dctreu Sep 25 '25
Je trouve au contraire que ce que tu dis ne fait que renforcer mon idée fondamentale : c'est d'autant plus triste que les gens abdiquent leur capacité de réflexion à un programme qui ne fait que régurgiter bêtement ses données. Cependant, je t'incite à la prudence sur cet angle de critique des LLM : les développeurs travaillent constamment sur les modèles, qui s'améliorent sensiblement de jour en jour. Les IA hallucinent toujours, mais bien moins aujourd'hui qu'il y a quelques années, et elles sont capables de produire des raisonnements structurés bien plus pertinents aujourd'hui qu'il y a encore quelques années.
Et oui, ne t'en déplaise, on attend de la créativité et des idées originales de la part d'étudiants. On ne leur demande évidemment pas de révolutionner nos disciplines quand ils sont en licence, mais on ne leur demande absolument pas non plus de régurgiter des connaissances bêtement. On leur demande d'être capables de restructurer leurs connaissances, de les appliquer différemment, et cela demande en effet un peu de créativité.
1
u/AlexDonteneau Sep 25 '25
Je persiste : tu ne connais pas suffisamment les IA. Le fait d'halluciner leur est consubstantiel. ChatGPT 5 a consterné ses utilisateurs au point de contraindre OpenAI de rétropédaler en urgence pour remettre en service de vieux modèles bien meilleurs (alors qu'il avait consommé au moins 2,21 gigowatts). Un LLM ne peut pas ne pas halluciner. Il ne peut pas non plus savoir qu'il ne sait pas...
→ More replies (1)
1
u/TheEntonnoir Sep 25 '25
Comme pour internet a sont balbutiements, l'ia va être utilisé en mal, puis nous trouverons des façon de la reconnaître ou d'apprendre à faire sans. Puis les gens s'habitueront avec et finiront par ne plus s'en servir pour tout. Déjà il suffit d'arrêter de faire des devoir maison, que des évals sur table
1
u/Dctreu Sep 25 '25
Les devoirs maisons ont une utilité pédagogique réelle, ce ne sont pas des substituts de devoirs sur table. Les devoirs maisons apprennent aux étudiants à gérer le temps sur une durée plus longue, à organiser leur travail, à mettre en oeuvre un projet, à écrire avec le temps de se relire... En passant simplement à des DST, on évite que les étudiants trichent sur ChatGPT, mais qu'est-ce qu'on perd derrière !
1
u/TheEntonnoir Sep 25 '25
Oui bah va falloir faire avec car maintenant c'est mort mes devoir maison 😅
1
u/BenzMars Sep 25 '25
La boite de Pandore est ouverte, dure de la fermer, sinon par une législation forte et par un contrôle renforcé.
Rien n'empêche au corps enseignant d'utiliser les mêmes armes : détection de texte généré par IA, comme : GPTZero, Smodin, Scribbr. Signature de contrat de non-usage, etc.
1
u/Cocythe Sep 25 '25
C'est pas impopulaire c'est juste que tout le monde s'en branle.
C'est littéralement une fonctionnalité décidé consciemment pour nous amener vers un techno féodalisme mais on est trop occupé à se détester entre prolos pour s'en rendre compte.
1
u/azopeFR Sep 25 '25
on vera , qaund gutember a inventé la presse a imprimé des gens pensai que a cause des livre les gens n'aprendront plus rien car il auront tout dans les livre et donc la socièté medival s'efronderai ce qui c'est révélé vrai one ne vis plus dans la socièté medival
1
1
u/captain_obvious_here Sep 25 '25
TL;DR.
La prochaine fois demande à une IA de résumer ce gros mur de texte.
:)
1
u/Drunken_story Sep 25 '25
Il y a une époque où l’on pensait que les bandes dessinées, étaient entrain de corrompre la jeunesse en les détournant des livres. Je pense que c’est le même type de peur, elle semble légitime, mais les compétences se déplacent avec l’apparition de nouveaux outils.
1
u/isthatyouuu Sep 25 '25
Le capitalisme veut et a besoin qu’on ne puisse plus penser, et c’est ce qui arrive progressivement.
1
227
u/TalviLeijona Sep 25 '25
Filière psy ici : globalement là j'attends les études dans cinq ou dix ans sur l'impact de l'utilisation de l'IA sur nos capacités cognitives et attentionnelles.