Intelligence artificielle et intelligence humaine
241 pages
29 €
Infos & réservation
Thème
Dans le prolongement de l’exceptionnel colloque organisé sur ce thème, les 25 et 26 novembre 2021 à Paris par l’ IPM (Institut Psychanalyse et Management ) et l’ Université de Paris 1 Panthéon-Sorbonne (IAE), ce collectif dirigé par un duo d’éminents professeurs se propose d’apporter des éléments de réponse à deux questions centrales qu’appelle cette problématique :
- L’une est existentielle : l’IA peut-elle (menace-t-elle) de se substituer à l’intelligence humaine ?
- L’autre plus « clinique » tente d’évaluer dans une logique de ‘ Risque-Bénéfice ‘,( aujourd’hui complètement dans l’actualité..) les potentialités et les dangers qui pourraient émerger de l’ IA.
Une vingtaine de chercheurs universitaires et d’experts reconnus apportent leur contribution, fruit de leurs études sur ces problématiques qui restent encore peu ou pas traitées par la littérature.
Points forts
Aussi, l’un des mérites des coordinateurs de cette parution d’une belle richesse est d’avoir su et pu réunir dans ces « regards croisés » des représentants éminents de disciplines qui bien souvent évoluent à une certaine distance les unes des autres.
En effet, «l’Intelligence Artificielle investit toutes les activités économiques, accélère les processus d’innovation, change les mode de production, transforme les organisations et bouleverse les relations sociales, mais oblige à revisiter certaines théories -sinon certains paradigmes- qui fondent plusieurs disciplines scientifiques, comme le Management, la Philosophie, la Sociologie, la Psychologie et la Psychanalyse .
S’il est maintenant acquis que l’IA crée de la valeur socio-économique (innovation, productivité, systèmes assistés, services « augmentés » etc ), ses dangers et ses risques n’en sont pas moins palpables, ce que Stephen Hawking résumait ainsi : « la création d’une intelligence artificielle serait le plus grand événement de l’histoire de l’humanité mais il pourrait en être l’ultime”.
Le Professeur Pluchart, dans son avant-propos éclairant, souligne que les peurs qu’ engendre l’ IA vont de « l ‘effet boite noire » des biais algorithmiques supposés, aux manipulations avérées des sondages (l’ Amérique en est l’un des exemples), voire des manipulations discriminatoires (Apple Card), comme aux risques de déqualifications professionnelles.
Ces externalités négatives sont aussi rappelées par Alexis Grinbaum (auteur du livre Les robots et le mal, éd. Desclée de Brouwer 2019) : « des assistants domestiques se font délateurs, des voitures automatisées tuent, des agents conversationnels injurient leurs interlocuteurs… ».
Ce constat, plaident plusieurs contributeurs, nécessite un encadrement de l’IA et l’accès à une « maturité algorithmique » que Aurélie Jean avait conceptualisée dans son récent ouvrage Les algorithmes font-ils la loi ? (paru aux éditions de l’’Observatoire, octobre 2021).
Aussi « les philosophes, les psychanalystes et les gestionnaires ont pour rôle d' identifier et d’ analyser les origines et les effets des biais perceptuels, émotionnels et cognitifs affectant les différents acteurs, mais aussi d’anticiper les avancées de L’ IA sur les consciences et les inconscients des sujets « soumis » à l’IA… »
Il en résulte que si la recherche « d’une IA éthique » reste l’un des grands défis de la société post -moderne, elle repose d’abord sur le traitement des biais d’origine essentiellement humaine avant de se reproduire par les algorithmes.
Quelques réserves
La peur anthropomorphiste de « l’homme augmenté » paraît à ce stade des réflexions des experts de cette parution encore très éloignée d’une réalité prochaine et permet de lever bien des incertitudes. C’est d’autant plus heureux que l’ on partage cette pensée de Kant : « on mesure l’intelligence d’un individu à la quantité d’ incertitudes qu’il est capable de supporter.». On en accepte avec grand plaisir les augures.
Encore un mot...
Toutefois, et in fine, les principales contributions dans cet ouvrage se rejoignent pour considérer que si l’IA peut maîtriser certaines propriétés élémentaires de l’intelligence , elle ne peut (et ne pourra ?) se substituer à certaines formes de l’ intelligence humaine incluant l’intuition, l’émotion et le désir
Une phrase
(de l’avant-propos) : « ...le passage de l’IH à L’IA n’implique pas seulement de réduire la pensée humaine à une logique purement rationnelle, mais d’intégrer celles de l‘intelligence émotionnelle (intuition, inhibitions, affects psychologiques) et de l’intelligence collective marquée par des effets d' imitation et d’ancrage de la pensée dominante.. ». Le « mur de l’ inconscient » érigé par le langage reste encore infranchissable même si certaines formes de raisonnement de plus en plus complexes commencent à être maîtrisées. »
L'auteur
Daniel Bonnet : Président de l’ IPM- Institut psychanalyse et Management, Professeur à l’université de Lyon ; Jean-Jacques Pluchart : Professeur émérite Paris 1 Sorbonne, auteur, Président du Comité de sélection du Prix Turgot. Il est aussi un chroniqueur régulier de Culture Tops pour les ouvrages touchant à l’économie.
Et les contributeurs : Odile Bellenguez - J-C Castalegno – Laurence Devillers – Emmanuel Diet- Marianne Dournaux – Christian Dugoin- Clement –- Alexei Grinbaum -Eric Lacombe – Jean-Paul Lafrance- Hubert Landier – Jean-Bernard Mateu - Maria Mercanti Guerin – Jeanne Mouton --Annick Scholl - -Françoise Soulié-- Fogelman
Et aussi
Sur ce même thème, lire aussi :
Le fabuleux chantier : rendre l’I A robustement bénéfique, une chronique de Paul Lelièvre : L’intelligence artificielle pourrait-elle nous influencer vers le meilleur et non vers le pire ? Une réflexion menée avec brio.
Ajouter un commentaire