--- zotero-key: WTTGG2FR zt-attachments: - "687" citekey: jeambonFaceLIA2024 aliases: - Face a l'IA --- up:: [[zotero literature notes]] link:: [Zotero](zotero://select/library/items/WTTGG2FR) [attachment]() #s/PKM #zotero #t/source > [!zotero]+ [Face a l'IA](zotero://select/library/items/WTTGG2FR) - [Page 1](zotero://open-pdf/library/items/PNG64A87?page=1&annotation=GXK437UV) > L’intelligence se réfère dans le contexte de l’IA à la capacité d’une machine à effectuer des tâches qui nécessitent généralement une intelligence humaine. Cela englobe la résolution des problèmes, la reconnaissance des motifs, l’apprentissage et bien d’autres aspects. > > > [!note] Notes > > Cette définition n'est pas forcément très bonne. > > Notamment, des système très simples rentrent dans cette définition (une calculatrice par exemple). > ^GXK437UVaPNG64A87p1 > [!zotero]+ [Face a l'IA](zotero://select/library/items/WTTGG2FR) - [Page 1](zotero://open-pdf/library/items/PNG64A87?page=1&annotation=X25QXTLS) > L’IA traite des données, les modèles dépendent donc : de la qualité des données et des intentions de leur créateur. > > > [!note] Notes > > Un troisième élément est très important : l'apprentissage. C'est bien le créateur qui en décide, mais "l'intention du créateur" est plutôt mise dans le "but" de l'IA. > > > > Et justement, un des plus grands problèmes de l'IA c'est le *problème de l'alignement* : comment être sûr que l'apprentissage va bien réaliser l'intention du créateur ? > > Car il arrive souvent que l'IA "contourne" le but qui lui est donné. C'est notamment le problème du [maximiseur de trombones](https://www.wikiwand.com/fr/articles/Convergence_instrumentale#Maximiseur_de_trombones) > ^X25QXTLSaPNG64A87p1 > [!zotero]+ [Face a l'IA](zotero://select/library/items/WTTGG2FR) - [Page 1](zotero://open-pdf/library/items/PNG64A87?page=1&annotation=ST9B4U9T) > A ce niveau, n’apparaît aucune recherche de compréhension du contexte humain, aucune réflexion humaine complexe basée sur d’autres paramètres, et évidemment pas de dimension éthique. > > > [!note] Notes > > Je ne suis pas certain de comprendre en quoi ce niveau de définition ne fait pas apparaître de réflexion humain ou d'étique. > > > > - si on veut dire par là que la définition n'expose pas immédiatement les risques et problèmes humains et éthiques des IAs, alors je ne vois pas le problème : ce n'est pas le but d'une défintion > > - si on veut dire que cette définition ne parle pas du fait, pour les IAs, de chercher à comprendre du contexte humain, d'avoir une réflexion plus ressemblante à celle des humain, voire même du fait d'avoir une conscience éthique, alors c'est tout à fait normal : aucune IA n'est proche de cela, ni faîte pour cela aujourd'hui. La définition n'a donc aucune raison d'en parler. Cependant, il est vrai que, en conséquence de leur entraînement, certaines IAs *immitent* très bien le comportement humain d'un point de vue fonctionnel : elles "parlent en immitant des humains" > ^ST9B4U9TaPNG64A87p1
> [!zotero]+ [Face a l'IA](zotero://select/library/items/WTTGG2FR) - [Page 1](zotero://open-pdf/library/items/PNG64A87?page=1&annotation=F4W784WI) > des impacts économiques sur les répartition du travail et des richesses > > > [!note] Notes > > On peut contester cela en disant que c'est l'organisation de la production qui à de tels impacts. > > > > Si on possède une IA qui permet de faire le travail 2 fois plus vite, on peut simplement décider de faire travailler tout le monde 2 fois moins longtemps pour le même salaire (et cela ne change rien à la situation économique). > > L'effet de nouvelles technologies sur la répartition du travail et des richesses est bien une décision politique au sujet de l'organisation de la production (voir à ce sujet "éloge de l'oisiveté" de Bertrand Russel). > ^F4W784WIaPNG64A87p1 > [!zotero]+ [Face a l'IA](zotero://select/library/items/WTTGG2FR) - [Page 1](zotero://open-pdf/library/items/PNG64A87?page=1&annotation=3P62N536) > la détermination des données utilisées et le formatage résultant du choix de ces données, génèrent des stéréotypes discriminant les minorités. > > > [!note] Notes > > Il est en fait assez faux de dire que les IAs *génèrent* ces stéréotypes. Elles ne font que les recopier, au pire les amplifier, mais si elles apprennent des stéréotypes, c'est qu'ils sont présent dans leurs données d'entrainement (et donc chez les humains). > > D'ailleurs, mathématiquement, pour les IAs actuelles, il est impossible de faire la différence entre un fait réel et un stéréotype : les deux sont des irrégularités statistiques dans ses données. > ^3P62N536aPNG64A87p1 > [!zotero]+ [Face a l'IA](zotero://select/library/items/WTTGG2FR) - [Page 1](zotero://open-pdf/library/items/PNG64A87?page=1&annotation=4GRV777V) > ’étude statistique des comportements, l’utilisation des messages numériques personnels, l’analyse des choix sur les sites ou les 2 informations publiques sont gérés par ces algorithmes et violent la vie privée, > > > [!note] Notes > > Le fait de violer la vie privée en ligne n'est pas un problème *en soi* (preuve en est que beaucoup de gens n'accordent que peu d'importance à leur vie privée sur internet). > > C'est bien *pour ce qu'en font les IAs* que c'est problématique : elles crééent une propagande ultra-personnalisée, manipulent nos habitudes pour nous pousser à consommer (notamment à consommer du contenu sur les réseaux sociaux). > > Il y à un parallèle intéressant à tire entre cette propagande ultra-personnalisée et l'origine du marketting, qui est au départ l'idée d'adapter son discours selon le type de population auquel on s'adresse, et qui s'est notamment développé avec goebbels dans l'allemagne nazie (voir à ce sujet Johann Chapoutot, notamment le livre "Libres d'obéir"). > ^4GRV777VaPNG64A87p1 > [!zotero]+ [Face a l'IA](zotero://select/library/items/WTTGG2FR) - [Page 2](zotero://open-pdf/library/items/PNG64A87?page=2&annotation=3E7RIFX6) > Une manipulation des données, des contenus, des voix, des films, et la diffusion de fausses informations qui en résultent sur les sites web, les messageries instantanées ,les forums etc. qui fonctionnent comme la rumeur. > > > [!note] Notes > > Un contre-argument commun consiste à dire que les faux existent depuis longtemps et que les manipulations de films et de voix par IAs ne seront vraiment dangereux que durant la "période d'adaptation" du grand public. > > En effet, on est assez habitués à l'idée qu'un texte ou qu'une image puissent être des faux. > > > > Je ne sait pas trop quoi penser de ce contre-argument. > ^3E7RIFX6aPNG64A87p2
> [!zotero]+ [Face a l'IA](zotero://select/library/items/WTTGG2FR) - [Page 2](zotero://open-pdf/library/items/PNG64A87?page=2&annotation=H4JMX9NJ) > Un manque de fiabilité de certaines études ou citations qui répétées sur tous les sites et média obtiennent une réalité statistique et par là une validité grâce à leur utilisation par la compilation de l’IA. > > > [!note] Notes > > Ici le problème n'est pas l'IA, mais la diffusion de fausses informations. Elles ont déjà un impact sur l'opinion publique (de nombreuses études mal interprétées ou qui se sont avérées fausses ont été relayées par la presses et ont diffusé des croyances fausses) sans avoir besoin de l'IA. > > > > Sur ce genre de sujets, le pire que peut faire l'IA, c'est amplifier des tendances déjà présentes. > ^H4JMX9NJaPNG64A87p2 > [!zotero]+ [Face a l'IA](zotero://select/library/items/WTTGG2FR) - [Page 2](zotero://open-pdf/library/items/PNG64A87?page=2&annotation=T9Q8UAWB) > Sur quels critères l’IA synthétise-telle les travaux qu’elle compile ? Le choix statistique ou itératif basé sur un critère de masse des données engendre comme un nivellement par la moyenne et génère ainsi la disparition de ce qui n’est pas la norme. > > > [!note] Notes > > Cela n'est pas vraiment une conséquence, mais plutôt un postulat pour le fonctionnement de nos IAs actuelles ! > > Si on veut faire une IA qui écrit un texte comme un humain, on part du principe qu'il existe bien une norme de ce qui "ressemble à un humain", sur laquelle on va tenter de baser notre IA. > > > > Si on veut cesser de faire disparaitre ce qui n'est pas la norme, on rend tout définition d'un objectif impossible ! > > Cependant, cela ne veut pas dire qu'une IA ne peut pas être créative ! Les IAs actuelles sont très bonnes pour repérer des régularités statistiques, mais surtout pour extrapoler à partir d'elles tout un espace de possibilités. > > Une partie de la construction d'une IA consiste bien à faire la balance entre une IA trop "simple", qui n'est pas capable d'apprendre ce qu'on lui demande, et une IA "trop aboutie" qui ne fait que répéter les données qu'elle à déjà vu, et qui ne sait rien en dehors de ces données. > ^T9Q8UAWBaPNG64A87p2 > [!zotero]+ [Face a l'IA](zotero://select/library/items/WTTGG2FR) - [Page 2](zotero://open-pdf/library/items/PNG64A87?page=2&annotation=RV6EGD9N) > Dilution de la responsabilité individuelle et des figures d’autorité. > > > [!note] Notes > > La question de la responsabilité avec les IAs est très complexe. > > Mais est-il vraiment négatif de se détacher du principe de responsabilité ? La justice reconnait, avec les circonstances atténuantes, qu'on est pas nécessairement totalement responsable de ses actes. Et la sociologie semble montrer qu'on est très largement influencés par notre environnement social dans toutes nos prises de décisions. > > > > On peut avoir le même type de réflexions à propos des figures d'autorité : sont-elles réellement une bonne chose ? > > Notamment, la dilution des figures d'autorité n'est-elle pas une bonne chose ? Si l'IA permet de mieux remettre en question, de mieux tourner en dérision, de mieux questionner les figures d'autorités, n'est-ce pas une bonne chose ? > > > > Quand à la question de la responsabilité individuelle des figures d'autorité, elle est (à mon sens) très important, car elle est un des piliers de la démocratie représentative. Si les représentant·e·s ne rendent pas compte au peuple, si iels ne prennent pas leurs responsabilités, alors on ne peut plus être dans une démocratie. > > Mais alors, il faut bien voir qu'un dirigeant qui dirait "j'ai laissé la décision à une IA" ne dirait rien d'autre que "j'ai pris moi-même la décision", car en réalité, en politique, c'est bien la question des valeurs, c'est-à-dire du but même que l'on se fixe, qui est centrale. Que veut-on maximiser dans notre société ? C'est bien la question centrale pour un responsable ! Le débat sur les moyens est important aussi, mais il est bien inutile si on a pas les mêmes objectifs ! > > Il est d'ailleurs notable de voir beaucoup de dirigeant·e·s se réclamer de la rationnalité, dire que leurs décisions sont nécessaires et pragmatiques, sans idéologie. C'est ce même déplacement qu'iels cherchent à opérer : dépolitiser les décisions politiques. Et sans aucun besoin d'IA pour cela. > ^RV6EGD9NaPNG64A87p2 > [!zotero]+ [Face a l'IA](zotero://select/library/items/WTTGG2FR) - [Page 2](zotero://open-pdf/library/items/PNG64A87?page=2&annotation=MS52ZGRR) > Substitution de la relation virtuelle à la relation à autrui. > > > [!note] Notes > > Les relations virtuelles sont très diverses, et les critiquer d'un seul bloc me semble compliqué. > > > > D'un côté, les communautés en ligne qui rassemblent beaucoup de personnent sont assez fondamentalement problématiques, et l'IA (notamment par les systèmes de recommendation) amplifie énormément les torts de ces groupes. En effet, le cerveau humain est assez mauvais pour gérer de grands groupes de personnes, et il à tendance à se concentrer beaucoup trop sur les dissenssus, ce qui fait que de nombreux réseaux sociaux deviennent des machines à idées radicales qui génèrent des oppositions radicales, de la haine, des insultes... > > > > D'un autre côté, les humains apprécient les petites communautés de personnent qui partagent des points communs. En cela, les modèles comme les forums sur des sujets précis, ou tout type de petite communauté, fonctionnent très bien, et peuvent former des relations très bénéfiques. Ceci dit, je ne vois pas trop de lien-entre les IAs et ce type de communautés (en dehors du fait que l'IA peut, ici comme ailleurs, être introduite pour résoudre certains problèmes). Le développement actuel des IA encourage plutôt le premier type de communautés. > > > > > > Enfin, les relations entre humains et IA sont aussi assez diverses. On connait l'exemple de personnes qui tombent amoureuses de leur IA (je ne sais pas trop quoi en penser, mais cela devient vraiment un problème quand ces IAs sont commerciales, gérées par des entreprises qui veulent leur profit au détriment des personnes). Mais les IAs pourraient également s'avérer très utiles dans des domaines comme la santé mentale ou l'enseignement, car le fait de ne pas être humaine peut être un avantage (notamment, on a pas la peur du jugement avec une IA). > ^MS52ZGRRaPNG64A87p2 > [!zotero]+ [Face a l'IA](zotero://select/library/items/WTTGG2FR) - [Page 2](zotero://open-pdf/library/items/PNG64A87?page=2&annotation=4KBQ2MDA) > Une machine dotée d’algorithme d’apprentissage peut-elle penser ? > > > [!note] Notes > > Je trouve la question mal posée, au moins tant qu'on à pas défini ce que l'on veut dire par "penser". > > > > La pensée englobe tellement de choses différentes qu'il est impossible de répondre à la question en l'état. > > Il est nécessaire de penser pour faire une addition. Dirait-on pour autant d'une calculatrice qu'elle pense ? > > > > Il semble aujourd'hui que tous les comportements humains peuvent être immités (voire surpassés) par une IA. Une manière de reformuler la question serait alors de distinguer les humains des algorithmes qui les immitent avec le concept de conscience. La question serait donc : "Une immitation toujours plus poussée des humains mènera-t-elle à la création d'une IA consciente ?". > > Mais voilà, la définition de conscience est un problème très complexe. Les sciences de la consciences sont assez jeunes, et se concentrent sur des descriptions très fonctionnelles de la conscience. Quand à la conscience en philosophie, j'ai plutôt tendance à croire que c'est une illusion, non pas que nous n'ayons pas de conscience, mais plutôt que notre prise de décision se fait en dehors de notre conscience, qui n'est qu'une image de ce que notre corps à décidé. > > Une vidéo intéressante sur je sujet, par un philosophe qui s'est beaucoup intéressé aux IAs (notamment aux LLMs) : [Quand la science répond à la question : nos IA sont-elles conscientes ?](https://www.youtube.com/watch?v=j2zv4jlo2Nw) > ^4KBQ2MDAaPNG64A87p2 > [!zotero]+ [Face a l'IA](zotero://select/library/items/WTTGG2FR) - [Page 3](zotero://open-pdf/library/items/PNG64A87?page=3&annotation=EAX8HBU9) > Quelles mesures éthiques développer face aux acteurs de la désinformation, manipulation malveillante et délibérée, ou face à ceux de la mésinformation, par une mauvaise formulation non délibérée. > > > [!note] Notes > > Il me semble que, dans notre société actuelle, seules deux types de mesures existent : > > > > > > - agir par la loi, en encadrant ou interdisant la création de certains types d'IA > > - proposer des alternatives désirables et éthiques aux services rendus par des IAs maleillantes ou erronnées > > > > Pour la loi, l'Europe à par exemple récemment voté le *Digital AI Act*, qui est insuffisant, mais qui est un début important. > > Quand aux alternatives possibles, je pourrais notamment citer [tournesol](https://tournesol.app) qui cherche à remplacer l'IA de recommendation de youtube, avec un système collaboratif (et robuste aux tentatives de manipulation) de notation des vidéos, qui fonctionne en comparant des vidéos 2 à 2. > ^EAX8HBU9aPNG64A87p3 > [!zotero]+ [Face a l'IA](zotero://select/library/items/WTTGG2FR) - [Page 3](zotero://open-pdf/library/items/PNG64A87?page=3&annotation=GILHNS54) > Au-dessus des institutions destinées à protéger le droit, les personnes, les libertés démocratiques, il faut en inventer d’autre destinées à discerner à abolir tout ce qui, dans la vie contemporaine, écrase les âmes sous l’injustice, le mensonge et la laideur. Il faut les inventer car elles sont inconnues, et il est impossible de douter qu’elles soient indispensables. > > > [!note] Notes > > Je ne voudrais pas entrer dans une trop longue réflexion sur les valeurs et sur l'axiologie (j'ai déjà fait beaucoup de hors-sujet). > > Simplement, on est là face à une hiérarchie des valeurs : la politique est moins importante que le droit, les personnes et les libertés démocratiques, qui sont elles-mêmes moins importantes que l'injustice sur les âmes, le mensonge et la laideur. > > Mais comment justifier de cette hiérarchie ? Je pense que c'est impossible. Je suis convaincu que le fait de penser avec des valeurs est une impasse intellectuelle, car on ne pourra jamais précisément justifier de nos choix de valeurs et du choix de notre hiérarchie entre ses valeurs. > > > > Pour plus de détails, un article est à paraître sur mon blog : [ne pas avoir de valeurs - une argumentation à l'encontre des valeurs morales](https://www.osk42.quarto.pub/posts/philosophie/ne_pas_avoir_de_valeurs.html) > ^GILHNS54aPNG64A87p3 > [!zotero]+ [Face a l'IA](zotero://select/library/items/WTTGG2FR) - [Page 3](zotero://open-pdf/library/items/PNG64A87?page=3&annotation=P7IKG389) > L’IA par son but d’optimisation économique qui agit sur la vie et les choix des hommes, fait disparaître l’homme singulier et sans l’homme singulier, le respect de « l’être », l’homme en son « humanité » disparait aussi « l’universel ». > > > [!note] Notes > > L'IA en elle-même n'a pas de but d'optimisation économique. > > C'est bien le système dans lequel elle est plongé qui fait disparaitre l'individu sans respect pour son être ou pour son humanité. C'est bien l'organisation capitaliste de la production qui produit de l'aliénation. > > Je dirais donc que c'est le seul but d'optimisation économique qui créée ce problème. > > > > Quand à la disparition de l'universel, je suis plutôt d'avis que l'humanité n'a jamais autant eu d'universel que depuis l'apparition des réseaux sociaux. A défaut de produire des relations toujours saines, les réseaux sociaux ont le pouvoir de mettre en commun à une échelle jamais vue auparavant. Quel autre outil qu'internet permet un tel partage ? Aujourd'hui, des dizaines de millions de gens peuvent avoir accès à une même information, la partager, en discuter... Je dirais au contraire que les nouvelles technologies (et l'IA peut y participer) sont le plus grand bond vers l'universel depuis le développement de l'humanisme ! > ^P7IKG389aPNG64A87p3 > [!zotero]+ [Face a l'IA](zotero://select/library/items/WTTGG2FR) - [Page 3](zotero://open-pdf/library/items/PNG64A87?page=3&annotation=TVZWWC6I) > maintenir les valeurs d’humanité, à poursuivre un chemin singulier de quête de sens et de connexion avec la Nature-Cosmos et de la nature de l’homme capable de choisir (ordo ab chao). > > > [!note] Notes > > Puisque c'est l'humanité qui à créé les IAs, en quoi les IAs devraient elles être en dehors de la nature ? > > Il faut transformer les plantes ou les animaux pour pouvoir les consommer, mais dit-on pour autant que manger nous éloigne de la nature ? > > Bien sûr, certaines IAs tendent à nous éloigner des relations interpersonnelles pour nous pousser à passer trop de temps sur les réseaux sociaux, à consommer des relations parasociales. > > Mais l'IA peut aussi être un fabuleux outil pour la médecine (par exemple, pour détecter le plus tôt possible le cancer du sein) ! En cela, ne permet-elle pas d'encourager ces valeurs de vie et d'humanité ? > > > > > > Quand à l'*ordo ab chao*, je le trouve très intéressant dans le contexte de l'IA. En effet, une grande partie des IAs génératives (notamment pour la génération d'images) fonctionne en apprennant à supprimer le chaos (le bruit, le flou) d'une donnée. On lui apprends par exemple à débruiter une image de chat. Une fois qu'elle est capable de le faire, on lui demande de débruiter un image complètement aléatoire (donc complètement chaotique), et l'IA va commencer à faire apparaitre une image de chat depuis le chaos. > > > > Finalement, les IAs sont les meilleurs agents de l'*ordo ab chao*, puisqu'elles sont précisément concues pour mettre de l'ordre, pour trouver des régularités, des motifs récurrents, dans une grande quantité de données, > ^TVZWWC6IaPNG64A87p3 > [!zotero]+ [Face a l'IA](zotero://select/library/items/WTTGG2FR) - [Page 3](zotero://open-pdf/library/items/PNG64A87?page=3&annotation=ZXDXUFNT) > L’intelligence éthique n’est pas soumise aux critères de l’IA mais à ce « quelque chose qui nous dépasse », et qui nous aide à maintenir l’homme dans sa dignité. > > > [!note] Notes > > Je crois ici que l'on parle plus de morale que d'éthique. > > En effet, la conception du bien comme quelque chose qui nous dépasse, qui est transcendant, est plutôt du registre de la morale. > > La morale, c'est une certaine conception du bien et du mal. > > Au contraire d'une conception transcendante du bien et du mal, l'éthique cherche une réflexion argumentée sur l'axiologie, sur les valeurs morales et sur la morale. L'éthique est presque immanente ! > > > > Indépedamment de nos opinions éthique, je crois qu'il est plus précis de dire : > > "La morale n'est pas soumise aux critère de l'IA, mais à ce « quelque chose qui nous dépasse », et qui nous aide à maintenir l'homme dans sa dignité". > ^ZXDXUFNTaPNG64A87p3