1 00:00:05,650 --> 00:00:09,370 Dans la seconde vidéo du cours, nous avons donc abordé les craintes 2 00:00:09,570 --> 00:00:12,760 et les représentations sociales que l'on associe à l'intelligence 3 00:00:12,960 --> 00:00:13,720 artificielle. 4 00:00:13,920 --> 00:00:15,610 Mais nous avons vu aussi, en parlant d'éthique, 5 00:00:15,810 --> 00:00:20,290 que ces craintes sont aussi bien réelles et bien plus pratiques 6 00:00:20,490 --> 00:00:21,310 que ce qu'on pourrait imaginer. 7 00:00:21,640 --> 00:00:25,840 Il ne s'agit pas seulement d'imaginer que des robots vont prendre le 8 00:00:26,040 --> 00:00:28,780 dessus sur nous comme dans un épisode de Black Mirror. 9 00:00:28,980 --> 00:00:29,740 Non. 10 00:00:29,940 --> 00:00:32,440 On voit bien, avec le cas de la voiture autonome, que les enjeux 11 00:00:32,640 --> 00:00:35,800 éthiques de l'intelligence artificielle se posent aujourd'hui, 12 00:00:36,000 --> 00:00:39,940 maintenant, et qu'il est important dès maintenant de prendre un certain 13 00:00:40,140 --> 00:00:40,900 nombre de décisions. 14 00:00:41,140 --> 00:00:46,240 C'est pourquoi, dans cette troisième partie du cours, nous allons revenir 15 00:00:46,440 --> 00:00:50,140 sur un enjeu important qui est celui de la régulation de 16 00:00:50,500 --> 00:00:52,030 l'intelligence artificielle. 17 00:00:52,230 --> 00:00:55,690 D'abord, commencer par vous dire que la question de la régulation 18 00:00:56,020 --> 00:00:59,290 des technologies, ça ne concerne pas que l'intelligence artificielle, 19 00:00:59,560 --> 00:01:02,980 ça concerne tous les domaines de l'innovation technologique. 20 00:01:03,180 --> 00:01:03,940 Qu'appelle-t-on régulation ? 21 00:01:05,050 --> 00:01:08,470 C'est tout simplement la manière dont les pouvoirs publics, 22 00:01:08,800 --> 00:01:14,020 les États, imposent des règles à l'innovation technologique, 23 00:01:14,220 --> 00:01:17,110 imposent des règles de développement, imposent des règles de fonctionnement 24 00:01:17,560 --> 00:01:22,030 pour s'assurer que ces développements technologiques, que ces innovations 25 00:01:22,230 --> 00:01:26,140 technologiques se fassent dans le respect des lois et des droits 26 00:01:26,340 --> 00:01:27,100 humains. 27 00:01:27,550 --> 00:01:28,690 C'est ça, la régulation. 28 00:01:28,890 --> 00:01:31,810 Réguler une technologie, c'est du côté des pouvoirs publics, 29 00:01:32,010 --> 00:01:36,010 du côté de l'État, s'assurer que cette technologie se développe 30 00:01:36,210 --> 00:01:39,880 en respectant la loi et en respectant les droits humains. 31 00:01:40,450 --> 00:01:42,610 Par exemple, dans l'actualité, en ce moment, on parle beaucoup 32 00:01:42,810 --> 00:01:46,300 de la régulation des réseaux sociaux, c'est-à-dire comment on fait en 33 00:01:46,500 --> 00:01:49,660 sorte que des entreprises comme Facebook, YouTube, Instagram ou 34 00:01:49,860 --> 00:01:54,970 TikTok respectent les lois en vigueur en France et en Europe, 35 00:01:55,170 --> 00:01:58,600 alors que ce sont des entreprises américaines ou chinoises. 36 00:01:59,440 --> 00:02:03,460 C'est un petit peu la même chose aujourd'hui avec la régulation 37 00:02:03,660 --> 00:02:05,290 de l'intelligence artificielle. 38 00:02:07,360 --> 00:02:12,160 On réfléchit aux règles qui pourraient être imposées au développement 39 00:02:12,360 --> 00:02:13,540 de l'intelligence artificielle. 40 00:02:13,870 --> 00:02:17,140 Et surtout, on y réfléchit de différentes manières. 41 00:02:17,340 --> 00:02:19,480 Parce que je vous ai dit que la régulation c'était les États, 42 00:02:19,810 --> 00:02:22,660 mais il n'y a pas que les États qui jouent un rôle dans la régulation. 43 00:02:22,930 --> 00:02:24,310 Il y a une grande diversité d'acteurs. 44 00:02:24,580 --> 00:02:27,670 Il y a la société civile par exemple, il y a les citoyens, 45 00:02:27,870 --> 00:02:29,110 il y a les entreprises, les médias. 46 00:02:29,380 --> 00:02:32,470 Et dans le domaine de l'intelligence artificielle, il y a par exemple 47 00:02:32,670 --> 00:02:35,560 une catégorie d'acteurs qui jouent un rôle important, c'est les 48 00:02:35,760 --> 00:02:36,520 scientifiques. 49 00:02:36,720 --> 00:02:37,690 Mais ça, je vais y revenir juste après. 50 00:02:38,950 --> 00:02:43,450 Premier point : vous dire que l'innovation technologique, 51 00:02:43,650 --> 00:02:48,850 quelle qu'elle soit, pose un problème aux régulateurs. 52 00:02:49,570 --> 00:02:54,700 Elle pose un problème aux régulateurs dans la mesure où lorsqu'une innovation 53 00:02:54,900 --> 00:02:59,440 technologique émerge, il est bien souvent difficile 54 00:03:00,280 --> 00:03:04,690 d'appréhender les impacts futurs de cette technologie. 55 00:03:06,010 --> 00:03:10,540 Il en découle un paradoxe, un paradoxe qui a été décrit par 56 00:03:10,740 --> 00:03:14,350 un chercheur américain, David Collingridge, qui a été décrit 57 00:03:14,550 --> 00:03:19,210 en 1980 sous le terme du dilemme du contrôle social des technologies. 58 00:03:19,410 --> 00:03:21,070 Qu'est-ce que nous dit David Collingridge ? 59 00:03:21,270 --> 00:03:26,560 Il nous dit que quand une technologie émerge, nous manquons bien souvent 60 00:03:26,860 --> 00:03:33,010 de connaissances pour prédire l'impact de cette technologie sur la société. 61 00:03:33,210 --> 00:03:38,200 Généralement, étant donné qu'on a du mal à appréhender ses effets 62 00:03:38,400 --> 00:03:40,780 puisqu'elle est nouvelle, on la laisse se développer. 63 00:03:41,170 --> 00:03:44,800 On la laisse se développer en se disant qu'on verra en fonction 64 00:03:45,000 --> 00:03:47,140 de ses développements, on verra quel impact elle aura, 65 00:03:47,980 --> 00:03:49,090 et on la laisse se déployer. 66 00:03:49,780 --> 00:03:54,340 Le problème, c'est qu'après-coup, il est trop tard, justement parce 67 00:03:54,540 --> 00:03:58,360 qu'on a laissé la technologie se déployer, elle s'est enracinée 68 00:03:58,630 --> 00:04:03,190 dans la société et elle a créé des situations de dépendance entre 69 00:04:03,390 --> 00:04:06,850 nous, les êtres humains et elle, son fonctionnement, ce qui complique 70 00:04:07,120 --> 00:04:07,880 son contrôle. 71 00:04:08,290 --> 00:04:10,180 Par exemple, c'est ce que nous vivons aujourd'hui avec les réseaux 72 00:04:10,380 --> 00:04:11,140 sociaux. 73 00:04:11,340 --> 00:04:14,170 C'est-à-dire qu'on était bien en peine d'imaginer l'impact que les 74 00:04:14,370 --> 00:04:18,010 réseaux sociaux auraient sur la société au moment où ils sont apparus, 75 00:04:18,210 --> 00:04:19,180 au milieu des années 2000. 76 00:04:20,350 --> 00:04:23,500 Mais à partir du moment où nous avons parlé de réguler les réseaux 77 00:04:23,700 --> 00:04:26,380 sociaux, 10 ans plus tard, les réseaux sociaux avaient tellement 78 00:04:26,580 --> 00:04:31,330 changé la société, étaient tellement ancrés dans les usages du quotidien 79 00:04:31,630 --> 00:04:34,660 qu'il devenait compliqué d'imposer des règles à des comportements 80 00:04:34,860 --> 00:04:37,090 qui pendant longtemps n'avaient pas été régulés. 81 00:04:38,050 --> 00:04:40,660 Il en va un peu de même pour l'intelligence artificielle. 82 00:04:40,860 --> 00:04:45,910 Aujourd'hui, on a encore du mal à évaluer quels seront ses futurs 83 00:04:46,110 --> 00:04:46,870 développements. 84 00:04:47,850 --> 00:04:50,210 Dans la séquence d'introduction, je vous ai parlé de DALL•E, 85 00:04:50,860 --> 00:04:54,430 cette intelligence artificielle qui crée des tableaux à partir 86 00:04:54,630 --> 00:04:56,800 de définitions textuelles. 87 00:04:57,220 --> 00:05:02,140 Ou je vous ai parlé de ChatGPT qui est un robot conversationnel 88 00:05:02,340 --> 00:05:04,810 qui utilise de l'intelligence artificielle et qui est capable 89 00:05:05,010 --> 00:05:09,220 de répondre à des questions extrêmement complexes en apprenant de lui-même. 90 00:05:10,090 --> 00:05:12,640 Tous ces développements-là, on aurait eu beaucoup de mal à 91 00:05:12,840 --> 00:05:14,470 les imaginer il y a seulement dix ans. 92 00:05:14,670 --> 00:05:15,430 Bref. 93 00:05:17,950 --> 00:05:21,640 Autour de l'intelligence artificielle se mobilisent différentes communautés 94 00:05:21,850 --> 00:05:26,560 qui vont chercher à influencer ses développements et à la réguler. 95 00:05:27,910 --> 00:05:32,050 La première communauté à se mobiliser, c'est celle des scientifiques. 96 00:05:32,250 --> 00:05:35,020 Effectivement, l'intelligence artificielle, c'est d'abord une 97 00:05:35,220 --> 00:05:41,530 discipline scientifique liée à l'informatique, à l'analyse de données. 98 00:05:42,760 --> 00:05:47,740 Donc l'enjeu, c'est de responsabiliser les scientifiques qui développent 99 00:05:47,940 --> 00:05:49,960 des technologies d'intelligence artificielle. 100 00:05:50,320 --> 00:05:54,550 Mais les scientifiques eux-mêmes ont souvent conscience des effets 101 00:05:54,750 --> 00:05:58,480 de leurs outils, et donc cherchent à développer des garde-fous qui 102 00:05:58,680 --> 00:06:01,180 puissent encadrer ces développements. 103 00:06:02,470 --> 00:06:07,250 Quel type de garde-fous vont développer ces scientifiques ? 104 00:06:08,030 --> 00:06:14,000 Ces garde-fous vont notamment passer par la production de chartes éthiques 105 00:06:14,720 --> 00:06:20,360 qui vont justement décrire ce que peut ou ne peut pas faire, 106 00:06:20,560 --> 00:06:24,050 doit ou ne doit pas faire une intelligence artificielle. 107 00:06:24,920 --> 00:06:32,120 En 2020, a été réalisé un inventaire de l'ensemble des chartes éthiques 108 00:06:32,390 --> 00:06:35,510 existantes dans le domaine de l'intelligence artificielle, 109 00:06:35,870 --> 00:06:40,910 à travers le Global Inventory of AI – Artificial Intelligence – 110 00:06:41,360 --> 00:06:42,440 Ethics Guidelines. 111 00:06:44,600 --> 00:06:49,370 Cet inventaire ne comptait pas moins de 160 documents différents 112 00:06:49,760 --> 00:06:53,180 de recommandations éthiques, produits par des experts, 113 00:06:53,380 --> 00:06:57,740 par des chercheurs et par des décideurs publics. 114 00:06:58,490 --> 00:07:02,090 L'idée de cet inventaire global était d'observer, de faire une 115 00:07:02,290 --> 00:07:06,620 méta analyse de ces 160 chartes éthiques pour essayer d'observer 116 00:07:07,730 --> 00:07:11,570 les différences et les différentes approches qu'on pouvait y trouver. 117 00:07:12,620 --> 00:07:17,990 Le résultat de cette méta analyse est que, au final, on retrouve 118 00:07:18,190 --> 00:07:24,770 parmi ces 160 chartes une certaine convergence des principes éthiques. 119 00:07:24,970 --> 00:07:30,080 Notamment, on va généralement retrouver le fait qu'on demande à l'intelligence 120 00:07:30,280 --> 00:07:32,780 artificielle de respecter la vie privée. 121 00:07:33,170 --> 00:07:37,430 On lui demande des efforts de transparence et d'explicabilité, 122 00:07:37,630 --> 00:07:40,670 c'est-à-dire qu'on puisse comprendre comment elle fonctionne, 123 00:07:40,870 --> 00:07:42,860 comprendre comment fonctionnent ses algorithmes. 124 00:07:43,250 --> 00:07:47,870 On lui demande de respecter un principe d'accountability. 125 00:07:48,320 --> 00:07:51,200 Accountability, en anglais, c'est le fait de rendre des comptes. 126 00:07:52,520 --> 00:07:56,510 On lui demande également un principe de justice, c'est-à-dire de traiter 127 00:07:57,140 --> 00:08:01,340 avec un esprit de justice les différents cas et les différentes 128 00:08:01,540 --> 00:08:05,320 personnes qu'elle serait amenée à traiter dans le cadre de ses 129 00:08:05,520 --> 00:08:06,280 activités. 130 00:08:08,600 --> 00:08:10,010 Elles sont intéressantes, ces chartes. 131 00:08:10,430 --> 00:08:12,740 Elles sont intéressantes d'abord parce que si elles convergent, 132 00:08:12,940 --> 00:08:17,210 ça veut dire que les scientifiques ou les acteurs, les décideurs ont 133 00:08:17,410 --> 00:08:21,110 repéré et s'accordent sur la définition des problèmes. 134 00:08:22,430 --> 00:08:25,070 Pour autant, elles présentent aussi un certain nombre de défauts. 135 00:08:25,610 --> 00:08:28,610 Le premier défaut pourrait être qualifié d'éthique-washing. 136 00:08:30,290 --> 00:08:33,740 De la même façon que certaines entreprises font du greenwashing, 137 00:08:33,940 --> 00:08:38,180 c'est-à-dire donnent l'impression d'être écolo en mettant du vert 138 00:08:38,380 --> 00:08:42,650 par exemple sur leur packaging, ou en disant qu'elles reversent 139 00:08:42,850 --> 00:08:46,040 une partie de leur chiffre d'affaires à des causes environnementales, 140 00:08:46,250 --> 00:08:49,480 alors qu'elle détruisent l'environnement dans leurs activités. 141 00:08:49,970 --> 00:08:52,130 De la même façon qu'on aurait du greenwashing, on aurait de 142 00:08:52,330 --> 00:08:53,090 l'éthique-washing. 143 00:08:53,290 --> 00:08:56,480 Ça ne coûte pas très cher à une entreprise qui développe de 144 00:08:56,680 --> 00:08:58,910 l'intelligence artificielle, de dire qu'elle a fait une charte 145 00:08:59,110 --> 00:09:03,140 éthique, puis après de s'asseoir dessus et de ne pas respecter ses 146 00:09:03,340 --> 00:09:04,100 principes. 147 00:09:04,300 --> 00:09:07,490 Un autre problème est que ces chartes sont souvent trop abstraites. 148 00:09:07,790 --> 00:09:11,270 Alors que, comme on l'a vu avec la voiture autonome,souvent 149 00:09:14,300 --> 00:09:18,410 l'intelligence artificielle est confrontée à des cas d'étude qui 150 00:09:18,610 --> 00:09:20,540 sont extrêmement concrets. 151 00:09:20,740 --> 00:09:24,920 Peut-être faudrait-il développer des chartes en fonction des différents 152 00:09:25,130 --> 00:09:27,230 domaines d'application. 153 00:09:28,430 --> 00:09:31,550 On a parlé des scientifiques, mais il ne faut pas négliger non 154 00:09:31,750 --> 00:09:37,010 plus le poids des créateurs culturels dans cette prise de conscience 155 00:09:37,210 --> 00:09:39,860 des enjeux éthiques de l'intelligence artificielle et de leur régulation. 156 00:09:40,370 --> 00:09:43,910 En introduction, je vous ai parlé des écrits d'Isaac Asimov, 157 00:09:44,110 --> 00:09:48,230 ce célèbre écrivain russe de science-fiction qui, 158 00:09:49,410 --> 00:09:53,270 dès les années 40, avait développé une éthique de la robotique, 159 00:09:54,050 --> 00:09:56,810 bien avant que l'être humain soit confronté à de l'intelligence 160 00:09:57,010 --> 00:09:57,770 artificielle. 161 00:09:57,970 --> 00:10:00,440 Ce qui est intéressant, c'est que les principes éthiques 162 00:10:00,640 --> 00:10:05,090 développés par Asimov dans son roman ont inspiré, par la suite 163 00:10:05,290 --> 00:10:08,600 et des décennies plus tard, un certain nombre de scientifiques 164 00:10:08,800 --> 00:10:13,100 ou de membres de la société civile qui ont cherché à développer des 165 00:10:13,300 --> 00:10:14,060 chartes éthiques. 166 00:10:14,480 --> 00:10:17,930 Quelles sont les lois de la robotique, l'éthique de la robotique définies 167 00:10:18,130 --> 00:10:19,130 par Isaac Asimov ? 168 00:10:20,700 --> 00:10:25,490 Il développe une éthique très simple, basée sur trois lois différentes. 169 00:10:28,350 --> 00:10:32,960 La première, c'est qu'un robot ne peut pas nuire à un être humain, 170 00:10:33,160 --> 00:10:38,420 ou alors en restant passif, laisser un être humain être exposé 171 00:10:38,620 --> 00:10:39,380 au danger. 172 00:10:40,220 --> 00:10:40,980 Premier point. 173 00:10:41,180 --> 00:10:44,240 Quand on crée un outil d'intelligence artificielle, cet outil ne doit 174 00:10:44,440 --> 00:10:45,920 pas nuire à un autre être humain. 175 00:10:46,120 --> 00:10:47,510 Ça, c'est la première règle. 176 00:10:48,380 --> 00:10:53,000 La deuxième règle, c'est qu'un robot doit obéir aux humains, 177 00:10:53,510 --> 00:10:57,650 sauf si cet ordre entre en contradiction avec la première loi. 178 00:10:59,390 --> 00:11:02,810 Cette deuxième loi, un robot doit obéir à l'être humain. 179 00:11:03,010 --> 00:11:06,370 Mais si un être humain demande à un robot de faire du mal à un 180 00:11:06,570 --> 00:11:11,350 autre humain, c'est la première loi qui doit être privilégiée. 181 00:11:14,200 --> 00:11:16,570 Et puis, la troisième règle, c'est tout simplement qu'un robot 182 00:11:16,770 --> 00:11:21,280 doit protéger son existence, à condition que cette règle n'entre 183 00:11:21,480 --> 00:11:24,640 pas en contradiction avec la première et la seconde loi. 184 00:11:25,420 --> 00:11:27,430 On voit bien comment fonctionne l'éthique des robots, 185 00:11:27,630 --> 00:11:29,740 qui deviendra une éthique de l'intelligence artificielle, 186 00:11:29,950 --> 00:11:30,850 chez Asimov. 187 00:11:31,900 --> 00:11:37,810 Cette idée que les robots doivent être au service des humains et 188 00:11:38,010 --> 00:11:43,960 ne pas leur nuire, et doivent leur obéir à condition de respecter 189 00:11:44,160 --> 00:11:44,920 la première loi. 190 00:11:45,120 --> 00:11:46,660 Et qu'est-ce qui se passe dans les romans d'Asimov ? 191 00:11:46,860 --> 00:11:48,790 Parce qu'on pourrait se dire : "C'est parfait, avec des robots 192 00:11:48,990 --> 00:11:51,160 comme ça, tout va très bien se passer." Qu'est-ce qui se passe 193 00:11:51,360 --> 00:11:55,720 dans les romans d'Asimov, et notamment dans le film Artificial 194 00:11:55,920 --> 00:11:58,480 Intelligence qui s'est inspiré de ses romans ? 195 00:11:59,140 --> 00:12:02,530 Tout simplement, les robots vont se retourner contre l'humanité 196 00:12:02,730 --> 00:12:07,960 parce que les robots vont s'apercevoir que les comportements humains nuisent 197 00:12:08,290 --> 00:12:09,730 à l'humanité dans son ensemble. 198 00:12:09,930 --> 00:12:12,820 Et on le voit aujourd'hui, par exemple avec le réchauffement 199 00:12:13,180 --> 00:12:13,940 climatique. 200 00:12:14,200 --> 00:12:17,920 Et parce que les comportements des humains nuisent aux humains 201 00:12:18,120 --> 00:12:22,180 eux-mêmes, les robots vont devoir asservir les êtres humains afin 202 00:12:22,380 --> 00:12:27,820 de protéger les humains de leur propre bêtise et de conserver une 203 00:12:28,020 --> 00:12:28,990 humanité vivable. 204 00:12:29,230 --> 00:12:32,980 Mais protéger ces êtres humains au risque de les enfermer et de 205 00:12:33,180 --> 00:12:34,750 leur faire perdre leur liberté. 206 00:12:34,950 --> 00:12:37,810 Là, on est face à une œuvre culturelle, celle d'Isaac Asimov, 207 00:12:38,010 --> 00:12:44,740 mais qui exprime bien les paradoxes 208 00:12:44,940 --> 00:12:46,840 éthiques qu'il peut y avoir derrière ces outils. 209 00:12:47,040 --> 00:12:49,720 Ça, on est plutôt dans le domaine de l'éthique. 210 00:12:50,290 --> 00:12:54,350 Deuxième niveau de régulation, c'est celui de la critique sociale. 211 00:12:54,550 --> 00:12:57,190 Là, on est dans une forme de régulation qui est beaucoup plus abstraite, 212 00:12:57,520 --> 00:13:02,770 qui vient de la société elle-même, qui va critiquer le fonctionnement 213 00:13:02,970 --> 00:13:04,060 des intelligences artificielles. 214 00:13:04,540 --> 00:13:08,890 L'enjeu ici, c'est pour ces associations, ces organisations, 215 00:13:10,120 --> 00:13:13,960 de forcer les intelligences artificielles à respecter les droits 216 00:13:14,160 --> 00:13:15,910 fondamentaux et la démocratie. 217 00:13:16,930 --> 00:13:21,070 Par exemple, on a des chercheurs aux États-Unis qui ont montré que 218 00:13:21,270 --> 00:13:24,790 les systèmes d'intelligence artificielle pouvaient présenter 219 00:13:25,090 --> 00:13:30,070 des formes de biais systématiques en fonction de la couleur de peau 220 00:13:30,270 --> 00:13:35,470 des individus, de leur sexe, et que parce qu'elles se nourrissaient 221 00:13:35,670 --> 00:13:39,010 de bases de données biaisées et orientées, généralement produites 222 00:13:39,210 --> 00:13:42,040 par des hommes blancs, elles allaient reproduire des 223 00:13:42,240 --> 00:13:44,260 discriminations dans leur mode de fonctionnement. 224 00:13:45,610 --> 00:13:47,170 Je vous donne quelques exemples. 225 00:13:47,370 --> 00:13:50,200 Par exemple, des intelligences artificielles qui sont utilisées 226 00:13:50,590 --> 00:13:54,790 pour recruter, dans le domaine des ressources humaines, 227 00:13:54,990 --> 00:13:57,520 de nouvelles recrues et qui vont avoir tendance, dans leur 228 00:13:57,720 --> 00:14:00,940 fonctionnement, à privilégier les hommes aux dépens des femmes. 229 00:14:01,140 --> 00:14:01,900 Pourquoi ? 230 00:14:02,100 --> 00:14:05,830 Parce que cette intelligence artificielle s'est nourrie de bases 231 00:14:06,030 --> 00:14:09,600 de données qui étaient souvent les CV venant d'hommes, 232 00:14:09,800 --> 00:14:12,700 donc elle va chercher automatiquement des hommes et mettre de côté les 233 00:14:12,900 --> 00:14:13,660 femmes. 234 00:14:13,860 --> 00:14:17,200 On a aussi les algorithmes de la sécurité sociale, par exemple. 235 00:14:17,470 --> 00:14:21,190 C'est une intelligence artificielle qui va chercher automatiquement 236 00:14:21,520 --> 00:14:24,510 à repérer les zones où faire des contrôles. 237 00:14:24,710 --> 00:14:27,990 Et on s'aperçoit que parce que l'intelligence artificielle s'est 238 00:14:28,190 --> 00:14:32,470 nourrie de bases de données existantes, elle a tendance à reproduire certaines 239 00:14:32,670 --> 00:14:36,340 discriminations en concentrant les contrôles sur certains quartiers 240 00:14:36,580 --> 00:14:37,340 défavorisés. 241 00:14:38,620 --> 00:14:41,350 On s'aperçoit encore, dans un autre domaine, 242 00:14:41,550 --> 00:14:44,440 que sur les réseaux sociaux, les publications des personnes 243 00:14:44,640 --> 00:14:49,030 LGBT se trouvent aussi censurées automatiquement par les outils 244 00:14:49,230 --> 00:14:51,970 d'intelligence artificielle de modération des réseaux sociaux 245 00:14:52,170 --> 00:14:54,250 lorsqu'ils utilisent certains thèmes. 246 00:14:55,390 --> 00:15:00,790 On est face à une critique sociale du fonctionnement de l'intelligence 247 00:15:00,990 --> 00:15:04,450 artificielle qui vient de la société, qui vient d'associations, 248 00:15:04,650 --> 00:15:08,110 qui vient de réseaux militants qui critiquent justement les 249 00:15:08,310 --> 00:15:13,720 discriminations que reproduit ou que produit le fonctionnement de 250 00:15:13,920 --> 00:15:14,860 l'intelligence artificielle. 251 00:15:15,160 --> 00:15:18,280 Et quelles sont les solutions potentielles envisagées par ces 252 00:15:18,480 --> 00:15:19,240 mouvements sociaux ? 253 00:15:19,440 --> 00:15:23,170 D'abord, réaliser davantage d'études d'impact avant de mettre sur le 254 00:15:23,370 --> 00:15:25,450 marché une intelligence artificielle. 255 00:15:25,720 --> 00:15:30,580 Être capable de comprendre quel type d'impact, quel type d'effet 256 00:15:30,780 --> 00:15:31,540 elle va produire. 257 00:15:33,640 --> 00:15:37,990 Et puis, également être capable d'auditer des algorithmes, 258 00:15:38,190 --> 00:15:39,910 de réaliser des audits d'algorithmes. 259 00:15:41,170 --> 00:15:44,830 Sur ce domaine, une ressource que je vous demanderais de consulter 260 00:15:45,190 --> 00:15:48,220 pour vous permettre d'éclaircir cette question, c'est celle des 261 00:15:48,420 --> 00:15:52,510 recommandations réalisées par la CNIL dans le domaine des algorithmes. 262 00:15:52,710 --> 00:15:55,360 Et je vous mettrais le lien vers le rapport en question, 263 00:15:55,560 --> 00:15:57,160 notamment vers la synthèse du rapport. 264 00:15:57,360 --> 00:15:58,570 Je ne vous demande pas de lire le rapport en entier, 265 00:15:58,770 --> 00:16:00,580 mais la synthèse du rapport fait une page. 266 00:16:00,970 --> 00:16:05,520 Elle présente un certain nombre de principes à respecter pour garantir 267 00:16:05,720 --> 00:16:08,670 le fonctionnement éthique des algorithmes, notamment dans le 268 00:16:08,870 --> 00:16:10,470 domaine des services publics. 269 00:16:11,400 --> 00:16:15,240 Le troisième niveau de régulation, c'est celui des régulateurs eux-mêmes, 270 00:16:15,440 --> 00:16:18,120 c'est-à-dire celui des États, celui des décideurs. 271 00:16:19,650 --> 00:16:22,860 Sur cette question, dans le domaine de l'intelligence artificielle, 272 00:16:23,700 --> 00:16:27,030 l'Union européenne est vraiment à la pointe en termes de régulation 273 00:16:27,230 --> 00:16:28,110 de l'intelligence artificielle. 274 00:16:29,580 --> 00:16:34,320 L'Union européenne a publié en avril 2021 ce qu'on a appelé l'AI Act, 275 00:16:34,520 --> 00:16:40,260 l'Artificial Intelligence Act, qui est un nouveau texte de loi 276 00:16:40,710 --> 00:16:45,390 qui vient encadrer, sur le territoire européen, le développement de 277 00:16:45,590 --> 00:16:46,500 l'intelligence artificielle. 278 00:16:47,790 --> 00:16:51,150 Le principe assez malin de cette nouvelle législation, 279 00:16:51,350 --> 00:16:55,920 c'est de passer d'une éthique de l'intelligence artificielle à une 280 00:16:56,120 --> 00:17:01,200 régulation du marché de l'intelligence artificielle, en se focalisant 281 00:17:02,310 --> 00:17:07,110 sur la conformité des produits d'intelligence artificielle avec 282 00:17:07,310 --> 00:17:08,220 un certain nombre de critères. 283 00:17:08,850 --> 00:17:09,660 Je vous explique. 284 00:17:09,870 --> 00:17:11,670 Je comprends que ce soit un peu flou dit comme ça. 285 00:17:12,180 --> 00:17:13,950 En gros, tout à l'heure, je vous ai dit que quand on parle 286 00:17:14,150 --> 00:17:16,350 d'éthique, on fait des chartes éthiques, il faut respecter la 287 00:17:16,550 --> 00:17:17,970 vie privée, il ne faut pas nuire, etc. 288 00:17:19,290 --> 00:17:23,130 Je vous ai dit aussi que ces chartes éthiques, c'était bien beau, 289 00:17:23,330 --> 00:17:28,140 mais qu'on pouvait aussi décider de ne pas les respecter et que 290 00:17:28,340 --> 00:17:30,810 personne ne viendrait nous arrêter ou nous poser des problèmes parce 291 00:17:31,010 --> 00:17:31,920 qu'on ne les a pas respectées. 292 00:17:32,120 --> 00:17:37,710 Justement, la logique de l'Union européenne, c'est de dire : 293 00:17:38,790 --> 00:17:41,490 on ne va pas contrôler des enjeux éthiques parce que ce n'est pas 294 00:17:41,690 --> 00:17:42,450 possible. 295 00:17:42,650 --> 00:17:46,110 Par contre, on va faire en sorte que quand une entreprise met sur 296 00:17:46,310 --> 00:17:49,770 le marché un outil d'intelligence artificielle, cet outil, 297 00:17:49,970 --> 00:17:53,490 très concrètement, il respecte un certain nombre de critères que 298 00:17:53,690 --> 00:17:57,150 nous avons listés et inscrits dans la loi. 299 00:17:57,570 --> 00:18:01,410 Et si ces outils ne respectent pas nos critères, il ne pourra 300 00:18:01,610 --> 00:18:03,570 pas être vendu, il ne pourra pas être mis sur le marché. 301 00:18:04,050 --> 00:18:09,990 Réguler le marché plutôt que réguler les systèmes de charte éthique. 302 00:18:13,050 --> 00:18:17,580 Dans les textes de l'Union européenne, on distingue quatre niveaux de risques, 303 00:18:19,110 --> 00:18:24,390 qui vont occasionner quatre niveaux différents de régulation. 304 00:18:24,590 --> 00:18:27,690 C'est-à-dire que toutes les intelligence artificielle n'ont 305 00:18:27,890 --> 00:18:30,360 pas vocation à être régulées de la même façon. 306 00:18:30,560 --> 00:18:34,170 D'abord, les intelligences artificielles qui correspondent 307 00:18:34,370 --> 00:18:37,830 à un risque minimum, comme celles utilisées dans les 308 00:18:38,030 --> 00:18:41,300 jeux vidéo ou dans les filtres à spam. 309 00:18:42,360 --> 00:18:45,180 On va demander dans ce cas-là, aux acteurs qui les développent, 310 00:18:45,380 --> 00:18:46,540 d'adhérer à des chartes éthiques. 311 00:18:46,740 --> 00:18:51,030 C'est-à-dire que si ces outils d'intelligence artificielle qui 312 00:18:51,230 --> 00:18:56,160 ne font pas de mal sont développés, on demande à ceux qui les développent 313 00:18:56,360 --> 00:18:58,020 de quand même respecter un certain nombre de principes, 314 00:18:58,410 --> 00:18:59,640 sans les contrôler plus que ça. 315 00:19:00,180 --> 00:19:02,880 Le second niveau de risque, celui des risques faibles, 316 00:19:03,210 --> 00:19:07,790 concerne par exemple les chatbox comme ChatGPT, ou les deepfake, 317 00:19:08,640 --> 00:19:13,380 ces vidéos qui reproduisent des vidéos humaines, auxquels on va 318 00:19:13,580 --> 00:19:15,840 demander une obligation de transparence. 319 00:19:16,140 --> 00:19:19,920 Parce que même si le risque est faible, c'est-à-dire qu'on est face à du 320 00:19:20,120 --> 00:19:23,160 contenu écrit, à des vidéos, il existe un risque, 321 00:19:23,360 --> 00:19:25,290 par exemple celui de propager des fausses informations. 322 00:19:25,490 --> 00:19:29,520 ChatGPT, aussi performant soit-il, se base sur les données présentes 323 00:19:29,720 --> 00:19:30,480 sur le web. 324 00:19:30,680 --> 00:19:33,870 Il peut très bien ressortir un mensonge sans s'en rendre compte. 325 00:19:34,170 --> 00:19:37,530 De la même façon, une vidéo peut être produite artificiellement 326 00:19:38,040 --> 00:19:42,480 et faire dire à quelqu'un quelque chose qu'il n'a pas réellement dit. 327 00:19:42,680 --> 00:19:46,200 Là, on demande de la transparence pour être capable de contrôler 328 00:19:46,560 --> 00:19:50,640 la manière dont a été créée cette intelligence artificielle et de 329 00:19:50,840 --> 00:19:51,900 comprendre comment elle fonctionne. 330 00:19:53,190 --> 00:19:55,130 Troisième niveau de risque : le haut risque. 331 00:19:55,330 --> 00:19:59,550 Là, il s'agit de l'usage de l'intelligence artificielle dans 332 00:19:59,750 --> 00:20:03,060 les services publics ou dans les entreprises qui gèrent des 333 00:20:03,260 --> 00:20:05,580 infrastructures critiques dans la société. 334 00:20:06,060 --> 00:20:08,040 À partir de ce moment-là, et pour celles-ci seulement, 335 00:20:08,850 --> 00:20:11,820 on va faire les fameux examens de conformité dont je vous parlais. 336 00:20:12,090 --> 00:20:14,550 Par exemple, je vous expliquais tout à l'heure le fonctionnement 337 00:20:14,750 --> 00:20:17,280 de l'algorithme de la Sécurité sociale qui reproduirait des 338 00:20:17,480 --> 00:20:20,550 discriminations en focalisant les contrôles sur certains quartiers. 339 00:20:21,060 --> 00:20:26,790 Dans ce cas-là, il faudrait que la Sécu française puisse prouver, 340 00:20:27,810 --> 00:20:31,080 par un examen de mise en conformité, que son outil est bien conforme 341 00:20:31,280 --> 00:20:36,600 aux principes édictés par les lois européennes en matière de respect 342 00:20:37,290 --> 00:20:39,300 des droits de l'homme et des droits des êtres humains. 343 00:20:39,780 --> 00:20:44,220 Et puis, le quatrième niveau, c'est celui du risque inacceptable, 344 00:20:44,420 --> 00:20:46,680 comme celui, par exemple, de la reconnaissance faciale et 345 00:20:46,880 --> 00:20:49,560 de la surveillance automatique des populations, ou celui de la 346 00:20:49,760 --> 00:20:53,190 manipulation des comportements, pour lesquels l'Union européenne 347 00:20:53,390 --> 00:20:56,370 cherche tout simplement à ce que ces outils soient interdits sur 348 00:20:56,570 --> 00:20:57,510 le territoire européen. 349 00:20:57,710 --> 00:21:02,310 À voir ensuite comment cette législation européenne sera traduite 350 00:21:02,640 --> 00:21:06,260 dans les législations nationales et comment elle sera appliquée. 351 00:21:06,770 --> 00:21:09,200 Mais ça, c'est une autre histoire. 352 00:21:10,820 --> 00:21:11,840 Affaire à suivre, donc. 353 00:21:13,640 --> 00:21:16,670 J'espère que vous l'aurez compris à travers ces trois séquences. 354 00:21:17,950 --> 00:21:26,390 L'intelligence artificielle revêt de nombreux enjeux éthiques et incarne, 355 00:21:26,840 --> 00:21:31,010 on peut le dire aujourd'hui, un nouveau chapitre dans les relations 356 00:21:31,210 --> 00:21:35,180 que les sociétés humaines entretiennent avec le développement technologique, 357 00:21:35,570 --> 00:21:39,410 qui soulève un certain nombre de craintes liées à leur prise d'autonomie 358 00:21:39,800 --> 00:21:42,680 et à notre perte de contrôle sur le fonctionnement de ces outils. 359 00:21:43,040 --> 00:21:43,800 Qu'en sera-t-il ? 360 00:21:44,060 --> 00:21:45,530 Seul le futur nous le dira. 361 00:21:45,920 --> 00:21:50,120 En tout cas, je vous invite toujours à garder un esprit critique sur 362 00:21:50,330 --> 00:21:51,090 ces développements.