1 00:00:05,620 --> 00:00:09,040 Dans la première vidéo, nous avons vu à quel point la question 2 00:00:09,240 --> 00:00:12,910 de la modération des contenus sur les réseaux sociaux posait un problème 3 00:00:13,110 --> 00:00:15,850 de taille aux plateformes, celui du passage à l'échelle, 4 00:00:16,050 --> 00:00:20,350 c'est-à-dire la capacité à traiter de très grandes quantités de contenus 5 00:00:20,620 --> 00:00:22,660 qui sont publiés chaque jour par les internautes. 6 00:00:23,020 --> 00:00:26,710 Mais la modération des contenus pose un second défi aux plateformes, 7 00:00:27,100 --> 00:00:30,610 qui est la gestion des contenus gris, des contenus gris, c'est-à-dire 8 00:00:31,150 --> 00:00:35,590 des contenus qui ne sont pas illégaux, qui ne sont pas interdits par les 9 00:00:35,790 --> 00:00:38,440 standards de publication des plateformes, mais qui constituent 10 00:00:38,640 --> 00:00:41,800 quand même des contenus indésirables que les plateformes ne veulent 11 00:00:42,000 --> 00:00:44,230 pas voir polluer leur réseau. 12 00:00:44,920 --> 00:00:47,230 C'est le cas par exemple des fausses informations, des fake news. 13 00:00:47,530 --> 00:00:51,370 Les fake news ne sont pas interdites par la loi, alors elles le sont 14 00:00:51,570 --> 00:00:55,090 en France dans un contexte très particulier, celui des élections. 15 00:00:55,390 --> 00:00:58,120 Mais dans la plupart des pays européens, les fake news ne sont 16 00:00:58,320 --> 00:00:59,290 pas interdites. 17 00:00:59,630 --> 00:01:02,620 Et par ailleurs, dans les standards de publication des réseaux sociaux, 18 00:01:02,860 --> 00:01:04,060 il n'est pas interdit de mentir. 19 00:01:04,260 --> 00:01:07,810 On a encore le droit de mentir lorsque l'on s'exprime sur les 20 00:01:08,010 --> 00:01:08,770 réseaux sociaux. 21 00:01:08,970 --> 00:01:13,270 Pour autant, ce type de contenus constitue des contenus de mauvaise 22 00:01:13,470 --> 00:01:17,950 qualité et les plateformes ne veulent pas devenir un endroit où se 23 00:01:18,150 --> 00:01:23,350 déverseraient les fausses informations, les contenus complotistes, 24 00:01:23,550 --> 00:01:24,310 etc. 25 00:01:24,510 --> 00:01:28,390 Et donc, pour gérer ces contenus gris, je le répète, ces contenus gris, 26 00:01:28,590 --> 00:01:30,980 c'est-à-dire ni illégaux, qui n'enfreignent pas non plus 27 00:01:31,240 --> 00:01:33,400 les standards de publication, mais qui sont jugés indésirables 28 00:01:33,790 --> 00:01:36,580 et donc leur technique pour gérer ces contenus gris, c'est d'avoir 29 00:01:36,780 --> 00:01:40,990 recours à des stratégies d'invisibilisation qui visent à 30 00:01:41,190 --> 00:01:45,460 limiter la diffusion de ces contenus, mais sans les supprimer. 31 00:01:46,060 --> 00:01:49,900 C'est ce qu'on appelle couramment le shadow banning sur les réseaux 32 00:01:50,100 --> 00:01:51,850 sociaux ou le shadow ban. 33 00:01:52,510 --> 00:01:55,720 Alors comment ça marche concrètement, le shadow banning sur les réseaux 34 00:01:55,920 --> 00:01:58,900 sociaux, cette logique d'invisibilisation des contenus ? 35 00:01:59,470 --> 00:02:03,610 Par exemple sur des réseaux comme Facebook, Instagram ou Twitter, 36 00:02:04,090 --> 00:02:08,080 si un contenu, une publication, est jugé de mauvaise qualité, 37 00:02:08,500 --> 00:02:12,190 on va faire en sorte que cette publication, qui aurait dû s'afficher 38 00:02:12,460 --> 00:02:16,000 sur les fil d'actualités d'un million d'internautes par exemple, 39 00:02:16,270 --> 00:02:19,540 ne s'affiche plus que sur le fil d'actualités d'une centaine 40 00:02:19,740 --> 00:02:21,550 d'internautes ou d'un millier d'internautes. 41 00:02:22,630 --> 00:02:26,380 On va moins les afficher sur les fils d'actualités ou on va les 42 00:02:26,580 --> 00:02:29,020 afficher plus bas sur les fil d'actualités. 43 00:02:29,320 --> 00:02:32,350 Ce qui signifie que moins d'internautes vont les voir, ces contenus, 44 00:02:33,130 --> 00:02:35,860 et qu'ils vont être moins vus, donc moins partagés. 45 00:02:36,220 --> 00:02:39,940 Et par cette pratique du shadow banning, on va être capables de 46 00:02:40,140 --> 00:02:41,470 casser leur viralité. 47 00:02:43,190 --> 00:02:48,140 Alors la logique qui est derrière, c'est d'empêcher un internaute 48 00:02:48,340 --> 00:02:51,740 d'avoir accès à un contenu mais celui qui a posté le contenu ne 49 00:02:51,940 --> 00:02:53,480 s'est pas fait supprimer sa publication. 50 00:02:53,720 --> 00:02:57,410 Sa publication est toujours en ligne, sauf qu'elle n'a pas été vue par 51 00:02:57,610 --> 00:02:58,790 son public habituel. 52 00:02:59,030 --> 00:03:04,370 Je vous donnerai tout à l'heure des exemples de cas d'invisibilisation 53 00:03:05,240 --> 00:03:07,070 et de shadow banning assez connus. 54 00:03:07,270 --> 00:03:10,010 Ça, c'est pour Facebook, Instagram et Twitter, 55 00:03:10,250 --> 00:03:13,010 les applications qui ont des fils d'actualités et donc on affiche 56 00:03:13,210 --> 00:03:14,630 moins les publications sur ces fils. 57 00:03:15,110 --> 00:03:18,830 Sur des réseaux comme TikTok ou YouTube, des réseaux qui reposent 58 00:03:19,030 --> 00:03:22,850 sur la vidéo, le shadow banning va reposer sur une autre logique, 59 00:03:23,060 --> 00:03:26,690 celui de moins recommander les contenus par les algorithmes de 60 00:03:26,890 --> 00:03:27,650 recommandation. 61 00:03:27,890 --> 00:03:31,880 Par exemple, lorsque vous êtes sur YouTube, et que vous regardez 62 00:03:32,080 --> 00:03:35,750 une vidéo, si vous n'arrêtez pas la vidéo, une autre vidéo va se 63 00:03:35,950 --> 00:03:37,040 charger tout de suite après. 64 00:03:37,370 --> 00:03:38,510 C'est ce qu'on appelle l'autoplay. 65 00:03:39,110 --> 00:03:42,290 La vidéo qui se charge après, elle vous est recommandée par un 66 00:03:42,490 --> 00:03:44,810 algorithme, l'algorithme de recommandation de YouTube. 67 00:03:45,620 --> 00:03:49,730 Sur une plateforme comme YouTube, on sait que 80 % des vidéos qui 68 00:03:49,930 --> 00:03:53,990 sont vues sur la plateforme le sont par le biais de l'autoplay, 69 00:03:54,410 --> 00:03:57,350 qui joue donc un rôle essentiel dans la recommandation des contenus. 70 00:03:57,550 --> 00:04:01,400 Eh bien invisibiliser une vidéo, par exemple, qui aura été jugée 71 00:04:01,600 --> 00:04:06,530 indésirable ou de mauvaise qualité, revient à sortir cette vidéo des 72 00:04:06,730 --> 00:04:09,050 recommandations possibles de l'algorithme et donc elle sera 73 00:04:09,250 --> 00:04:12,470 moins vue et une fois de plus, moins partagée et on sera capables 74 00:04:12,680 --> 00:04:14,120 de casser sa viralité. 75 00:04:15,440 --> 00:04:20,270 Le shadow banning s'avère très efficace pour limiter la viralité 76 00:04:20,470 --> 00:04:23,030 des contenus indésirables. 77 00:04:23,900 --> 00:04:28,820 Pour autant, le shadow banning incarne également une nouvelle 78 00:04:29,020 --> 00:04:33,170 logique de censure, une nouvelle logique de censure qui n'existait 79 00:04:33,370 --> 00:04:34,310 pas auparavant. 80 00:04:34,510 --> 00:04:39,050 Auparavant, la censure consistait à empêcher quelqu'un de s'exprimer. 81 00:04:39,350 --> 00:04:43,250 Si on voulait empêcher un artiste, un intellectuel, un militant et 82 00:04:43,450 --> 00:04:46,130 le censurer, on allait faire en sorte qu'il ne soit pas invité 83 00:04:46,330 --> 00:04:48,020 sur les plateaux télé, qu'il ne puisse pas publier de 84 00:04:48,220 --> 00:04:51,140 livres et donc on allait limiter sa capacité à s'exprimer. 85 00:04:51,590 --> 00:04:54,950 Ici avec le shadow banning, on laisse les internautes s'exprimer 86 00:04:55,150 --> 00:04:57,470 comme ils le souhaitent, mais ce qu'on va faire, 87 00:04:57,710 --> 00:05:01,070 c'est couper le contenu publié de son public potentiel. 88 00:05:01,340 --> 00:05:06,620 Et alors qu'une publication aurait dû être vue des centaines de milliers 89 00:05:06,820 --> 00:05:09,020 de fois, elle ne va l'être que des centaines de fois. 90 00:05:09,220 --> 00:05:14,480 Cette nouvelle logique de censure, elle est rendue possible par la 91 00:05:14,680 --> 00:05:18,140 position qu'occupent les grandes plateformes sur le marché de 92 00:05:18,340 --> 00:05:19,100 l'information. 93 00:05:19,300 --> 00:05:23,690 C'est ce que les chercheurs français Nikos Smyrnaios et Franck Rebillard 94 00:05:24,050 --> 00:05:25,580 appellent le statut d'infomédiaire. 95 00:05:25,780 --> 00:05:31,070 Infomédiaire, vous voyez bien, c'est une contraction de information 96 00:05:31,270 --> 00:05:34,490 et intermédiaire, les nouveaux intermédiaires sur le marché de 97 00:05:34,690 --> 00:05:35,450 l'information. 98 00:05:35,720 --> 00:05:36,590 Mais oui, effectivement, Facebook, Instagram, 99 00:05:38,120 --> 00:05:41,150 YouTube et autres sont les nouveaux intermédiaires entre les médias 100 00:05:41,390 --> 00:05:44,420 et les producteurs d'information en général et leur public. 101 00:05:44,870 --> 00:05:48,320 Et donc, par cette position d'infomédiaires, ils sont capables 102 00:05:48,520 --> 00:05:53,690 de paramétrer très précisément la taille et la nature du public 103 00:05:53,960 --> 00:05:55,640 exposé à une publication spécifique. 104 00:05:55,940 --> 00:05:58,880 Ils peuvent décider que telle publication, par exemple, 105 00:05:59,080 --> 00:06:04,490 sera vue par tel type de public et qu'elle sera plus vue que prévu 106 00:06:04,690 --> 00:06:06,020 ou moins vue que prévu. 107 00:06:06,830 --> 00:06:11,150 Et l'autre problème du shadow banning, c'est d'être une pratique très opaque. 108 00:06:12,620 --> 00:06:16,940 Ceux qui en sont victimes, comme le public qui n'a plus accès 109 00:06:17,140 --> 00:06:21,050 au contenu, ni celui qui publie, ni celui qui en est le public, 110 00:06:21,250 --> 00:06:23,690 n'ont conscience de cette invisibilisation. 111 00:06:23,890 --> 00:06:29,780 Alors, par exemple, TikTok aux États-Unis, a été montré du doigt 112 00:06:30,080 --> 00:06:34,340 ces dernières années par des partisans du mouvement Black Lives Matter, 113 00:06:35,060 --> 00:06:40,220 qui est un mouvement qui s'oppose aux violences policières contre 114 00:06:40,460 --> 00:06:45,650 les Afro-américains, et dans le cadre des manifestations du mouvement 115 00:06:45,850 --> 00:06:50,750 Black Lives Matter, plusieurs créateurs de contenus sur TikTok, 116 00:06:50,960 --> 00:06:54,050 se sont rendus compte que lorsqu'ils postaient du contenu relatif au 117 00:06:54,250 --> 00:06:58,220 mouvement, ces contenus étaient beaucoup moins vus que leurs contenus 118 00:06:58,420 --> 00:06:59,930 habituels qui étaient plus distrayants. 119 00:07:00,230 --> 00:07:04,130 On parle d'audiences qui sont parfois divisées par 1 000, ce qui semblait 120 00:07:04,330 --> 00:07:06,860 indiquer que la plateforme avait sciemment décidé d'invisibiliser 121 00:07:07,910 --> 00:07:09,290 les contenus relatifs au mouvement. 122 00:07:10,310 --> 00:07:12,980 En France, le mouvement des gilets jaunes, par exemple, 123 00:07:13,180 --> 00:07:17,330 s'est aussi plaint que que des groupes soient invisibilisés. 124 00:07:18,500 --> 00:07:20,840 J'avais personnellement, par exemple, mené une enquête sur 125 00:07:21,040 --> 00:07:25,010 le sujet où j'avais été amené à interroger des modérateurs de groupes 126 00:07:25,550 --> 00:07:28,460 de gilets jaunes sur Facebook, qui m'avaient indiqué par exemple 127 00:07:28,660 --> 00:07:31,940 que leur audience du jour au lendemain avait été divisée par 100, 128 00:07:32,140 --> 00:07:35,540 voire par 1 000, sans qu'il n'y ait aucune justification de la 129 00:07:35,740 --> 00:07:36,500 part de la plateforme. 130 00:07:36,920 --> 00:07:38,990 Sur Instagram, comme je vous le disais en introduction, 131 00:07:39,190 --> 00:07:42,200 ce sont des mouvements féministes qui ont porté plainte contre Instragram 132 00:07:42,440 --> 00:07:46,730 et qui ont exigé de la maison mère d'Instagram, Meta, qui possède 133 00:07:46,930 --> 00:07:51,050 aussi Facebook, qu'elle publie des informations sur la manière 134 00:07:51,250 --> 00:07:53,420 dont s'effectuent les pratiques de l'invisibilisation. 135 00:07:54,470 --> 00:07:58,220 Aux États-Unis, ce sont quand même plutôt les mouvements conservateurs 136 00:07:58,430 --> 00:08:02,960 qui accusent les grandes entreprises de la Silicon Valley de les censurer 137 00:08:03,260 --> 00:08:04,940 pour des raisons politiques. 138 00:08:05,450 --> 00:08:08,450 On le sait, aux États-Unis, les PDG des grandes plateformes 139 00:08:08,720 --> 00:08:12,950 sont plutôt acquis aux idéaux démocrates et annoncent généralement 140 00:08:13,150 --> 00:08:16,940 officiellement leur soutien au candidat démocrate lors des élections 141 00:08:17,140 --> 00:08:17,900 présidentielles. 142 00:08:18,440 --> 00:08:21,950 Il existe différentes controverses depuis l'apparition des réseaux 143 00:08:22,150 --> 00:08:25,160 sociaux sur la manière dont les conservateurs aux États-Unis auraient 144 00:08:25,360 --> 00:08:28,580 été invisibilisés par ces plateformes de réseaux sociaux. 145 00:08:28,780 --> 00:08:33,440 Dernièrement, par exemple, on a vu Elon Musk, le nouveau 146 00:08:33,640 --> 00:08:37,160 propriétaire de Twitter, publier ce qu'il a appelé les Twitter 147 00:08:37,360 --> 00:08:41,930 Files, des révélations sur la manière dont l'ancienne équipe dirigeante 148 00:08:42,130 --> 00:08:47,510 de Twitter avait sciemment, volontairement limité la visibilité 149 00:08:47,870 --> 00:08:50,900 des contenus postés par des élus républicains. 150 00:08:51,840 --> 00:08:55,250 Donc aux États-Unis, la pratique du shadow banning suscite 151 00:08:55,450 --> 00:08:56,450 de nombreuses controverses. 152 00:08:57,800 --> 00:09:01,160 La célèbre revue intellectuelle The Atlantic en a même fait le 153 00:09:01,360 --> 00:09:05,930 problème numéro un de la tech ces dernières années en dénonçant une 154 00:09:06,130 --> 00:09:09,800 pratique opaque qui va poser sur le temps long des problèmes de 155 00:09:10,000 --> 00:09:12,980 confiance entre les usagers et les plateformes. 156 00:09:14,330 --> 00:09:17,360 Mais le problème est même devenu politique aux États-Unis, 157 00:09:17,560 --> 00:09:23,060 puisque en Floride, un élu républicain a même proposé une loi visant à 158 00:09:23,260 --> 00:09:27,290 faire interdire les logiques d'invisibilisation, le Stop Social 159 00:09:27,490 --> 00:09:29,180 Media Sensor Cheap Act. 160 00:09:29,840 --> 00:09:34,250 Ce projet législatif prévoyait notamment de rendre illégal pour 161 00:09:34,450 --> 00:09:38,570 les plateformes le fait de réduire la visibilité d'un contenu publié 162 00:09:38,770 --> 00:09:42,140 par un candidat à une élection sans en informer les usagers de 163 00:09:42,340 --> 00:09:43,100 la plateforme. 164 00:09:43,300 --> 00:09:48,950 Finalement, ce projet législatif a été retoqué par la justice 165 00:09:49,150 --> 00:09:49,910 américaine. 166 00:09:50,330 --> 00:09:53,480 Aux États-Unis, en effet, on considère que le filtrage et 167 00:09:53,680 --> 00:09:56,720 la suppression des contenus par les plateformes relèvent de leur 168 00:09:56,920 --> 00:10:01,430 propre liberté d'expression, ce qui peut paraître paradoxal 169 00:10:01,790 --> 00:10:06,140 pour des Européens mais aux États-Unis, le premier amendement de la 170 00:10:06,340 --> 00:10:09,560 Constitution, qui est celui qui défend la liberté d'expression, 171 00:10:13,430 --> 00:10:18,470 est une valeur cardinale de la démocratie américaine. 172 00:10:18,830 --> 00:10:23,510 Et ce premier amendement stipule que le gouvernement américain n'a 173 00:10:23,710 --> 00:10:27,440 pas le droit de faire voter de nouvelles lois qui pourraient réduire 174 00:10:27,640 --> 00:10:30,230 la liberté d'expression des citoyens américains. 175 00:10:30,770 --> 00:10:35,150 Et bizarrement, lorsqu'une plateforme censure des contenus, 176 00:10:35,690 --> 00:10:39,290 elle a le droit de dire "je censure des contenus politiques parce que 177 00:10:39,490 --> 00:10:42,950 c'est ma liberté d'expression de filtrer les contenus et de décider 178 00:10:43,160 --> 00:10:46,190 que je veux voir moins de contenus républicains ou moins de contenus 179 00:10:46,390 --> 00:10:47,150 démocrates". 180 00:10:47,350 --> 00:10:50,930 Et les juges aux États-Unis donnent raison aux plateformes lorsqu'elles 181 00:10:51,130 --> 00:10:55,090 décident de censurer sur des critères politiques, ce qui effectivement 182 00:10:55,290 --> 00:10:59,360 paraît paradoxal puisqu'en Europe, notre logique de défense de la 183 00:10:59,560 --> 00:11:01,250 liberté d'expression est tout autre. 184 00:11:01,670 --> 00:11:05,720 On décide que les citoyens sont libres d'exprimer comme ils le veulent, 185 00:11:06,050 --> 00:11:09,950 mais que le rôle de l'État, c'est d'encadrer cette liberté 186 00:11:10,150 --> 00:11:12,020 d'expression et de lui en fixer des limites. 187 00:11:14,570 --> 00:11:19,970 Cette pratique du shadow banning, elle a une autre conséquence 188 00:11:20,170 --> 00:11:25,490 collatérale qui est de rebattre les cartes concernant le débat 189 00:11:25,690 --> 00:11:29,570 déjà ancien sur la responsabilité éditoriale des plateformes. 190 00:11:30,110 --> 00:11:30,870 Je vous explique. 191 00:11:31,310 --> 00:11:35,360 Dans l'histoire, les plateformes ont toujours défendu leur rôle 192 00:11:35,560 --> 00:11:36,320 d'hébergeur. 193 00:11:36,530 --> 00:11:40,460 Elles prétendaient être des hébergeurs de contenus et non pas des éditeurs, 194 00:11:40,660 --> 00:11:43,850 c'est-à-dire qu'elles mettaient à disposition des outils d'expression 195 00:11:44,050 --> 00:11:46,280 pour les internautes, mais qu'elles n'observaient pas 196 00:11:47,060 --> 00:11:48,380 ce que les internautes publiaient. 197 00:11:48,580 --> 00:11:51,350 Et elles voulaient se dédouaner de faire la police des contenus 198 00:11:51,550 --> 00:11:52,310 sur leur plateforme. 199 00:11:52,820 --> 00:11:54,380 On parle parfois de la posture du plombier. 200 00:11:54,740 --> 00:11:56,960 Ce que disaient les plateformes, c'est "nous on gère des tuyaux, 201 00:11:57,160 --> 00:11:59,780 des tuyaux d'information, et ce qui circule dans ces tuyaux 202 00:11:59,980 --> 00:12:00,740 ne nous regarde pas". 203 00:12:00,940 --> 00:12:06,160 À l'inverse, les éditeurs, eux, ont un statut juridique à part. 204 00:12:06,360 --> 00:12:07,940 Les éditeurs, ce sont par exemple les médias. 205 00:12:08,300 --> 00:12:12,290 Eux sont considérés comme étant responsables des contenus qu'ils 206 00:12:12,490 --> 00:12:16,820 postent parce qu'ils exercent une activité éditoriale qui vise à 207 00:12:17,020 --> 00:12:19,070 filtrer les informations et à les mettre en avant. 208 00:12:19,880 --> 00:12:22,210 Donc dans le droit français, on a le statut des hébergeurs, 209 00:12:22,410 --> 00:12:25,280 ils ne sont pas responsables devant la loi et le statut des éditeurs, 210 00:12:25,480 --> 00:12:26,630 ils sont responsables devant la loi. 211 00:12:27,170 --> 00:12:28,640 Et donc, historiquement, comme je vous le disais, 212 00:12:28,910 --> 00:12:32,120 les plateformes ont tout intérêt à rester des éditeurs pour ne pas 213 00:12:32,320 --> 00:12:36,530 se voir traîner en justice pour avoir modéré ou non modéré les 214 00:12:36,730 --> 00:12:37,490 contenus. 215 00:12:37,690 --> 00:12:41,690 Mais bizarrement, plus elles pratiquent le shadow banning, plus elles acceptent 216 00:12:41,890 --> 00:12:45,690 de mettre en avant certains contenus et d'en invisibiliser d'autres et plus, 217 00:12:45,890 --> 00:12:49,830 finalement, elles réalisent une activité éditoriale et plus elles 218 00:12:50,030 --> 00:12:52,800 épousent quelque part une fonction d'éditeur. 219 00:12:54,590 --> 00:12:58,310 Alors avec ce shadow banning, pour ne pas être accusées de censure 220 00:12:58,510 --> 00:13:02,480 abusive, certaines plateformes ont décidé de déléguer le travail 221 00:13:02,870 --> 00:13:07,430 d'évaluation de la qualité des contenus à des acteurs tiers. 222 00:13:09,060 --> 00:13:13,280 De ce point de vue des plateformes, par exemple Google pour YouTube 223 00:13:13,480 --> 00:13:19,370 ou Meta pour Facebook est de dire "oui, les outils que nous déployons ont 224 00:13:19,570 --> 00:13:22,970 tendance à générer de la censure abusive mais ce que nous allons 225 00:13:23,170 --> 00:13:26,000 faire pour nous dédouaner, c'est demander à des acteurs tiers 226 00:13:26,780 --> 00:13:29,690 d'évaluer la nocivité des contenus". 227 00:13:29,890 --> 00:13:32,300 C'est ce que fait Facebook par exemple avec son programme, 228 00:13:32,630 --> 00:13:37,550 le third party fact checking program, qui est un programme de fact checking, 229 00:13:37,750 --> 00:13:42,140 de vérification des faits, dans lequel la plateforme embauche 230 00:13:42,340 --> 00:13:45,290 des journalistes professionnels qui travaillent en rédactions et 231 00:13:45,490 --> 00:13:51,500 qui vont avoir pour mission d'évaluer si une information qui a été signalée 232 00:13:51,790 --> 00:13:55,850 à Facebook comme une fake news est vraie, est authentique ou pas. 233 00:13:56,960 --> 00:14:01,450 De la même façon, chez YouTube, Google a recours à des quality writers. 234 00:14:01,650 --> 00:14:04,310 Les quality writers, ce sont des évaluateurs de qualité, 235 00:14:04,670 --> 00:14:07,460 ce sont des internautes qui sont réunis au sein d'un panel et qui 236 00:14:07,660 --> 00:14:11,780 vont évaluer la qualité des contenus qu'ils consomment sur la plateforme, 237 00:14:11,990 --> 00:14:15,920 ce qui permettra ensuite à YouTube d'invisibiliser certains contenus 238 00:14:16,610 --> 00:14:19,280 et de mettre en visibilité d'autres types de contenus. 239 00:14:21,170 --> 00:14:25,190 Alors évidemment, automatisation, shadow banning, on voit bien que 240 00:14:25,490 --> 00:14:29,450 ces enjeux sont très sensibles pour les démocraties occidentales 241 00:14:29,750 --> 00:14:32,960 et à ce titre, les États, notamment en Europe, 242 00:14:33,160 --> 00:14:38,090 ont entrepris de faire voter de nouvelles lois qui encadrent le 243 00:14:38,290 --> 00:14:39,560 travail de modération des plateformes. 244 00:14:39,770 --> 00:14:41,630 Mais ça, on en parle dans la prochaine vidéo.