1 00:00:05,680 --> 00:00:10,150 Que sait-on vraiment de la réception des fausses informations, 2 00:00:10,350 --> 00:00:14,620 c’est-à-dire de la manière dont les internautes les consomment 3 00:00:14,820 --> 00:00:18,320 et les interprètent et la manière dont ces fausses informations 4 00:00:18,520 --> 00:00:23,830 potentiellement les influencent, et influence leurs votes lorsque 5 00:00:24,030 --> 00:00:26,800 ces fausses informations sont diffusées en période électorale ? 6 00:00:28,570 --> 00:00:31,900 Il faut d’abord dire que cette question a beaucoup intéressé les 7 00:00:32,100 --> 00:00:34,660 sociologues et les chercheurs en sciences de l’information et de 8 00:00:34,860 --> 00:00:37,930 la communication à la suite des différentes affaires dont on a 9 00:00:38,130 --> 00:00:41,560 parlé dans les vidéos précédentes. 10 00:00:41,760 --> 00:00:46,030 Qu’est-ce qu’on peut dire de ces études, nombreuses en Amérique 11 00:00:46,230 --> 00:00:46,990 du Nord comme en Europe ? 12 00:00:47,860 --> 00:00:51,280 On peut d’abord dire, premier point, que la réception 13 00:00:51,480 --> 00:00:56,020 des fausses informations est socialement et politiquement située. 14 00:00:56,740 --> 00:00:58,930 Elle est socialement et politiquement située. 15 00:00:59,130 --> 00:01:00,730 Qu’est-ce que j’entends par là ? 16 00:01:01,120 --> 00:01:02,620 Voyons l’aspect social d’abord. 17 00:01:03,790 --> 00:01:06,790 La première question que se posent les chercheurs, c’est de savoir 18 00:01:06,990 --> 00:01:10,960 qui partage des fausses informations et qui est susceptible de les croire. 19 00:01:12,550 --> 00:01:14,650 Sur cette question, les études divergent. 20 00:01:15,040 --> 00:01:20,980 Certaines études montrent que les jeunes sont moins armés pour identifier 21 00:01:21,180 --> 00:01:24,430 et faire la distinction entre des fausses informations et des vraies 22 00:01:24,630 --> 00:01:29,260 informations, que les jeunes sont plus susceptibles d’y être exposés 23 00:01:29,460 --> 00:01:30,220 et d’y croire. 24 00:01:30,490 --> 00:01:33,190 On a également d’autres études qui nous montrent que les seniors 25 00:01:33,390 --> 00:01:36,910 les plus âgés sont celles et ceux qui partagent le plus de fausses 26 00:01:37,110 --> 00:01:39,910 informations, jusqu’à sept fois plus que les plus jeunes. 27 00:01:40,990 --> 00:01:44,050 Sur l’âge, un doute demeure. 28 00:01:44,950 --> 00:01:49,360 En revanche, sur le niveau de diplôme et l’appartenance à une catégorie 29 00:01:49,560 --> 00:01:56,290 socioprofessionnelle, on sait que les consommateurs de fausses 30 00:01:56,490 --> 00:02:01,360 informations sont plutôt des gens peu diplômés qui appartiennent 31 00:02:01,780 --> 00:02:04,690 aux catégories socioprofessionnelles dites populaires. 32 00:02:04,890 --> 00:02:09,030 Lorsqu’on observe une étude de l’IFOP qui a cherché justement 33 00:02:09,230 --> 00:02:13,150 à cerner un profil type du consommateur de fake news, on s’aperçoit qu’on 34 00:02:14,080 --> 00:02:18,880 est plutôt chez des jeunes de moins de 35 ans, des gens peu diplômés 35 00:02:19,180 --> 00:02:22,660 et des gens appartenant aux catégories populaires. 36 00:02:22,860 --> 00:02:26,650 Généralement, on retrouve aussi plus d’hommes que de femmes. 37 00:02:27,250 --> 00:02:29,800 Mais derrière ces critères sociologiques ou sociodémographiques, 38 00:02:30,820 --> 00:02:33,070 existent aussi des critères psychologiques. 39 00:02:33,460 --> 00:02:36,460 Dans l’enquête de l’IFOP, comme dans d’autres enquêtes réalisées 40 00:02:36,660 --> 00:02:38,680 par des sociologues, en France et ailleurs, 41 00:02:39,130 --> 00:02:42,610 on s’aperçoit que si les profils de celles et ceux qui partagent 42 00:02:42,810 --> 00:02:47,350 des fausses informations sont différents, toutes et tous partagent 43 00:02:47,590 --> 00:02:48,370 deux points communs. 44 00:02:49,120 --> 00:02:54,910 Le premier, c’est d’exprimer une très forte défiance à l’égard des 45 00:02:55,110 --> 00:02:55,870 médias traditionnels. 46 00:02:57,330 --> 00:03:00,610 Exprimer une très forte défiance à l’égard des médias traditionnels, 47 00:03:00,810 --> 00:03:01,780 qu’est-ce que ça veut dire ? 48 00:03:02,110 --> 00:03:06,430 Ça veut dire exprimer publiquement le fait qu’on ne croit pas ce que 49 00:03:06,630 --> 00:03:10,810 propagent les médias traditionnels, la presse écrite, les grandes chaînes 50 00:03:11,010 --> 00:03:15,490 d’information, les grands journaux, les grandes stations de radio. 51 00:03:15,880 --> 00:03:18,100 On exprime une défiance à l’égard des médias traditionnels. 52 00:03:18,580 --> 00:03:21,430 Deuxième point commun, la plupart d’entre elles et eux 53 00:03:21,910 --> 00:03:25,780 vont exprimer un fort sentiment de déclassement social. 54 00:03:26,140 --> 00:03:30,190 Un fort sentiment de déclassement social, ça veut dire le fait de 55 00:03:30,390 --> 00:03:36,730 ressentir que notre position sociale ne correspond pas à ce que l’on mérite. 56 00:03:37,000 --> 00:03:40,630 Par exemple, lorsqu’on a fait des études mais qu’on a un travail 57 00:03:40,830 --> 00:03:44,890 qui ne mérite pas un haut niveau d’études, ou alors qu’on est au 58 00:03:45,090 --> 00:03:47,440 chômage, alors qu’on a travaillé toute notre vie et qu’on s’est 59 00:03:47,640 --> 00:03:53,350 fait renvoyer, qu’on a du mal avec les fins de mois alors qu’on a 60 00:03:53,550 --> 00:03:54,850 travaillé toute sa vie. 61 00:04:00,070 --> 00:04:04,630 Ce sentiment de déclassement et ce sentiment de défiance sont deux 62 00:04:04,830 --> 00:04:10,360 points importants dans le fait qu’on puisse croire ou pas aux 63 00:04:10,560 --> 00:04:11,320 fausses informations. 64 00:04:12,520 --> 00:04:14,950 Deuxième élément, je vous ai dit, elle est socialement située, 65 00:04:17,110 --> 00:04:18,280 cette réception des fake news. 66 00:04:18,580 --> 00:04:21,850 Elle est également politiquement située, c’est-à-dire que tout le 67 00:04:22,050 --> 00:04:26,500 monde n’est pas exposé aux fausses informations de la même façon suivant 68 00:04:26,700 --> 00:04:27,730 ses préférences politiques. 69 00:04:28,810 --> 00:04:35,170 Une étude réalisée par le Medialab de Sciences Po durant la présidentielle 70 00:04:35,500 --> 00:04:44,530 française de 2017 avait ainsi montré que 1 % des internautes présents 71 00:04:44,730 --> 00:04:50,260 sur Twitter étaient exposés à 80 % des fausses informations qui 72 00:04:50,460 --> 00:04:51,220 circulaient. 73 00:04:51,420 --> 00:04:55,180 Autrement dit, 80 % des fausses informations qui circulaient sur 74 00:04:55,380 --> 00:04:59,620 Twitter pendant la campagne avaient été vues et consommées par uniquement 75 00:04:59,820 --> 00:05:01,580 1 % des internautes. 76 00:05:02,600 --> 00:05:06,710 Ce qu’ajoutait à cela, le Medialab de Sciences Po, 77 00:05:06,910 --> 00:05:12,620 c’est que l’exposition à ces contenus était directement liée aux orientations 78 00:05:12,820 --> 00:05:14,210 politiques des internautes. 79 00:05:14,690 --> 00:05:19,880 Plus on était situé à droite du spectre politique, plus on était 80 00:05:20,080 --> 00:05:23,750 susceptible, par le biais des comptes qu’on suivait, d’y être exposé. 81 00:05:24,110 --> 00:05:26,480 Plus on est à droite, plus on est exposé aux fausses 82 00:05:26,680 --> 00:05:27,440 informations. 83 00:05:28,640 --> 00:05:31,160 Si vous vous rappelez de ce que je vous ai dit lors de la première 84 00:05:31,360 --> 00:05:34,970 vidéo, tout cela est assez logique puisque l’on sait que les fausses 85 00:05:35,170 --> 00:05:39,020 informations sont d’abord produites par des réseaux d’extrême droite. 86 00:05:39,500 --> 00:05:42,680 Il semble assez logique que celles et ceux qui les consomment sont 87 00:05:43,580 --> 00:05:50,690 d’abord ceux qui croient aux valeurs et aux thématiques diffusées par 88 00:05:50,890 --> 00:05:53,900 l’extrême droite et que ce soit elles et eux qui diffusent ces 89 00:05:54,100 --> 00:05:54,860 fausses informations. 90 00:05:55,060 --> 00:05:59,660 C’est important de comprendre que ceux qui partagent et consomment 91 00:05:59,860 --> 00:06:02,690 des fausses informations politiques sont d’abord les plus convaincus, 92 00:06:03,170 --> 00:06:08,450 ce qui semble indiquer que les fausses informations ont une influence 93 00:06:08,650 --> 00:06:11,540 directe assez faible sur l’opinion des individus. 94 00:06:12,170 --> 00:06:14,300 Ce que je veux dire par là, c’est que si vous êtes de gauche 95 00:06:14,500 --> 00:06:17,390 et que vous votez à gauche, ce ne sont pas les fausses informations 96 00:06:17,590 --> 00:06:24,080 d’extrême droite qui vont vous convaincre d’arrêter de voter pour 97 00:06:24,280 --> 00:06:27,100 votre candidat et d’en choisir un nouveau. 98 00:06:27,300 --> 00:06:31,040 Donc une influence directe faible parce que celles et ceux qui partagent 99 00:06:31,240 --> 00:06:33,620 le plus les fausses informations sont les plus convaincus. 100 00:06:35,090 --> 00:06:38,870 Une influence directe faible, cela ne veut pas dire que les fake 101 00:06:39,070 --> 00:06:42,350 news n’ont pas d’influence indirecte. 102 00:06:42,920 --> 00:06:48,410 Une chercheuse américaine, par exemple, a démontré que les 103 00:06:48,610 --> 00:06:53,780 fausses informations politiques pouvaient avoir des forts effets 104 00:06:54,200 --> 00:06:59,300 de mise à l’agenda, des forts effets de mise à l’agenda en saturant 105 00:06:59,500 --> 00:07:04,070 l’espace de débat des réseaux sociaux de thématiques propres à l’extrême 106 00:07:04,270 --> 00:07:05,030 droite. 107 00:07:05,230 --> 00:07:07,850 Si vous vous rappelez ce que je vous ai dit lors de la première 108 00:07:08,050 --> 00:07:10,850 vidéo et des exemples que je vous ai donnés dans la première et la 109 00:07:11,050 --> 00:07:18,140 seconde, les fausses informations visent des thématiques autour 110 00:07:18,340 --> 00:07:21,500 desquelles se mobilisent les militants d’extrême droite, l’immigration 111 00:07:21,700 --> 00:07:24,260 par exemple, ou les droits des minorités en France, 112 00:07:24,460 --> 00:07:29,480 l’opposition à l’Europe ou des discours très anti-élites. 113 00:07:32,000 --> 00:07:37,700 Le but de ces fausses informations, même si elles sont consommées et 114 00:07:37,900 --> 00:07:41,150 partagées par des gens convaincus, ces gens-là, parce qu’ils les partagent 115 00:07:41,350 --> 00:07:47,350 à leur tour, vont agrandir l’audience traditionnelle des partis d’extrême 116 00:07:47,550 --> 00:07:51,760 droite et vont permettre ainsi de sensibiliser des personnes peu 117 00:07:51,960 --> 00:07:55,720 politisées qui étaient peu sensibles aux discours de l’extrême droite, 118 00:07:55,920 --> 00:07:59,020 mais qui étaient peu sensibles aux discours politiques en général. 119 00:07:59,220 --> 00:08:02,710 C’est bien là, le risque indirect de ces fausses informations. 120 00:08:02,920 --> 00:08:07,540 Toucher par le biais des partages, des gens peu sensibilisés, 121 00:08:07,740 --> 00:08:12,100 peu politisés et leur donner envie de s’intéresser aux thématiques 122 00:08:12,370 --> 00:08:15,310 qui sont celles défendues par l’extrême droite. 123 00:08:15,820 --> 00:08:22,270 Ce que cette chercheuse du nom de Jamieson, nous dit que certes, 124 00:08:22,570 --> 00:08:28,960 les effets indirects sont limités, mais il ne faudrait pas pour autant 125 00:08:31,630 --> 00:08:35,710 sous-estimer leur rôle indirect parce que ces fausses informations 126 00:08:36,010 --> 00:08:41,290 saturent l’espace du débat public sur les réseaux sociaux et sont 127 00:08:41,490 --> 00:08:45,760 propres à favoriser la visibilité des partis d’extrême droite à travers 128 00:08:45,960 --> 00:08:48,700 les thématiques traitées dans ces fausses informations. 129 00:08:51,520 --> 00:08:55,030 Si les gens ne croient pas franchement aux fausses informations, 130 00:08:56,440 --> 00:08:57,400 pourquoi les partagent-ils ? 131 00:08:57,600 --> 00:09:02,740 Il faut rappeler que les fausses informations ou les rumeurs sont 132 00:09:02,940 --> 00:09:04,030 aussi une activité sociale. 133 00:09:04,720 --> 00:09:08,680 On partage des rumeurs, on partage des fake news aussi 134 00:09:08,880 --> 00:09:10,000 pour en parler avec les autres. 135 00:09:10,420 --> 00:09:13,990 De la même façon que nous avons toutes et tous déjà partagé des 136 00:09:14,190 --> 00:09:20,050 rumeurs dans la cour du lycée, à la machine à café de l’entreprise 137 00:09:20,250 --> 00:09:23,050 dans laquelle on travaille, on a partagé des rumeurs, 138 00:09:23,250 --> 00:09:26,440 mais sans forcément y croire dur comme fer, tout simplement parce 139 00:09:26,640 --> 00:09:28,660 qu’on aime bien en parler, parce que ça fait fonctionner le 140 00:09:28,860 --> 00:09:29,620 lien social. 141 00:09:29,820 --> 00:09:35,170 C’est aussi pour ça que la rumeur est le plus vieux média du monde. 142 00:09:35,680 --> 00:09:38,470 Donc partager des fausses informations, ça ne veut pas forcément dire qu’on 143 00:09:38,670 --> 00:09:41,290 y croit dur comme fer, ça veut aussi dire qu’on aime bien 144 00:09:41,490 --> 00:09:42,250 en parler. 145 00:09:42,450 --> 00:09:47,080 Deuxième élément, partager des fake news, c’est aussi une affirmation 146 00:09:47,280 --> 00:09:51,640 identitaire, notamment lorsqu’on partage des fake news d’extrême droite. 147 00:09:51,970 --> 00:09:56,440 Cela nous permet de dire quelque chose avec les mots d’un autre, 148 00:09:56,640 --> 00:10:00,040 pour reprendre l’expression de la sociologue Irène Bastard, 149 00:10:00,730 --> 00:10:02,860 dire quelque chose avec les mots d’un autre. 150 00:10:03,400 --> 00:10:07,240 Imaginez un instant que vous soyez militant d’extrême droite et que 151 00:10:07,440 --> 00:10:12,220 vous partagiez des informations d’extrême droite sur les réseaux 152 00:10:12,420 --> 00:10:15,400 sociaux, ou plus exactement que vous preniez la parole pour défendre 153 00:10:15,600 --> 00:10:16,480 des positions d’extrême droite. 154 00:10:17,110 --> 00:10:19,390 Ceci représente un coût social. 155 00:10:19,960 --> 00:10:23,560 Dans votre réseau, vous savez que vous allez avoir beaucoup de monde 156 00:10:23,760 --> 00:10:26,740 qui n’est pas d’extrême droite et que le fait de prendre position 157 00:10:26,940 --> 00:10:32,410 publiquement va créer de l’animosité et du conflit avec certaines personnes 158 00:10:32,740 --> 00:10:33,500 qui vous suivent. 159 00:10:34,240 --> 00:10:37,180 Alors que si vous partagez des fausses informations d’extrême droite, 160 00:10:38,140 --> 00:10:42,640 cela vous permet de dire quelque chose de votre engagement en limitant 161 00:10:42,840 --> 00:10:43,660 votre engagement social. 162 00:10:43,930 --> 00:10:46,210 Car si un de vos proches vient vous dire : "Mais qu’est-ce que 163 00:10:46,410 --> 00:10:47,170 tu racontes ? 164 00:10:47,370 --> 00:10:50,290 Tu ne devrais pas partager ce type d’information", vous pourrez toujours 165 00:10:50,620 --> 00:10:55,090 vous dédouaner en disant : "Ce n’est pas que j’y crois, 166 00:10:55,290 --> 00:10:56,860 mais je trouvais qu’il y avait quelque chose d’intéressant dans 167 00:10:57,060 --> 00:10:57,820 l’article". 168 00:10:58,020 --> 00:11:02,110 Ça permet de limiter votre engagement personnel dans cette prise de parole 169 00:11:02,350 --> 00:11:03,110 politique. 170 00:11:03,310 --> 00:11:06,610 C’est bien ça dont il s’agit, partager des fake news, 171 00:11:06,810 --> 00:11:10,870 c’est aussi une prise de parole politique en disant quelque chose 172 00:11:11,200 --> 00:11:12,730 avec les mots d’un autre. 173 00:11:13,810 --> 00:11:16,840 De manière plus globale, il faut aussi prendre le phénomène 174 00:11:17,040 --> 00:11:19,390 des fake news comme l’expression d’une défiance politique, 175 00:11:20,590 --> 00:11:24,460 défiance à l’égard des médias, défiance à l’égard aussi des élites 176 00:11:24,820 --> 00:11:26,710 et des personnalités politiques. 177 00:11:26,950 --> 00:11:30,610 Car si elles ont autant de succès, c’est aussi parce qu’elles expriment, 178 00:11:30,880 --> 00:11:33,910 dans le contenu de ces fausses informations, un discours qui les 179 00:11:34,110 --> 00:11:39,850 met en cause et qui justement rejette la manière dont nous sommes gouvernés 180 00:11:40,050 --> 00:11:42,970 et dont les médias traditionnels couvrent l’actualité. 181 00:11:43,990 --> 00:11:47,620 Pour résumer, on peut dire que les fausses informations ont des 182 00:11:47,820 --> 00:11:51,670 effets directs limités sur l’opinion et qu’elles ont des effets indirects 183 00:11:51,870 --> 00:11:53,080 potentiellement inquiétants. 184 00:11:53,800 --> 00:11:56,710 On peut dire aussi qu’elles sont un indicateur, ces fake news, 185 00:11:56,910 --> 00:11:59,860 d’une forme de défiance politique et qu’elles correspondent, 186 00:12:00,060 --> 00:12:03,820 lorsqu’elles sont couplées à l’usage des données personnelles des 187 00:12:04,020 --> 00:12:07,210 internautes, à de nouvelles formes de propagande politique et à de 188 00:12:07,410 --> 00:12:09,910 nouvelles stratégies de propagande politique. 189 00:12:10,110 --> 00:12:13,630 C’est pour ça qu’elles sont devenues aujourd’hui un enjeu de régulation 190 00:12:13,830 --> 00:12:18,520 du débat public et que certains pays, comme la France, font passer des 191 00:12:18,720 --> 00:12:22,660 nouvelles lois visant à contrôler davantage la manière dont les 192 00:12:22,860 --> 00:12:24,610 informations circulent sur les réseaux sociaux. 193 00:12:25,180 --> 00:12:28,450 La manière dont les plateformes luttent contre la désinformation 194 00:12:28,650 --> 00:12:31,720 et la manière dont les pouvoirs publics essaient d’encadrer le 195 00:12:31,920 --> 00:12:36,070 travail des plateformes en la matière, on en a déjà parlé dans le cours 196 00:12:36,270 --> 00:12:38,050 sur le rôle des plateformes en tant que censeur. 197 00:12:39,160 --> 00:12:43,120 Si le sujet vous intéresse, je vous invite à revenir dans cette 198 00:12:43,320 --> 00:12:44,080 vidéo. 199 00:12:44,280 --> 00:12:45,070 C’est tout pour aujourd’hui. 200 00:12:45,270 --> 00:12:49,290 J’espère que ce cours vous aura intéressés et je vous donne rendez-vous 201 00:12:49,620 --> 00:12:52,590 pour notre prochain cours qui sera d’ailleurs le dernier.