1 00:00:05,650 --> 00:00:09,130 Dans cette seconde partie du cours, nous allons aborder les enjeux 2 00:00:09,330 --> 00:00:13,450 entre cognition, processus cognitif et numérique sous un angle un peu 3 00:00:13,650 --> 00:00:14,410 différent. 4 00:00:14,610 --> 00:00:17,800 Nous allons nous concentrer sur les réseaux sociaux et la manière 5 00:00:18,000 --> 00:00:21,400 dont les réseaux sociaux vont créer, chez leurs utilisateurs, 6 00:00:21,700 --> 00:00:27,760 un ensemble de processus psychologiques cognitifs comme la cyberdépendance 7 00:00:27,960 --> 00:00:32,860 ou comme des processus de dépréciation, et comment ces mécanismes 8 00:00:33,060 --> 00:00:36,520 psychologiques et cognitifs correspondent à ce qu’on appelle 9 00:00:36,880 --> 00:00:38,080 l’économie de l’attention. 10 00:00:38,280 --> 00:00:41,620 L’économie de l’attention appliquée aux réseaux sociaux, 11 00:00:41,820 --> 00:00:45,790 c’est l’idée que les réseaux sociaux cherchent à nous garder captifs. 12 00:00:45,990 --> 00:00:52,090 Lorsqu’on pense à Facebook, Instagram, TikTok, Twitter ou YouTube, 13 00:00:52,360 --> 00:00:56,500 leur logique commune est de faire en sorte que nous passions le plus 14 00:00:56,700 --> 00:00:58,390 de temps possible à les utiliser. 15 00:00:58,590 --> 00:00:59,350 Pourquoi ? 16 00:00:59,680 --> 00:01:03,490 Parce que plus nous restons longtemps sur ces plateformes et plus nous 17 00:01:03,690 --> 00:01:06,010 sommes exposés à des contenus publicitaires. 18 00:01:06,550 --> 00:01:09,220 Plus nous sommes exposés à des contenus publicitaires et plus 19 00:01:09,420 --> 00:01:13,330 nous allons rapporter des revenus publicitaires aux entreprises qui 20 00:01:13,530 --> 00:01:14,560 possèdent ces réseaux sociaux. 21 00:01:14,920 --> 00:01:17,260 L’économie de l’attention, pour les réseaux sociaux, 22 00:01:17,460 --> 00:01:20,710 c’est cette idée de nous garder captifs, de capter notre attention 23 00:01:20,910 --> 00:01:23,320 et de faire en sorte qu’on reste sur les plateformes. 24 00:01:24,610 --> 00:01:29,110 Pour ce faire, ces plateformes ont développé des techniques et 25 00:01:29,310 --> 00:01:33,850 des dispositifs numériques très particuliers et très performants. 26 00:01:34,630 --> 00:01:36,340 Avant d’aborder ces dispositifs, pourrait-on objecter, 27 00:01:36,540 --> 00:01:39,310 après tout, que ce n’est pas nouveau. 28 00:01:39,640 --> 00:01:43,570 Chercher à capter l’attention des usagers, l’attention des spectateurs 29 00:01:43,900 --> 00:01:47,470 afin de la rentabiliser par le biais de revenus publicitaires, 30 00:01:47,670 --> 00:01:51,820 c’est un peu le modèle économique traditionnel des médias. 31 00:01:52,020 --> 00:01:52,780 Réfléchissons-y. 32 00:01:53,350 --> 00:01:59,500 Même à l’époque de l’âge d’or de la presse au 19ᵉ siècle, 33 00:01:59,740 --> 00:02:05,920 les unes de presse rivalisaient de unes sanguinolentes ou affriolantes 34 00:02:06,120 --> 00:02:07,690 pour donner envie aux gens de les acheter. 35 00:02:07,890 --> 00:02:09,610 À la télévision, c’est la même chose. 36 00:02:09,810 --> 00:02:13,420 L’ancien PDG de TF1, Patrick Le Lay, avait même parlé 37 00:02:13,660 --> 00:02:16,810 à une époque de temps de cerveau disponible en disant que son métier, 38 00:02:17,010 --> 00:02:21,040 c’était de vendre du temps de cerveau disponible à Coca-Cola. 39 00:02:21,240 --> 00:02:23,290 Qu’est-ce qui change vraiment avec le numérique ? 40 00:02:23,490 --> 00:02:25,480 Qu’est-ce qui change vraiment avec les réseaux sociaux ? 41 00:02:25,680 --> 00:02:29,470 Il change quelque chose de très important qui est que du temps 42 00:02:29,670 --> 00:02:33,370 des médias traditionnels, ce qui devait capter l’attention 43 00:02:33,570 --> 00:02:36,820 des spectateurs, des auditeurs ou du public, c’étaient les contenus. 44 00:02:37,020 --> 00:02:40,510 C’étaient les contenus médiatiques qui avaient ce rôle de capter 45 00:02:40,710 --> 00:02:42,820 l’attention et de rendre les usagers captifs. 46 00:02:43,360 --> 00:02:45,790 Avec les réseaux sociaux, ce ne sont plus les contenus qui 47 00:02:45,990 --> 00:02:48,400 comptent, ce sont les architectures informationnelles, c’est-à-dire 48 00:02:51,010 --> 00:02:53,980 le fonctionnement même des réseaux sociaux, leur design, 49 00:02:54,180 --> 00:02:56,110 leur conception technique. 50 00:02:56,950 --> 00:03:01,690 Cela a des conséquences très importantes puisque les ingénieurs 51 00:03:01,890 --> 00:03:04,120 qui développent les technologies que nous utilisons au quotidien 52 00:03:04,540 --> 00:03:09,640 vont chercher à développer des dispositifs qui vont venir conforter 53 00:03:10,750 --> 00:03:14,110 un certain nombre de biais psychologiques chez leurs usagers 54 00:03:14,530 --> 00:03:17,320 afin de leur donner l’envie de rester. 55 00:03:17,520 --> 00:03:19,570 Ce n’est pas un hasard. 56 00:03:19,770 --> 00:03:22,480 C’est ce qu’on appelle les technologies persuasives. 57 00:03:22,680 --> 00:03:27,310 L’idée de technologie persuasive a été développée à Stanford dans 58 00:03:27,510 --> 00:03:31,120 les années 90, dans le cadre d’un laboratoire particulier. 59 00:03:31,600 --> 00:03:36,820 Le créateur de ce laboratoire cherchait à influencer les comportements 60 00:03:37,020 --> 00:03:40,840 humains par la technologie, mais dans l’idée du créateur de 61 00:03:41,040 --> 00:03:46,180 ce laboratoire, c’était que ces 62 00:03:46,380 --> 00:03:48,730 technologies puissent favoriser des comportements vertueux. 63 00:03:49,150 --> 00:03:53,020 Par exemple, vous avez du mal à vous mettre à faire du sport, 64 00:03:53,320 --> 00:03:55,990 vous allez avoir une application qui va vous encourager à aller courir. 65 00:03:56,230 --> 00:03:58,720 Vous voulez arrêter de fumer, vous allez avoir une application 66 00:03:58,920 --> 00:04:04,000 qui va vous manager, chercher à vous encadrer pour que 67 00:04:04,200 --> 00:04:05,110 vous fumiez moins. 68 00:04:05,310 --> 00:04:07,900 C’était son optique des technologies persuasives. 69 00:04:08,320 --> 00:04:13,060 Sauf que, étant lui-même un psychologue, il a enseigné à ses 70 00:04:13,260 --> 00:04:17,620 élèves la manière d’utiliser des technologies pour influencer les 71 00:04:17,820 --> 00:04:18,580 comportements humains. 72 00:04:19,030 --> 00:04:22,510 Dans sa classe à Stanford, sont passés parmi les plus grands 73 00:04:22,710 --> 00:04:25,720 développeurs de la Silicon Valley, qui ont ensuite travailler pour 74 00:04:25,920 --> 00:04:26,680 Facebook, Instagram, Google. 75 00:04:28,570 --> 00:04:31,240 Ces ingénieurs, ces anciens élèves, qu’est-ce qu’ils ont fait ? 76 00:04:31,720 --> 00:04:36,490 Ils ont utilisé ces techniques afin de capter l’attention des 77 00:04:36,690 --> 00:04:39,790 usagers et de la rentabiliser sur les réseaux sociaux. 78 00:04:40,180 --> 00:04:42,370 Le formateur en question du laboratoire dont je vous parlais, 79 00:04:42,570 --> 00:04:48,550 c’est BJ Fogg, un chercheur très connu dans le monde de la Silicon 80 00:04:48,750 --> 00:04:49,510 Valley. 81 00:04:49,710 --> 00:04:52,120 Comment les technologies captent notre attention ? 82 00:04:52,320 --> 00:04:55,240 Comment les technologies développées par les réseaux sociaux captent 83 00:04:55,440 --> 00:04:56,200 notre attention ? 84 00:04:56,410 --> 00:04:58,180 Il y a différents dispositifs qui existent. 85 00:04:58,450 --> 00:05:04,860 Le plus connu, c’est celui du hook, comme un crochet en anglais. 86 00:05:05,400 --> 00:05:10,350 Cette théorie du hook a justement été développée par un ancien élève 87 00:05:10,550 --> 00:05:13,530 de BJ Fogg dans le laboratoire de Stanford dont je vous parlais 88 00:05:13,730 --> 00:05:14,490 tout de suite. 89 00:05:14,760 --> 00:05:15,570 Comment ça fonctionne ? 90 00:05:15,770 --> 00:05:21,660 L’idée pour capter l’attention d’un usager se déploie en quatre 91 00:05:21,860 --> 00:05:22,620 étapes. 92 00:05:22,830 --> 00:05:24,810 La première est celle du signal. 93 00:05:25,380 --> 00:05:27,180 En anglais, on parle de trigger. 94 00:05:27,380 --> 00:05:29,220 C’est la gâchette comme sur un pistolet. 95 00:05:29,790 --> 00:05:34,440 Le signal, c’est la première étape qui aura pour fonction de capter 96 00:05:34,640 --> 00:05:38,130 l’attention de quelqu’un qui fait autre chose, par exemple une 97 00:05:38,330 --> 00:05:39,090 notification. 98 00:05:39,360 --> 00:05:42,990 Vous êtes en train d’écouter cette vidéo et vous avez un bip qui sonne 99 00:05:43,190 --> 00:05:43,950 sur votre téléphone. 100 00:05:44,260 --> 00:05:47,790 Vous venez de recevoir une notification, vous regardez. 101 00:05:47,990 --> 00:05:50,040 C’est une notification d'Instagram. 102 00:05:50,520 --> 00:05:51,280 Très bien. 103 00:05:51,480 --> 00:05:52,710 Deuxième étape, l’action. 104 00:05:53,760 --> 00:05:56,370 Ce signal implique de vous que vous fassiez une action. 105 00:05:56,610 --> 00:05:59,670 En l’occurrence, une notification de Instagram implique que vous 106 00:05:59,870 --> 00:06:04,200 cliquiez dessus pour charger l’application et que vous alliez 107 00:06:04,400 --> 00:06:06,420 voir à quoi correspond ce signal. 108 00:06:07,350 --> 00:06:09,090 Troisième étape, la récompense. 109 00:06:09,960 --> 00:06:12,810 Parce que vous avez interrompu ce que vous faisiez et que vous 110 00:06:13,010 --> 00:06:16,140 avez ouvert l’application, on vous offre une récompense et 111 00:06:16,340 --> 00:06:20,310 la récompense, ce sera par exemple un nouveau like sur une photo, 112 00:06:20,670 --> 00:06:24,570 un nouveau commentaire, quelque chose qui va vous conforter 113 00:06:24,770 --> 00:06:25,590 ou vous faire plaisir. 114 00:06:27,030 --> 00:06:28,590 La quatrième étape, la dernière, c’est l’investissement. 115 00:06:29,580 --> 00:06:31,110 Vous avez reçu votre récompense. 116 00:06:31,380 --> 00:06:35,880 On attend de vous que vous vous investissiez à nouveau pour répondre 117 00:06:36,080 --> 00:06:36,840 à cette récompense. 118 00:06:37,040 --> 00:06:42,450 Par exemple, un ami vous a laissé un avis sur une vidéo ou sur une photo. 119 00:06:42,780 --> 00:06:45,090 Vous allez prendre le temps de lui répondre dans un nouveau 120 00:06:45,290 --> 00:06:46,050 commentaire. 121 00:06:46,260 --> 00:06:49,500 Ce faisant, en lui répondant, vous allez créer une nouvelle 122 00:06:49,700 --> 00:06:51,570 notification chez cette personne. 123 00:06:52,830 --> 00:06:56,970 Le mécanisme du hook reprend avec ce nouvel utilisateur. 124 00:06:57,170 --> 00:07:01,050 L’idée du hook, c’est vraiment de capter l’attention dans une 125 00:07:01,250 --> 00:07:02,880 logique sans fin, perpétuelle. 126 00:07:03,300 --> 00:07:05,940 Parce que votre propre attention est captée, vous allez réaliser 127 00:07:06,140 --> 00:07:09,090 une action qui va créer un nouveau signal chez quelqu’un d’autre et 128 00:07:09,290 --> 00:07:10,050 ainsi de suite. 129 00:07:10,320 --> 00:07:15,390 Cette théorie, très connue en marketing, vise justement à favoriser 130 00:07:15,600 --> 00:07:19,590 la captation de l’attention des usagers sur internet et sur les 131 00:07:19,790 --> 00:07:20,550 réseaux sociaux. 132 00:07:21,330 --> 00:07:23,550 Le hook, c’est le mécanisme le plus connu. 133 00:07:23,750 --> 00:07:24,570 Ce n’est pas le seul. 134 00:07:24,960 --> 00:07:29,580 Un autre mécanisme très connu, c’est celui de la récompense aléatoire. 135 00:07:30,330 --> 00:07:33,750 La récompense aléatoire, c’est l’idée qu’on a tendance à 136 00:07:33,950 --> 00:07:37,530 ouvrir souvent nos applications de réseaux sociaux parce qu’on 137 00:07:37,950 --> 00:07:42,870 va voir s’il y a du nouveau : est-ce qu’un ami a publié quelque 138 00:07:43,070 --> 00:07:43,830 chose ? 139 00:07:44,030 --> 00:07:48,180 Est-ce qu’il a réagi à un de nos commentaires ou nos publications ? 140 00:07:48,630 --> 00:07:54,480 Lorsqu’on reçoit cette notification, on a une récompense. 141 00:07:54,680 --> 00:07:58,440 Parfois, on ne la reçoit pas parce qu’on va tellement de fois sur 142 00:07:58,640 --> 00:08:02,040 Instagram, qu’on n’a pas à chaque fois une nouvelle notification. 143 00:08:02,910 --> 00:08:06,540 Cette idée de récompense aléatoire repose sur une expérience très 144 00:08:06,740 --> 00:08:09,690 connue en psychologie qui s’appelle l’expérience de Skinner. 145 00:08:09,890 --> 00:08:15,450 L’expérience de Skinner, c’est un psychologue qui met un 146 00:08:15,650 --> 00:08:20,850 rat de laboratoire dans une cage, qui lui propose un mécanisme pour 147 00:08:21,050 --> 00:08:21,810 se nourrir. 148 00:08:22,680 --> 00:08:26,220 Il y a un mécanisme sur lequel il faut appuyer et à chaque fois 149 00:08:26,420 --> 00:08:31,200 que le rat appuie sur le bouton, de la nourriture tombe d’une autre 150 00:08:31,400 --> 00:08:32,160 partie de la cage. 151 00:08:32,370 --> 00:08:36,360 Les rats étant des animaux très intelligents, le rat en question 152 00:08:36,560 --> 00:08:38,430 va très vite comprendre qu’à chaque fois qu’il appuie, il a de la 153 00:08:38,630 --> 00:08:39,390 nourriture. 154 00:08:39,590 --> 00:08:40,920 Quel va être le comportement du rat ? 155 00:08:41,640 --> 00:08:42,870 Un comportement très raisonnable. 156 00:08:43,070 --> 00:08:44,760 Puisqu’il a compris qu’à chaque fois qu’il appuyait, 157 00:08:44,970 --> 00:08:48,690 il pouvait avoir une croquette, il va manger à sa faim et il va 158 00:08:48,890 --> 00:08:49,650 s’arrêter de manger. 159 00:08:50,220 --> 00:08:57,690 Le psychologue va décider de rajouter un autre élément dans l’expérience. 160 00:08:58,230 --> 00:09:01,140 Il va faire en sorte que quand le rat appuie sur le bouton, 161 00:09:01,340 --> 00:09:04,410 parfois une croquette tombe et parfois, il n’y a rien qui tombe. 162 00:09:04,610 --> 00:09:07,170 Qu’est-ce que ce mécanisme va produire ? 163 00:09:07,560 --> 00:09:11,310 Il va produire chez le rat une forme d’insécurité qui va se traduire 164 00:09:11,510 --> 00:09:16,050 par un comportement frénétique d’appuyer sans cesse sur le bouton 165 00:09:17,160 --> 00:09:19,550 de peur que parfois, il n’ait pas de récompense. 166 00:09:19,750 --> 00:09:24,270 C’est cette expérience qui a théorisé la récompense aléatoire et qui 167 00:09:24,470 --> 00:09:27,450 a été utilisée dans plein de domaines différents par la suite, 168 00:09:27,690 --> 00:09:29,340 notamment les machines à sous des casinos. 169 00:09:29,540 --> 00:09:32,100 Qu’est-ce qui fait que vous recommencez à chaque fois sur une machine à 170 00:09:32,300 --> 00:09:33,060 sous dans un casino ? 171 00:09:33,260 --> 00:09:36,240 C’est que parfois, vous allez être récompensé, la plupart du temps non, 172 00:09:36,450 --> 00:09:40,440 mais vous continuez tant que vous n’avez pas reçu votre récompense. 173 00:09:40,640 --> 00:09:43,050 C’est la même chose, la récompense aléatoire sur les 174 00:09:43,250 --> 00:09:44,010 réseaux sociaux. 175 00:09:44,210 --> 00:09:46,770 On y va souvent parce que parfois, on est récompensé, et parfois, 176 00:09:46,970 --> 00:09:47,730 on ne l’est pas. 177 00:09:47,930 --> 00:09:49,290 Ou sur les applications de rencontres. 178 00:09:49,560 --> 00:09:53,460 Parfois on a des matches avec un autre profil, parfois on n’en a pas, 179 00:09:53,700 --> 00:09:56,310 mais on y va souvent dans l’espoir d’avoir cette récompense, 180 00:09:57,210 --> 00:09:59,850 ce qui crée là aussi des formes d’usages frénétiques. 181 00:10:00,840 --> 00:10:02,370 Je vous donne d’autres exemples de mécanismes. 182 00:10:02,670 --> 00:10:04,860 Un autre mécanisme connu, c’est le scroll infini. 183 00:10:05,060 --> 00:10:07,800 C’est l’idée que quand vous êtes sur un réseau social, 184 00:10:08,160 --> 00:10:13,440 vous scrollez, vous faites défiler votre fil d’actualité, 185 00:10:13,640 --> 00:10:16,000 mais ce défilement n’a jamais de fin. 186 00:10:16,200 --> 00:10:18,900 Vous pourriez passer 12 heures à scroller votre fil d’actualité, 187 00:10:19,230 --> 00:10:22,770 il sera toujours nourri de publications plus anciennes ou autres. 188 00:10:22,970 --> 00:10:25,020 C’est quelque chose d’assez nouveau. 189 00:10:25,740 --> 00:10:29,550 Un programme télé se termine, un journal a une fin, 190 00:10:29,750 --> 00:10:32,640 un roman a une fin, les réseaux sociaux n’ont pas de fin. 191 00:10:32,840 --> 00:10:38,250 Cela produit un effet qui est de créer une parenthèse temporelle 192 00:10:38,450 --> 00:10:39,690 dans laquelle on ne voit pas le temps défiler. 193 00:10:39,890 --> 00:10:42,720 Étant donné qu’il n’y a pas de fin, il n’y a pas de repères temporels 194 00:10:42,920 --> 00:10:45,960 et on continue à scroller jusqu’à en avoir assez. 195 00:10:46,770 --> 00:10:50,010 Autre mécanisme très connu, le mécanisme de validation sociale. 196 00:10:50,340 --> 00:10:54,030 Là aussi, c’est un élément psychologique très connu. 197 00:10:54,450 --> 00:11:03,030 On sait que notre estime de nous-même est corrélée aux retours que les 198 00:11:03,230 --> 00:11:04,860 autres nous donnent sur nos comportements. 199 00:11:05,340 --> 00:11:07,620 Si on vous dit que ce que vous faites est nul à longueur de journée, 200 00:11:07,950 --> 00:11:10,320 vous aurez tendance à vous déprécier. 201 00:11:10,770 --> 00:11:12,450 Si on vous dit que ce que vous faites est génial, à l’inverse, 202 00:11:12,690 --> 00:11:16,320 vous aurez tendance à avoir une haute estime de vous-même. 203 00:11:16,520 --> 00:11:23,970 Instagram, c’est justement une manière de mesurer et de quantifier 204 00:11:24,170 --> 00:11:25,710 ce mécanisme de validation sociale. 205 00:11:26,070 --> 00:11:28,740 Plus vous recevez de likes, plus vous avez de partages, 206 00:11:28,940 --> 00:11:31,830 plus vous avez de commentaires et plus forte sera votre estime 207 00:11:32,030 --> 00:11:36,060 de vous-même et plus vous considérerez que vous avez de l’importance par 208 00:11:36,260 --> 00:11:40,230 rapport à la communauté au sein de laquelle vous vous évaluez. 209 00:11:41,010 --> 00:11:42,870 Il existe une multitude d’autres mécanismes. 210 00:11:43,270 --> 00:11:46,650 Ce que je vous invite à faire, c’est lire un article de Tristan 211 00:11:46,850 --> 00:11:50,280 Harris, lui aussi un des anciens élèves de BJ Fogg dont je vous 212 00:11:50,480 --> 00:11:54,360 ai parlé tout à l’heure, dans lequel il liste tous les 213 00:11:54,560 --> 00:11:58,380 mécanismes de biais psychologiques développés par les ingénieurs qui 214 00:11:58,580 --> 00:12:00,270 produisent les architectures des réseaux sociaux. 215 00:12:00,600 --> 00:12:02,850 Je vous mettrai le lien pour y avoir accès. 216 00:12:03,510 --> 00:12:07,770 Il faut savoir que ces mécanismes, ces biais psychologiques peuvent 217 00:12:07,970 --> 00:12:09,660 avoir des conséquences assez graves. 218 00:12:10,020 --> 00:12:13,170 Par exemple, on sait que le fonctionnement d'Instagram, 219 00:12:13,560 --> 00:12:17,940 avec ce mécanisme de validation sociale, va créer des mécanismes 220 00:12:18,140 --> 00:12:21,150 très forts de dépréciation chez les jeunes adolescents, 221 00:12:21,600 --> 00:12:24,780 notamment chez les jeunes adolescentes puisque, a priori, les jeunes filles 222 00:12:24,980 --> 00:12:27,120 sont plus victimes que les jeunes garçons. 223 00:12:27,660 --> 00:12:28,470 Comment ça marche ? 224 00:12:29,190 --> 00:12:37,410 On s’aperçoit que sur une application comme Instagram, 0,1 % des abonnés 225 00:12:38,490 --> 00:12:42,060 produisent 50 % des contenus consommés. 226 00:12:42,780 --> 00:12:43,800 Je vous la refais dans l’autre sens. 227 00:12:44,000 --> 00:12:45,270 Qu’est-ce que ça veut dire ? 228 00:12:45,470 --> 00:12:49,440 50 % des contenus consommés sur Instagram, des posts qui y sont vus, 229 00:12:49,640 --> 00:12:53,910 des publications qui y sont vues, ont été produites par 0,1 % des 230 00:12:54,110 --> 00:12:57,810 abonnés, ceux qu’on appelle régulièrement les influenceurs, 231 00:12:58,010 --> 00:13:00,570 ceux qui sont suivis par beaucoup d’internautes. 232 00:13:00,770 --> 00:13:05,580 Ça a une conséquence importante parce que les influenceurs ont 233 00:13:05,780 --> 00:13:08,070 tendance à montrer à quel point ils ont une belle vie, 234 00:13:08,610 --> 00:13:12,960 ils évoluent dans un univers riche, ils vont en voyage à l’étranger, 235 00:13:13,160 --> 00:13:16,980 des marques de mode leur envoient des cadeaux à longueur de journée. 236 00:13:17,970 --> 00:13:22,860 Le fait que l’algorithme d'Instagram nous montre en priorité les contenus 237 00:13:23,060 --> 00:13:27,240 postés par ces gens-là va créer des mécanismes de comparaison 238 00:13:27,440 --> 00:13:28,200 dépréciative. 239 00:13:29,370 --> 00:13:33,630 Les utilisateurs d'Instagram comparent leur propre vie à celle de ces 240 00:13:33,830 --> 00:13:37,260 utilisateurs et ils auront tendance à dire que leur vie est moins belle 241 00:13:37,460 --> 00:13:41,820 et moins bonne et va créer parfois des mécanismes de dépression par 242 00:13:42,020 --> 00:13:43,110 rapport à leur propre existence. 243 00:13:43,320 --> 00:13:46,140 Alors qu’évidemment, les contenus publiés par les 244 00:13:46,340 --> 00:13:49,710 influenceurs ou par n’importe qui sur Instagram ont toujours un côté 245 00:13:49,910 --> 00:13:50,670 factice. 246 00:13:50,870 --> 00:13:53,370 On essaye de mettre en scène sa vie, ça ne correspond jamais vraiment 247 00:13:53,570 --> 00:13:54,330 à la réalité. 248 00:13:54,720 --> 00:13:59,730 En tout cas, des études montrent que ce fonctionnement technique 249 00:13:59,930 --> 00:14:05,700 de Instagram crée de la dépréciation chez les jeunes adolescentes, 250 00:14:05,900 --> 00:14:06,720 notamment aux États-Unis. 251 00:14:06,920 --> 00:14:12,720 Surtout, le premier phénomène que créent ces mécanismes sont des 252 00:14:12,920 --> 00:14:16,920 phénomènes de cyberdépendance, d’addiction aux réseaux sociaux, 253 00:14:17,120 --> 00:14:18,420 d’addiction à la technologie. 254 00:14:20,940 --> 00:14:24,930 En 2018, l’OMS, l’Organisation mondiale de la santé, 255 00:14:27,150 --> 00:14:32,000 a reconnu la cyberaddiction comme une forme d’addiction à part entière. 256 00:14:32,430 --> 00:14:36,930 Depuis 2018, c’est officiel, la cyberaddiction est une addiction 257 00:14:37,130 --> 00:14:39,690 au même titre que l’addiction aux drogues par exemple. 258 00:14:40,740 --> 00:14:44,670 Dans la nomenclature de l’OMS, on distingue cinq différents types 259 00:14:45,360 --> 00:14:46,120 de cyberaddiction. 260 00:14:47,070 --> 00:14:50,220 On a d’abord l’addiction au porno sur Internet, le fait de ne pas 261 00:14:50,420 --> 00:14:54,090 pouvoir s’empêcher d’aller consommer du porno qui, comme chacun sait, 262 00:14:54,480 --> 00:14:56,850 est facilement accessible sur Internet. 263 00:14:57,480 --> 00:14:59,310 Deuxième forme de dépendance, les jeux vidéo. 264 00:15:00,300 --> 00:15:02,970 On peut passer beaucoup de temps à jouer aux jeux vidéo sans même 265 00:15:03,170 --> 00:15:08,970 se rendre compte du temps passé, les réseaux sociaux avec tout ce 266 00:15:09,170 --> 00:15:11,460 dont on vient de parler, les transactions en ligne, 267 00:15:11,700 --> 00:15:16,710 les achats ou les jeux en ligne 268 00:15:16,910 --> 00:15:19,560 – quand je dis les jeux, ce sont les jeux d’argent en ligne 269 00:15:19,760 --> 00:15:22,380 – et la recherche d’informations aussi qui peut créer des formes 270 00:15:22,580 --> 00:15:26,520 d’addiction, on cherche toujours à accumuler de nouvelles formes 271 00:15:26,720 --> 00:15:27,480 de savoir. 272 00:15:28,230 --> 00:15:31,350 Pour résumer, on a des réseaux sociaux très populaires, 273 00:15:32,160 --> 00:15:37,110 créés par des ingénieurs qui ont pour but de faire gagner de l’argent 274 00:15:37,310 --> 00:15:42,810 à leur entreprise en maximisant et en rentabilisant l’attention 275 00:15:43,010 --> 00:15:43,770 des usagers. 276 00:15:43,970 --> 00:15:48,090 Pour ce faire, ils créent des mécanismes, des dispositifs techniques 277 00:15:48,300 --> 00:15:51,960 qui vont conforter des biais psychologiques dans la manière 278 00:15:52,160 --> 00:15:55,200 dont fonctionne la psyché humaine afin qu’on reste le plus longtemps 279 00:15:55,400 --> 00:15:56,160 possible. 280 00:15:56,360 --> 00:15:59,760 On sait par ailleurs que ces mécanismes ont également pour conséquence 281 00:16:00,900 --> 00:16:05,040 de graves problèmes psychologiques, de dépréciation négative et surtout 282 00:16:05,310 --> 00:16:06,330 de cyberdépendance. 283 00:16:07,320 --> 00:16:11,520 Quand je vous expose ça de la sorte, la réaction logique est de se dire : 284 00:16:12,000 --> 00:16:17,490 Que fait-on pour empêcher ce phénomène de nuire à la société, 285 00:16:17,690 --> 00:16:22,350 au lien social et au fonctionnement psychologique des adolescents ? 286 00:16:23,040 --> 00:16:26,220 Ce qui veut dire que cette captation de l’attention, cette économie 287 00:16:26,420 --> 00:16:29,700 de l’attention, c’est aussi un enjeu de régulation, régulation 288 00:16:29,900 --> 00:16:32,790 dont on a parlé lors du premier cours sur l’intelligence artificielle. 289 00:16:32,990 --> 00:16:34,440 Là, c’est la même chose. 290 00:16:34,680 --> 00:16:39,300 Quelles règles on peut imposer aux réseaux sociaux afin que ces 291 00:16:39,500 --> 00:16:42,390 réseaux sociaux soient plus respectueux de notre attention, soient plus 292 00:16:42,590 --> 00:16:45,060 respectueux de notre état psychique ? 293 00:16:45,690 --> 00:16:46,980 Il y a différentes manières de s’y prendre. 294 00:16:47,180 --> 00:16:52,650 D’abord, on peut informer les usagers, notamment par une signalétique. 295 00:16:53,220 --> 00:16:55,830 De la même façon que nous avons des signalétiques sur les paquets 296 00:16:56,030 --> 00:16:59,880 de tabac ou sur les bouteilles d’alcool pour inciter les femmes 297 00:17:00,080 --> 00:17:02,400 enceintes à ne pas boire ou les mineurs à ne pas fumer, 298 00:17:03,300 --> 00:17:07,320 on pourrait imaginer une forme de signalétique similaire sur les 299 00:17:07,520 --> 00:17:10,260 plateformes de réseaux sociaux ou sur les applications pour prévenir 300 00:17:10,460 --> 00:17:13,740 les usagers des risques encourus à trop les utiliser. 301 00:17:13,940 --> 00:17:15,570 C’est le premier point. 302 00:17:15,900 --> 00:17:20,430 On pourrait aussi monitorer nos usages, c’est-à-dire superviser nos usages 303 00:17:20,630 --> 00:17:24,780 à travers les applications qui vont nous aider à contrôler notre 304 00:17:24,980 --> 00:17:26,710 consommation de numérique. 305 00:17:26,910 --> 00:17:27,670 C’est déjà le cas. 306 00:17:27,870 --> 00:17:29,850 Il y a beaucoup d’applications qui existent et qui vont vous prévenir, 307 00:17:30,120 --> 00:17:33,180 vous dire : "Vous avez déjà passé une heure sur Instagram aujourd’hui. 308 00:17:33,450 --> 00:17:36,120 Vous avez déjà envoyé 36 tweets. 309 00:17:36,320 --> 00:17:39,060 Êtes-vous sûr de vouloir continuer ?", afin qu’on prenne conscience, 310 00:17:39,260 --> 00:17:43,260 en tant qu’usager, du temps et de l’énergie qu’on dépense dans 311 00:17:43,500 --> 00:17:44,260 ces usages. 312 00:17:44,550 --> 00:17:48,450 Ces applications vont même un peu plus loin en coupant l’accès à 313 00:17:48,650 --> 00:17:51,930 notre téléphone si on l’a utilisé par exemple plus d’une heure par jour. 314 00:17:53,520 --> 00:17:56,760 La régulation à un troisième niveau, c’est la régulation étatique, 315 00:17:56,960 --> 00:18:01,140 c’est-à-dire quelles règles l’État peut imposer aux réseaux sociaux, 316 00:18:01,710 --> 00:18:05,730 sans aller contre la liberté des usagers. 317 00:18:06,120 --> 00:18:08,760 Nous sommes quand même libres d’utiliser les réseaux sociaux. 318 00:18:09,660 --> 00:18:14,190 Il n’est pas souhaitable que l’État décide de combien de temps nous 319 00:18:14,760 --> 00:18:17,010 disposons pour utiliser une application plutôt qu’une autre. 320 00:18:17,460 --> 00:18:20,370 Ce n’est pas là-dessus que doit se concentrer l’action de l’État. 321 00:18:21,270 --> 00:18:25,620 On s’aperçoit que depuis quelques années, différents États en Europe 322 00:18:25,980 --> 00:18:29,550 ont créé de nouvelles lois pour encadrer les usages des réseaux 323 00:18:29,750 --> 00:18:32,460 sociaux, qui reposent notamment sur un principe de transparence. 324 00:18:32,660 --> 00:18:37,170 On impose aux réseaux sociaux d’être plus transparents vis-à-vis de 325 00:18:37,370 --> 00:18:40,650 leurs usagers, sur la manière dont ils utilisent leur attention. 326 00:18:41,700 --> 00:18:44,130 On leur demande aussi d’être plus transparents sur la manière dont 327 00:18:44,330 --> 00:18:47,700 ils fonctionnent afin que l’État puisse contrôler comment fonctionnent 328 00:18:47,900 --> 00:18:48,660 leurs algorithmes, etc. 329 00:18:48,860 --> 00:18:52,620 C’est le cas en France avec la loi sur les manipulations de 330 00:18:52,820 --> 00:18:56,460 l’information ou la loi confortant les principes républicains. 331 00:18:57,000 --> 00:19:00,900 Toutes les deux entendent créer des nouvelles normes auxquelles 332 00:19:01,100 --> 00:19:02,970 doivent se conformer les réseaux sociaux. 333 00:19:03,390 --> 00:19:07,110 Contrairement à une idée reçue qui veut que les réseaux sociaux 334 00:19:07,310 --> 00:19:12,260 seraient plus forts que les États, on s’aperçoit que ces plateformes 335 00:19:12,460 --> 00:19:16,320 ont tendance à obtempérer et à respecter les nouvelles règles 336 00:19:16,520 --> 00:19:21,240 qui leur sont imposées en donnant plus d’informations à leurs usagers. 337 00:19:22,710 --> 00:19:26,490 Pour terminer, dans le domaine de la régulation étatique, 338 00:19:26,690 --> 00:19:30,120 a été présenté, à la fin de l’année 2020, un texte très important au 339 00:19:30,320 --> 00:19:34,020 niveau de l’Union européenne qui s’appelle le DSA, le Digital Services 340 00:19:34,220 --> 00:19:36,990 Act, le règlement pour les services numériques. 341 00:19:37,190 --> 00:19:43,860 C’est un nouveau règlement européen qui vise à encadrer la manière 342 00:19:44,060 --> 00:19:47,430 dont les grandes plateformes de services numériques exercent au 343 00:19:47,630 --> 00:19:48,510 sein de l’Union européenne. 344 00:19:49,230 --> 00:19:53,250 Parmi les différentes nouvelles règles imposées par ce DSA, 345 00:19:53,700 --> 00:19:58,620 cette nouvelle réglementation européenne, on retrouve la limitation 346 00:19:59,610 --> 00:20:04,050 des mécanismes qui confortent des biais psychologiques chez les usagers, 347 00:20:04,380 --> 00:20:09,360 qu’on appelle parfois les dark patterns, des dispositifs qui cherchent 348 00:20:09,560 --> 00:20:11,760 à vous faire agir d’une certaine façon mais d’une manière cachée. 349 00:20:12,060 --> 00:20:13,590 Le DSA les interdit. 350 00:20:14,340 --> 00:20:16,920 Il oblige aussi les réseaux sociaux à être plus transparents. 351 00:20:17,220 --> 00:20:21,480 Il oblige aussi les réseaux sociaux à accepter d’auditer leurs serveurs 352 00:20:21,840 --> 00:20:29,970 afin que les pouvoirs publics puissent vérifier que les droits des usagers 353 00:20:30,170 --> 00:20:31,320 sont respectés. 354 00:20:32,430 --> 00:20:35,430 Ce Digital Services Act, ce règlement sur les services 355 00:20:35,630 --> 00:20:41,070 numériques, est entré en vigueur en janvier 2022. 356 00:20:41,270 --> 00:20:45,690 Reste à voir comment il sera vraiment appliqué et à quel point les 357 00:20:45,890 --> 00:20:47,760 plateformes seront contraintes. 358 00:20:48,240 --> 00:20:51,960 En tout cas, il s’agit d’une nouvelle donne dans les usages du numérique. 359 00:20:52,440 --> 00:20:55,400 On en attend beaucoup, les régulateurs en attendent beaucoup, 360 00:20:55,600 --> 00:20:56,700 la société en attend beaucoup. 361 00:20:56,900 --> 00:20:57,870 C’est une affaire à suivre.