- Messages : 18193
L'industrie hi-tech critiquée... de l'intérieur
- Loys
- Auteur du sujet
Clé utilisateur/ secrète de la configuration non valide
Sur "CNBC" du 23/04/18 à propos d'Alexis Ohanian (co-fondateur de Reddit) : www.cnbc.com/video/2018/04/23/reddit-co-...ter-to-be-bored.html
My wife Serena Williams and I want our daughter ‘to be bored’ [...] My wife and I both want her to know what it’s like to have limits on tech…I do look forward to playing video games with her when she’s older, but it’s really important that she gets time to just be with her thoughts and be with her blocks and be with her toys, so we’ll be regulating it pretty heavily.”
Dans "Le Monde" (abonnés) du 11/03/18 : "Sus aux pirates de nos esprits !"
Quelque chose est masqué pour les invités. Veuillez vous connecter ou vous enregistrer pour le visualiser.
Dans "The Independent" du 14/03/2018 : "Silicon Valley parents are raising their kids tech-free — and it should be a red flag"
Chris Weller
Wednesday 14 March 2018 18:26 GMT
Silicon Valley parents can see firsthand, either through living or working in the Bay Area, that technology is potentially harmful to kids.
Many parents are now restricting, or outright banning, screen time for their children.
The trend follows a long-standing practice among high-level tech executives who have set limits for their own children for years.
This is an installment of Business Insider's "Your Brain on Apps" series that investigates how addictive apps can influence behavior.
It's 9 a.m. in Sunnyvale, California and Minni Shahi is on her way to work at the Apple headquarters in Cupertino. Her husband, a former Googler named Vijay Koduri, is meeting his business partner at a local Starbucks to discuss their startup, a YouTube clip-making business called HashCut.
Shahi and Koduri's two kids, 10-year-old Saurav and 12-year-old Roshni, have already been dropped off at school, likely immersed in one of the Google Chromebooks they were issued at the start of the year.
The Koduris' life is that of the quintessential Silicon Valley family, except for one thing. The technology developed by Koduri and Shahi's employers is all but banned at the family's home.
There are no video game systems inside the Koduri household, and neither child has their own cell phone yet. Saurav and Roshni can play games on their parents' phones, but only for 10 minutes per week. (There are no limits to using the family's vast library of board games.) Awhile back the family bought an iPad 2, but for the last five years it's lived on the highest shelf in a linen closet.
"We know at some point they will need to get their own phones," Koduri, 44, told Business Insider. "But we are prolonging it as long as possible."
'The difference is, they don't think of themselves as dangerous'
Koduri and Shahi represent a new kind of Silicon Valley parent. Instead of tricking out their homes with all the latest technology, many of today's parents working or living in the tech world are limiting — and sometimes outright banning — how much screen time their kids get.
The approach stems from parents seeing firsthand, either through their job, or simply by living in the Bay Area — a region home to the most valuable tech companies on Earth — how much time and effort goes into making digital technology irresistible.
A 2017 survey conducted by the Silicon Valley Community Foundation found among 907 Silicon Valley parents that despite high confidence in technology's benefits, many parents now have serious concerns about tech's impact on kids' psychological and social development.
"You can't put your face in a device and expect to develop a long-term attention span," Taewoo Kim, chief AI engineer at the machine-learning startup One Smart Lab, told Business Insider. A practicing Buddhist, Kim is teaching his nieces and nephews, ages 4 to 11, to meditate and appreciate screen-free games and puzzles. Once a year he takes them on tech-free silent retreats at nearby Buddhist temples.
Former employees at major tech companies, some of them high-level executives, have gone public to condemn the companies' intense focus on building addictive tech products. The discussions have triggered further research from the psychology community, all of which has gradually convinced many parents that a child's palm is no place for devices so potent.
"The tech companies do know that the sooner you get kids, adolescents, or teenagers used to your platform, the easier it is to become a lifelong habit," Koduri told Business Insider. It's no coincidence, he said, that Google has made a push into schools with Google Docs, Google Sheets, and the learning management suite Google Classroom.
Turning kids into loyal customers of unhealthy products isn't exactly a new strategy. Some estimates find that major tobacco companies spend nearly $9 billion a year, or $24 million a day, marketing their products in the hopes kids will use them for life. The same principle helps explain why fast-food chains offer kids' meals: Brand loyalty is lucrative.
"The difference [with Google] is they don't think of themselves as dangerous," Koduri said. "Google for sure thinks of themselves of 'Hey, we're the good guys. We're helping kids. We're helping classrooms.' And I'm sure Apple does as well. And I'm sure Microsoft does as well."
In San Francisco, parents notice a 'malaise of scrolling'
Erika Boissiere has little doubt that tech is poison to young brains.
The 37-year-old mom of two in San Francisco works as a family therapist alongside her husband. She said they both make an effort to stay current with screen-time research, which, despite suffering a lack of long-term data, has nevertheless found a host of short-term consequences among teens and adolescents who are heavy users of tech. These include heightened risks for depression, anxiety, and, in extreme cases, suicide.
Many of the fellow parents she and her husband talk to have said they notice an anti-tech sentiment, too. Just by living in the world's tech epicenter, the couple has front row seats to what Boissiere called a "malaise of scrolling."
"We live on a pretty trafficked street," Boissiere told Business Insider. In the 15 years they've lived there, she's noticed "a noticeable shift that everybody is on their phones on the bus. It doesn't seem like someone's reading a Kindle, for example."
Boissiere will go to great lengths to prevent her kids, 2-year-old Jack and 5-year-old Elise, from having even the most basic interactions with technology. She and her husband haven't installed any TVs in the house, and they avoid all cell-phone use in the kids' presence — a strict policy the couple also requires of their 28-year-old nanny, who Boissiere said has been caught scrolling on the job.
The couple has devised a strategy to help them stick to their policy. When the two of them get home from work, they each put their phone by the door. On most nights, they'll check the phones just once or twice before they go to bed, Boissiere said. Sometimes she'll break the rule, but more than once her kids have entered the room while she's mid-text, sending their mom fleeing into the nearest bathroom.
Around 10:30 p.m., Boissiere and her husband get in bed and end the day with an episode of "Black Mirror" on their laptop: a dose of morbid reassurance that the anti-tech approach is for the best.
Low-tech parenting has been a quiet staple among Silicon Valley moguls for years
Silicon Valley's low- and anti-tech parents may seem overly cautious, but they actually follow longstanding practices of former and current tech giants like Bill Gates, Steve Jobs, and Tim Cook.
In 2007, Gates, the former CEO of Microsoft, implemented a cap on screen time when his daughter started developing an unhealthy attachment to a video game. Later it became family policy not to allow kids to have their own phones until they turned 14. Today, the average American child get their first phone around age 10.
Jobs, the CEO of Apple until his death in 2012, revealed in a 2011 New York Times interview that he prohibited his kids from using the newly-released iPad. "We limit how much technology our kids use at home," Jobs told reporter Nick Bilton.
Even Cook, the current Apple CEO, said in January that he doesn't allow his nephew to join online social networks. The comment followed those of other tech luminaries , who have condemned social media as detrimental to society.
Cook later conceded Apple products aren't meant for constant use.
"I'm not a person that says we've achieved success if you're using it all the time," he said. "I don't subscribe to that at all."
Kids aren't necessarily hooked for life
A silver lining to constant tech use is that negative effects don't seem to be permanent.
One of the more hopeful studies, and one often cited by psychologists, was published in 2014 in the peer-reviewed journal Computers in Human Behavior. It involved roughly 100 pre-teens, half of whom spent five days on a tech-free retreat engaged in activities like archery, hiking, and orienteering. The other half stayed home and served as the control.
The tech companies do know that the sooner you get kids, adolescents, or teenagers used to your platform, the easier it is to become a lifelong habit.
After just five days at the retreat, researchers saw huge gains in empathy levels among the participating kids. Those in the experimental group started scoring higher in their nonverbal emotional cues, more often smiling at another child's success or looking distressed if they witnessed a nasty fall.
The researchers concluded: "The results of this study should introduce a much-needed societal conversation about the costs and benefits of the enormous amount of time children spend with screens, both inside and outside the classroom."
Schools have started accommodating the anti-tech parent
Not all parents who raise their kids low-tech strive to keep the same standards when it comes to education. Koduri's kids, for instance, share a Macbook Air for homework and use Google Chromebooks at school.
But around Silicon Valley, a number of low-tech schools have popped up in an effort to reintroduce the basics. At the Waldorf School of the Peninsula, a private school in Los Altos, California, kids use chalkboards and No. 2 pencils. Faculty don't introduce kids to screen-based devices until they reach the eighth grade.
At Brightworks School, a K-12 private school in San Francisco, kids learn creativity by using power tools, dismantling radios, and attending classes in treehouses.
Meanwhile, at many public schools, technology has become a guiding force, according to educators Joe Clement and Matt Miles. In their 2017 book "Screen Schooled," the co-authors make the case that technology does far more harm than good, even when it's used to boost scores in reading and math.
"It's interesting to think that in a modern public school, where kids are being required to use electronic devices like iPads, Steve Jobs's kids would be some of the only kids opted out," they wrote. (Jobs' children have finished school, so it's impossible to verify if that would have been true.)
The apparent double standard still lingers, they argue. As the authors wrote, "What is it these wealthy tech executives know about their own products that their consumers don't?"
Parents of older kids see changes across generations
On the western edge of the San Francisco Bay, in San Mateo, tech entrepreneur Amy Pressman lives with her husband and two kids, 14-year-old Mia and 16-year-old Jacob. Her oldest child, 20-year-old Brian, is a sophomore in college. (Business Insider has changed each child's name at Pressman's request.)
Though she no longer has control of what Brian does when he's away at school, at home Pressman is strict. There are no devices at the dinner table. After 10 p.m., kids must surrender their phones and leave them charging in the kitchen overnight. Weekly gaming is limited to five to seven hours a week.
This world didn't exist when I was growing up.
Like Koduri, who said he fondly remembers playing outside as a kid and raises his own kids with that upbringing in mind, Pressman longs to return to a more analog world.
"Kids aren't going out and just playing in the street," Pressman, co-founder and president of the software company Medallia, told Business Insider. "My older son would have more of his friends come over and hang out than my younger children do."
In the past few years, the family has gotten a lot better about spending time together, she said. Instead of family members coming home and installing themselves in separate rooms, eyes glued to devices, they now make use of season tickets to the theatre and keep an ongoing ranking of San Francisco's best ice cream shops.
A couple years ago, Pressman planned a trip to Death Valley over a long weekend. The lack of USB charging ports and Wifi were two of the destination's main selling points.
"The connectivity there was pretty abysmal," she said. "That was lovely."
Daily restrictions are tough, but they may be worth it
Pressman and other parents told Business Insider that it's often hard to strike a balance in limiting tech use, since kids quickly begin to feel left out of their peer group. The longer parents try to impose their restrictions, the more they fear they're essentially raising a well-adjusted outcast.
"I've got no role model for how to deal with this world," Pressman said. "This world didn't exist when I was growing up, and the restrictions my parents put on TV use don't make sense in the world of technology when the computer is both your entertainment and your homework and your encyclopedia."
Many parents who spoke to Business Insider said their best defense against tech addiction is to introduce replacement activities or find ways to use tech more productively. When California droughts wiped out Koduri's backyard, he filled the lot with cement and built a basketball court, which both of his kids and their friends use. When Pressman noticed her daughter taking an interest in computers, the two of them signed up to learn programming together.
These parents hope they can teach their kids to enter adulthood with a healthy set of expectations for how to use — and, in certain cases, avoid — technology. Every so often, they said, a glimmer of hope shines through.
In just the few years since Pressman began advocating for less tech use, her oldest son has started to see the value in cutting back on screens. A math major who prefers to use hardcover books, Brian told his mom he finds digital versions distracting.
As Pressman recalled, the family was in the middle of a long road trip around Christmas last year when, out of nowhere, he surprised his mother with something few parents ever tire of hearing: an admission of error.
"You know how you're always railing on social media, and I thought you were all wrong?" Pressman recalled Brian telling her, referring to her many tirades calling for "real" human interaction. "Well," he said, "I'm coming to think you're right."
Sur "CBS News" du 30/05/2018 : "Why many Silicon Valley parents are curbing their kids' tech time"
cbs-mornings
May 30, 2018 / 8:23 AM EDT / CBS News
In Silicon Valley, devices are an essential part of daily life. But many of the tech titans creating these products choose to power down when they leave the office, following industry giants like Bill Gates and Steve Jobs who restricted their own kids' access to technology at home.
"Truth About Tech" campaign takes on tech addiction
Pierre Laurent, who has worked for companies including Microsoft and Intel, said he and his family typically leave their phones at a table to charge when at home. He says the tech industry designs products to hook users, reports CBS News' Jamie Yuccas.
nfa-yuccas-tech-free-families-needs-gfx-frame-6379.jpg
Pierre and Monica Laurent CBS News
"I don't think the parents are aware of that. They don't see the consequences because nobody's told them, you know, there's no warning on the product," Laurent said.
Pierre and his wife Monica became concerned that their three children would miss out on real-life experiences while on their devices so they decided to limit their screen time. Researchers are still learning more about how technology affects kids but some early studies of heavy tech users show potential links to a rise in teen suicide rates, addiction, anxiety and loss of social skills.
"There was some pressure, especially the last one," Pierre said of how his kids react to the rules. "She didn't want to miss out on something and then we said, 'no it's not the right time.'"
None of the three children played video games or watched TV, and they didn't get cell phones until they were teenagers. Their 13-year-old daughter Maia spends her free time knitting and playing in the backyard.
When asked if she ever misses technology, Maia said, "Not really….The only thing I might miss technology for is listening to music or an audio book."
Their use of tech is limited both at home and at school. At the Waldorf School, where Monica is a teacher, nearly 75 percent of the kids have parents who work in tech. The school favors physical activity and art over technology. Computers are not introduced until eighth grade. Teachers use a hand clapping game to practice multiplication tables.
nfa-yuccas-tech-free-families-needs-gfx-frame-5765.jpg
Maia Laurent CBS News
"Every parent is really struggling with how to reap the benefits of technology while minimizing some of the risks," Caroline Knoor said. She is the senior parenting editor for Common Sense Media, a non-profit that studies the effect of media and technology on kids.
"We do need to look at the technology itself and understand that there's a lot of stuff in there that is absolutely designed to change user behavior and these programs are reaching children at younger and younger ages," Knoor said.
The organization says there's no magic number on how much screen time kids should have and cautions that imposing limits ignores potential benefits. They recommend paying close attention to kids' demeanor while using their devices and creating a schedule with guidelines on the types of tech activities they can do – and for how long.
Even after getting a cellphone this year, Maia says she prefers to spend time baking and doing crafts.
"I do stuff with my hands a lot," Maia said. "I find it more fun to do that than to just watch stuff and go on social media."
For Monica and Pierre, the hope is that a tech-free childhood will lead to more balance later in life.
"I really believe that there is a time for technology, it's not a forbidden fruit, it should not be. But I think especially young children need to grow in a different environment that doesn't have that much technology in it," Monica said.
Connexion ou Créer un compte pour participer à la conversation.
- Loys
- Auteur du sujet
- Messages : 18193
The head of Apple, Tim Cook, believes there should be limits to the use of technology in schools and says he does not want his nephew to use a social network.
Cook was talking at Harlow college in Essex, one of 70 institutions across Europe that will use Apple’s Everyone Can Code curriculum, it was announced on Friday.
“I don’t believe in overuse [of technology]. I’m not a person that says we’ve achieved success if you’re using it all the time,” he said. “I don’t subscribe to that at all.”
Even in computer-aided courses, such as graphic design, technology should not dominate, he said.
“There are are still concepts that you want to talk about and understand. In a course on literature, do I think you should use technology a lot? Probably not.”
The 57-year old chief executive, who took the reins at Apple after the death of Steve Jobs in 2011, said the company cared deeply about children outside the classroom.
“I don’t have a kid, but I have a nephew that I put some boundaries on. There are some things that I won’t allow; I don’t want them on a social network.”
Voir cette synthèse : www.rts.ch/play/tv/19h30/video/les-stars...ecbe7f6bed0446cdf8da
Connexion ou Créer un compte pour participer à la conversation.
- Loys
- Auteur du sujet
- Messages : 18193
Quelque chose est masqué pour les invités. Veuillez vous connecter ou vous enregistrer pour le visualiser.
www.nytimes.com/2018/10/26/style/silicon...s.html?module=inline
Quelque chose est masqué pour les invités. Veuillez vous connecter ou vous enregistrer pour le visualiser.
www.nytimes.com/2018/10/26/style/digital...id=nytcore-ios-share
Quelque chose est masqué pour les invités. Veuillez vous connecter ou vous enregistrer pour le visualiser.
www.nytimes.com/2018/10/30/style/kids-st...pps-advertising.html
Quelque chose est masqué pour les invités. Veuillez vous connecter ou vous enregistrer pour le visualiser.
Dans "Courrier international" du 14/12/18, traduction d'un article de Nellie Bowles : "Aux États-Unis, la déconnexion est réservée aux enfants riches" .
Quelque chose est masqué pour les invités. Veuillez vous connecter ou vous enregistrer pour le visualiser.
Dans le "NYT" du 8/11/18 à propos de Sundar Pichai (Google) : www.nytimes.com/2018/11/08/business/sund...e-corner-office.html
When I come home on a Friday evening, I really do want to let go of my devices for a couple days. I haven’t quite succeeded in doing that. At home, our television is not easily accessible, so that there is “activation energy” before you can easily go watch TV. I’m genuinely conflicted, because I see what my kids learn from all this. My son is 11 years old, and he is mining Ethereum and earning money. He’s getting some insight into how the world works, how commerce works.
Every generation is worried about the new technology, and feels like this time it’s different. Our parents worried about Elvis Presley’s influence on kids. So, I’m always asking the question, “Why would it be any different this time?” Having said that, I do realize the change that’s happening now is much faster than ever before. My son still doesn’t have a phone.
Connexion ou Créer un compte pour participer à la conversation.
- Loys
- Auteur du sujet
- Messages : 18193
Quelque chose est masqué pour les invités. Veuillez vous connecter ou vous enregistrer pour le visualiser.
Dans "Télérama" (abonnés) du 10/09/19 : "Cette école de la Silicon Valley où les écrans sont bannis"
Connexion ou Créer un compte pour participer à la conversation.
- Messages : 279
nymag.com/tags/the-internet-apologizes/
nymag.com/intelligencer/2018/04/an-apolo...le-who-built-it.html
Je retiens en particulier les remarques de Jaron Lanier sur la contradiction désastreuse entre la position de pouvoir et la mentalité de forteresse assiégiée :
We used to be kind of rebels, like, if you go back to the origins of Silicon Valley culture, there were these big traditional companies like IBM that seemed to be impenetrable fortresses. And we had to create our own world. To us, we were the underdogs and we had to struggle. And we’ve won. I mean, we have just totally won. We run everything. We are the conduit of everything else happening in the world. We’ve disrupted absolutely everything. Politics, finance, education, media, relationships — family relationships, romantic relationships — we’ve put ourselves in the middle of everything, we’ve absolutely won. But we don’t act like it.
We have no sense of balance or modesty or graciousness having won. We’re still acting as if we’re in trouble and we have to defend ourselves, which is preposterous. And so in doing that we really kind of turn into assholes, you know?
Connexion ou Créer un compte pour participer à la conversation.
- Loys
- Auteur du sujet
- Messages : 18193
Transcription de l'audition traduite par Florent Souillot du collectif "Lève les yeux" : www.levelesyeux.com/le-plaidoyer-de-tris...-le-senat-americain/
Bonjour,
J’aimerais vous montrer aujourd’hui à quel point les technologies de la persuasion constituent une force puissante et sous-estimée qui façonne le monde dans lequel nous vivons, et comment cette prise de contrôle nous conduira dans le mur si nous ne réagissons pas rapidement. Chaque jour, la technologie guide le regard de deux milliards d’êtres humains, leur indique l’endroit où poser leur attention, influence leur vérité, leurs relations, leur position sociale et le développement de leurs enfants.
Je suis ravi d’être ici devant vous car vous êtes en mesure de changer cela maintenant.
Comment en sommes-nous arrivés là ? Alors qu’on aime débattre de la façon dont le pouvoir asymétrique de la technologie prendra le relai de nos capacités humaines, jusqu’à nous remplacer au travail, nous n’avons pas vu comment, avant tout cela, il a pris le contrôle de nos faiblesses. C’est pourtant tout ce qu’il faut pour prendre le contrôle, et c’est ce que font les technologies de la persuasion. J’ai découvert cela enfant, en apprenant la magie. Parce que, comme dans la magie, pas besoin d’être plus intelligent que votre public, il suffit juste de connaître ses faiblesses.
Plus tard lors de mes études j’ai suivi les enseignements du Laboratoire de Technologie Persuasive de Stanford, aux côtés des fondateurs d’Instagram, et j’ai découvert comment les technologies pouvaient influencer nos attitudes, nos croyances et nos actes.
Chez Google j’étais designer éthique et mon travail consistait à manier ces outils pour influencer les pensées de deux milliards d’êtres humains. Dans l’économie de l’attention, le modèle publicitaire n’est jamais rassasié : nous nous sommes alors lancés dans la course vers les profondeurs du cerveau. Chaque fois qu’une technologie pénètre un peu plus profondément notre cerveau, elle prend un peu plus le contrôle de notre société.
Cela commence doucement.
D’abord il s’agit d’attirer votre attention et de créer de petites addictions : nous avons ajouté l’option-récompense « tirer pour rafraîchir »[1]. Nous avons ensuite enlevé tous les obstacles au « défilement infini[2] », pour que votre esprit n’ait pas la possibilité de faire autre chose.
Ce n’était qu’un début.
Dans un environnement très compétitif, nous devions aller plus profondément encore dans votre cerveau et pénétrer les mécanismes liés à votre identité. L’objectif est de vous rendre accro à l’attention de ceux qui vous entourent. En indiquant le nombre de followers et de likes, la technologie a pris le contrôle de notre évaluation sociale. Les gens sont devenus obsédés par l’évaluation continue émise par leurs semblables, ce qui a déclenché une véritable crise de santé mentale chez les adolescents.
L’étape suivante de l’économie de l’attention est celle de la bataille des algorithmes. Pas de fission de l’atome ici, mais bien la fragmentation de notre attention pour que la machine définisse le contenu précis qui vous fera immanquablement rester plus longtemps devant l’écran – la prochaine vidéo Youtube qui se déclenchera automatiquement, le prochain post qui s’affichera sur votre mur d’actualités.
La technologie analyse toutes nos actions en ligne pour créer un avatar, une sorte de poupée vaudou qui nous représente. Avec plus d’un milliard d’heures de visionnage par jour, elle nous dit ce qu’il faut croire, tout en détruisant notre vivre ensemble, nos croyances communes, notre calme.
Tant que cette course continuera, l’asymétrie de pouvoir augmentera et mettra en échec notre esprit, jusqu’à l’effondrement de la vérité.
Tous ces enjeux sont reliés car ils constituent un accroissement de l’asymétrie entre les technologies et les faiblesses humaines, influençant chaque jour davantage notre société.
Tous ces périls font partie d’un ensemble plus large que nous appelons « le déclassement humain[3] ». Comment résoudre les défis les plus urgents de notre monde si l’on continue à dégrader notre attention, notre capacité à traiter des sujets complexes et à faire preuve de nuance, notre foi en notre collectif, en nos croyances, au profit des théories du complot qui nous enjoignent au cynisme ?
Tout cela détruit notre sensibilité au moment où nous en avons le plus besoin. Et si je suis ici aujourd’hui c’est parce que la situation s’aggrave chaque jour.
Nous devons nommer le problème, à savoir un déséquilibre croissant entre le pouvoir des technologies et les limites de l’esprit humain. Jusqu’à présent les entreprises de la technologie ont voulu nous faire croire que nous étions vis-à-vis d’elles dans une relation équitable, de gré à gré. Cette relation est au contraire totalement déséquilibrée. Les plateformes se disent neutres pour nous faire croire justement que nous sommes dans des relations d’égal à égal entre usagers.
En réalité le rôle des plateformes s’apparente bien plus à celui que tiendrait un psychologue, un avocat ou un prêtre, détenant toutes les informations compromettantes et sensibles sur nous et sur ce qui peut nous influencer, nous forçant à les croire et à leur faire confiance. Sauf qu’à la différence d’un docteur ou d’un avocat, ces entreprises détiennent la vérité, toute la vérité et rien que la vérité sur nous, et qu’elles peuvent de mieux en mieux prévoir tous les actes de notre vie.
Dans un système fondé sur l’exploitation économique de notre attention, elles doivent profiter de cette asymétrie, quel qu’en soit le coût pour nous.
Il s’agit donc de refondre ce modèle économique pour le rendre responsable. Il faut qu’à l’asymétrie de pouvoir soit corrélée l’asymétrie de responsabilité. C’est une condition pour éviter les catastrophes à venir causées par une technologie prédisant nos actes.
Le rôle d’un gouvernement est de protéger les citoyens. En essayant de changer Google de l’intérieur, j’ai découvert que seules les pressions extérieures exercées par les gouvernants, les actionnaires ou les médias pouvaient influencer les entreprises et changer la donne.
Une action de la part de nos gouvernants est aujourd’hui nécessaire car le déclassement humain que nous vivons influence notre positionnement à l’international et notre compétitivité, en particulier vis-à-vis de la Chine. Dégrader notre système de santé, notre capacité à penser et à exercer notre esprit critique revient à nous saborder à long terme sur la scène internationale.
« Les logiciels mangent le monde », disait Marc Andreesen, le créateur de Netscape, sans que personne ne les ait rendus responsables de protéger la société. Facebook « mange » le temps de parole des futurs élus tout en supprimant toute transparence pour maintenir des pratiques équitables. Youtube « mange » le cerveau de nos enfants tout en supprimant les garde-fous bâtis à l’époque pour encadrer le contenu des dessins animés du samedi matin.
Il y a cinquante ans, M. Rogers vous a confié sa crainte de voir la télévision et les dessins animés entrer dans la course aux contenus violents. Youtube, TikTok, Instagram sont de ce point de vue bien pires, et influencent une population immensément plus large. Tout seul , Mr. Rogers n’aurait pas une chance de nos jours… Mais cinquante ans plus tôt, vous avez eu le courage de prendre une décision pour réguler les dessins animés à la télévision, ce qui a changé la donne. J’espère que vous en serez aussi capables aujourd’hui.
Merci,
Tristan Harris
Technologie de la persuasion et optimisation de l’engagement
Qui suis-je et pourquoi suis-je ici ?
J’ai essayé de changer la politique de Google de l’intérieur, en tant que designer éthique, après que Google a racheté mon entreprise en 2011. J’ai échoué car rien n’incite les entreprises à le faire. J’ai découvert que seule l’influence extérieure des gouvernants, des actionnaires, des médias, des annonceurs pouvait amener ce changement.
Persuasion et magie
La persuasion est une question d’asymétrie de pouvoir.
J’ai appris cela enfant en découvrant la magie. J’ai appris que l’esprit humain était très vulnérable et influençable. Le magicien nous dit « Piochez n’importe quelle carte ! ». De votre côté vous pensez que votre choix est libre, alors que le magicien, avant même que vous ne choisissiez une carte, a truqué le paquet et connaît déjà le résultat. Ce tour est possible car celui qui tient les cartes sait la façon dont votre esprit fonctionne, alors que vous non.
A l’université, j’ai étudié au Laboratoire de technologie persuasive de Stanford pour comprendre comment la technologie pouvait influencer nos attitudes, nos croyances, nos comportements. Je travaillais sur des projets avec les fondateurs d’Instagram, nous avons lancé le prototype d’une application persuasive faite pour soulager de la dépression, appelée « Transmets du soleil ». Comme la magie, la technologie de la persuasion consiste en une asymétrie de pouvoir, une capacité croissante à influencer le comportement de l’autre.
Echelle des plateformes et course à l’attention
De nos jours, les grandes plateformes ont plus d’influence et en savent plus sur nos actions quotidiennes que n’importe quel gouvernement. 2,3 milliards de personnes utilisent Facebook, l’équivalent de la Chrétienté dans le monde. 1,9 milliards utilisent Youtube, soit plus que l’Islam et le Judaïsme réunis. Ceci n’est pas neutre.
Le modèle de revenus publicitaires conditionne le profit de ces plateformes à la quantité d’attention captée. C’est la course « au plus profond du cerveau humain », pour atteindre ses zones les plus reculées – notre cerveau reptilien – lieu de la dopamine, de la peur, de la colère, et en extraire le maximum d’attention.
Comment la technologie a piraté nos faiblesses
Cela commence par la captation de l’attention. Les techniques comme « pull to refresh » fonctionnent comme des machines à sous pour nous forcer à continuer à jouer, même pour rien. Le « scroll infini » nous ôte toute possibilité de stopper le défilement des contenus. Vous pouvez essayer de vous imposer une forme de contrôle, mais en face de vous, de l’autre côté de l’écran, ce sont des milliers d’ingénieurs qui travaillent pour éviter cela.
Le design a ensuite évolué vers un nouvel objectif : faire que les gens deviennent accros à l’attention des autres. Des fonctionnalités comme « follow / suivre » ou « like / j’aime » ont poussé les gens à créer et développer leur audience personnelle, faite de validation sociale au compte-goutte, alimentant de fait le jeu de comparaison et l’émergence du statut « d’influenceur ». Tout d’un coup, tout le monde devait être connu.
La course est allée plus loin dans la persuasion de notre identité : les applications de partage de photographies qui contiennent des options de « filtre de beauté », altérant la réalité de notre image, capturent mieux l’attention que celles qui n’en proposent pas. Cela a alimenté le Syndrome de dysmorphie[4] en modifiant l’idée que des millions d’adolescents se font d’eux-mêmes, c’est-à-dire en leur imposant des versions irréalistes d’eux-mêmes et en renforçant l’évaluation sociale continue dont ils sont l’objet. Ce principe fait que les gens ne vous aiment que si vous semblez différent de ce que vous êtes réellement. 55% des cas de chirurgies plastiques en 2018 sont le fait de patients souhaitant améliorer leurs selfies (ils étaient 13% en 2016). Au lieu des seules plateformes luttant une par une pour notre attention, nous nous retrouvons avec un échantillon d’outils utiles en la matière, chacun d’entre nous luttant pour l’attention des autres en utilisant différentes plateformes.
Être constamment visibles des autres a entraîné une anxiété sociale et une crise massive de la santé mentale. Il vous est impossible de vous déconnecter si votre réputation sociale risque d’être ruinée le temps que vous arriviez à la maison. Après environ 20 ans de baisse, les symptômes de forte dépression des adolescentes de 13 à 18 ans ont augmenté de 170% entre 2010 et 2017. Dans le même temps, la plupart des parents n’ont jamais été mis au courant de l’asymétrie grandissante entre la technologie de la persuasion et nos faiblesses humaines.
L’intelligence artificielle pour extraire l’attention, le rôle des algorithmes
La course à l’armement pour l’attention s’est déplacée vers les algorithmes et l’intelligence artificielle : les entreprises luttent pour détenir l’algorithme qui prédira le plus efficacement ce qui retiendra les usagers le plus longtemps face à l’écran.
Par exemple, vous lancez une vidéo « Youtube » et vous vous dîtes, « je me souviens ces fois où je suis resté sur Youtube, mais cette fois-ci ce sera différent !». Deux heures plus tard vous vous réveillez comme d’une transe et vous vous dîtes « c’est incroyable c’est encore arrivé ! ». Dire que nous devrions faire preuve de self-control, c’est nier l’asymétrie invisible de pouvoir : Youtube a un super ordinateur braqué sur votre cerveau.
Quand vous cliquez sur « Play », Youtube réveille votre avatar, une poupée vaudou à votre effigie. Tous vos clics sur les différentes vidéos, tous vos « j’aime », toutes vos vues, participent à l’amélioration de votre poupée dans tous ses détails, vous ressemblant de plus en plus pour que vos actions soient de plus en plus prévisibles. Youtube « pique » alors votre poupée avec ses millions de vidéos pour simuler et prédire celles qui vous maintiendront en ligne. C’est comme jouer aux échecs contre Garry Kasparov, vous allez perdre. Les machines de Youtube ont trop de coups d’avance.
C’est exactement ce qui s’est produit : 70% du trafic de Youtube résulte maintenant de recommandations automatiques, provenant de ce que « notre moteur de recommandation offre à vous » disait Neal Mohan, CPO de Youtube. Avec plus d’un milliard d’heures de vidéos regardées chaque jour, les algorithmes ont déjà pris le contrôle de la pensée de deux milliards de personnes.
Emmener la colonie de fourmis jusqu’à « Crazytown »
Imaginez l’éventail des vidéos sur Youtube, depuis le côté « calme » des contenus rationnels, étayés, scientifiques, longs (la section « Walter Cronkite »), jusqu’au versant opposé que nous appelerions « Crazytown ».
Comme Youtube veut maximiser notre temps de visionnage, il pousse toute la communauté humaine à pencher vers le versant « Crazytown ». C’est « l’extrémisme algorithmique » :
les adolescentes qui ont cherché des vidéos avec le mot « régime » sur Youtube se sont vues proposer des vidéos sur l’anorexie ;
Le site AlgoTransparency.org montre que les mots-clefs les plus représentés par les vidéos recommandées automatiquement sur Youtube sont : « être scolarisé », « mettre en lambeaux », « ridicules », « démantelés », « débats », « déchirés », « confronter », « détruit », « haït », « démolis », « effacés » ;
en visionnant les vidéos sur la conquête spatiale de la NASA, les vidéos conspirationnistes « La Terre est plate » ont été recommandées des millions de fois avant d’être déréférencées ;
Youtube a recommandé les vidéos d’Alex Jones InfoWars 15 milliards de fois – soit plus que tous les trafics réunis du NYTimes, du Guardian, du Washington Post et de Fox News ;
Plus de 50% des activistes extrémistes utilisent Internet pour diffuser leurs contenus (étude Bellingcat). Youtube est le site qu’ils utilisent le plus ;
Lorsque le rapport Mueller sur le rôle joué par la Russie dans les élections américaines de 2016 a été publié, les reportages de RussiaToday’s ont été les plus recommandés, parmi plus de 1000 autres chaînes ;
Les adultes consultant des contenus sexuels se sont vus recommander des vidéos contenant d’avantage d’actrices jeunes, puis d’adolescentes puis d’enfants jouant en maillots de bain (article NYT) ;
Les fake news se propagent six fois plus vite que les informations éditorialisées, au contraire des nouvelles réelles, qui sont limitées par la réalité des faits (MIT Twitter Study).
La liberté de parole n’est pas la même chose que la liberté d’atteindre. Tout le monde a le droit de s’exprimer, mais personne ne doit avoir celui d’utiliser un mégaphone pour atteindre les oreilles de deux milliards de personnes. Les plateformes sociales amplifient les discours clivants sans appliquer aucun standards ni pratiques utilisés régulièrement par les médias et diffuseurs traditionnels. Si l’on devait écrire la devise des plateformes technologiques, ce serait « avec un grand pouvoir n’est venue aucune responsabilité ».
Une relation égale ou asymétrique ?
Une fois que l’on a constaté à quel point les technologies ont pris le contrôle des individus, nous devons interroger la nature du contrat commercial liant l’usager à la plateforme : est-ce un contrat équilibré entre deux parties, ou la manifestation d’une relation déséquilibrée et asymétrique ?
Il y a eu un grand malentendu sur la nature de la relation commerciale liant la plateforme et l’usager, lié au fait que les plateformes se sont toujours présentées comme des partenaires ouverts à pouvoir équitable. Dans les faits, elles jouent beaucoup plus le rôle d’un psychologue, d’un avocat ou d’un prêtre. Elles ont un degré d’information supérieur au vôtre et vous imposent leur pacte de confiance.
Dire « nous donnons aux gens ce qu’ils veulent » ou « nous sommes des plateformes neutres » dissimule en réalité une dangereuse asymétrie. Google et Facebook détiennent une telle quantité d’informations compromettantes sur deux milliards d’humains, qu’elles excèdent largement le rôle d’un psychologue, d’un avocat ou d’un prêtre, tout en maximisant certains comportements pour en tirer des bénéfices.
L’asymétrie ne fera que s’aggraver exponentiellement
La raison pour laquelle nous devons rétablir la balance maintenant est que la situation va empirer. L’intelligence artificielle augmentera les capacités de la technologie à prédire ce qui manipulera les foules, pas moins.
Une théorie du complot répandue voudrait que Facebook vous écoute à travers votre microphone, parce que le sujet dont vous veniez de discuter avec votre ami vient justement d’apparaître sur votre fil d’actualités… Mais les experts sont formels : ils n’écoutent pas. La vérité est plus terrifiante encore : ils n’ont même pas besoin d’écouter. Il leur suffit de réveiller l’une de leurs 2,3 milliards de poupées vaudous représentant votre avatar pour prédire avec précision la conversation que vous êtes susceptible de tenir.
Et cela ne fera que s’aggraver. Aujourd’hui déjà, les plateformes sont facilement capables de prédire :
si vous êtes seul ou si vous manquez de confiance en vous ;
vos 5 principaux traits de personnalités rien qu’avec l’analyse du temps que vous passez en ligne ;
quand vous êtes sur le point d’entrer en couple ;
votre sexualité avant que vous en ayez conscience ;
quelles vidéos vous feront rester en ligne.
Mis ensemble, Google et Facebook sont comme un prêtre dans un confessionnal écoutant les vies de deux milliards de personnes, mais dont l’unique but est d’influencer le comportement de ces personnes pendant qu’un tiers les enrichit.
Pire encore le prêtre dispose d’un super ordinateur établissant des schémas de calcul parmi les 2,3 milliards de confessions, pour prédire la confession que vous comptiez faire avant même que vous n’en ayez conscience – et mieux vendre ainsi les accès au confessionnal à d’autres parties.
La technologie, non surveillée, sera uniquement capable de prédire plus précisément ce qui influencera notre comportement, pas moins.
Il y existe deux solutions pour prendre le contrôle d’un humain : 1/ vous pouvez construire des intelligences artificielles plus sophistiquées pour prédire ce qui manipulera les actions d’une personne. 2/ vous pouvez simplifier les humains en les rendant plus prévisibles et réactifs. Aujourd’hui la technologie fait les deux à la fois : les profits dégagés par Facebook et Google sont réinvestis dans de meilleurs modèles prédictifs et des machines apprenantes (machine learning) pour manipuler les comportements, tout en simplifiant les réflexes humains en leur soumettant des stimuli toujours plus simples. C’est une façon de mettre échec et mat l’humanité.
Tous ces effets ne sont que les facettes d’un seul et même péril
Nous pensons souvent les problèmes causés par la technologie indépendamment les uns des autres – addiction, distraction, fake news, polarisation, santé mentale et dépressions adolescentes. Ils ne sont pas séparés. Ils sont des facettes d’un seul et même mouvement qui est la conséquence de la course à destination de la racine de nos cerveaux.
Réduction de notre capacité d’attention, baisse de notre confiance, polarisation des idées politiques, récompense à l’outrage, crise de la pensée critique, augmentation de la solitude et de l’isolement social, hausse des suicides chez les adolescents – en particulier chez les filles, augmentation des extrémismes et des théories du complot –fragilisation enfin de notre environnement d’informations et de la fabrique sociale dont nous dépendons. Chacun de ces traits alimente l’autre.
Lorsque notre capacité d’attention se réduit, nous ne pouvons que nous exprimer plus simplement, avec 140 caractères pour résumer des problèmes complexes, encourageant la polarisation : la moitié des gens semblent d’accord en cliquant sur un simple bouton d’appel à l’action. Les chercheurs en psychologie de New York ont montré que chaque mot agressif ajouté à un tweet augmentait son taux de retweet de 17%. Plus d’outrages entraîne des effets de foule, avec des personnes de plus en plus en colère sur des sujets pourtant de plus en plus lointains.
Tout cela mène à une culture du fantasme qui électrise les groupes occupés à s’insulter et à se troller les uns les autres autour de l’interprétation la moins charitable d’un message de plus en plus simple. Les incompréhensions réciproques entraînent des réflexes de défense. Plus de victimisation, plus de colère et de polarisation, moins de confiance sociale. « La culture du fantasme[5] » fige les positions, empêche une pensée inclusive habile à refléter le monde complexe dans lequel nous vivons, nuit à notre capacité à construire des agendas partagés. Plus d’isolement entraîne de fait une sensibilité croissante pour les théories du complot.
Comme la capacité d’attention se réduit, les entreprises doivent fragmenter cette attention en la découpant en plusieurs flux – nous encourageant à être multitâches, à faire toujours 3 ou 4 choses à la fois. Elles peuvent ainsi multiplier artificiellement le marché de l’économie de l’attention, tout en dégradant la qualité de notre temps d’attention. Notre temps moyen de concentration chute, comme notre productivité.
Nommer ce système
Tous ces effets sont reliés entre eux et se renforcent. Frank Luntz appelle cela le « dérèglement climatique culturel ». Au Center for Humane Technology nous le nommons « le déclassement humain ».
Pendant que la technologie améliorait les machines, elle déclassait l’humain : déclassement de notre capacité d’attention, de notre civilité, de notre santé mentale, de nos enfants, de notre productivité, de notre esprit critique, de nos relations, de notre démocratie.
Tout le monde est concerné
Même si vous n’êtes pas sur ces plateformes, vous êtes affecté par ce problème. Vous vivez toujours dans un pays où vos concitoyens votent selon ce qui leur a été recommandé. Vous envoyez toujours vos enfants dans des écoles où d’autres parents croient des théories anti-vaccins qui leur ont été proposées sur les réseaux sociaux. Les cas de rougeole ont augmenté de 30% entre 2016 et 2017 et les mots clefs principalement utilisés étaient « vérité sur les vaccins » parmi les requêtes sur les questions de santé.
Nous sommes tous dans le même bateau. Le déclassement humain est comme un nuage noir qui descend sur la société et affecte tout le monde.
Compétition avec la Chine
Ce déclassement impacte aussi la compétition mondiale. Comment batailler avec la Chine, ou quelque nation que ce soit lorsque l’on dégrade le temps d’attention de ses citoyens, l’esprit critique, la santé mentale et qu’augmente la polarisation politique ?
Conclusion
Le rôle d’un gouvernement est de protéger les citoyens. Tout ceci, et je le pense vraiment, peut être réparé avec des mesures et des incitations à la hauteur du problème.
Je ne suis pas contre la technologie. Mais le génie est sorti de la bouteille et il faut l’y remettre. Nous avons besoin d’une nouvelle « technologie humaine » conçue pour garantir notre bien-être et protéger notre tissu social sur lequel ces technologies sont construites. Nous ne pouvons pas compter sur ces plateformes pour changer la donne. Notre gouvernement doit légiférer et fixer les garde-fous de ce marché pour que les entreprises œuvrent à des technologies qui renforcent la société et nos capacités, au lieu de les détruire, tout en nous protégeant de ses dangers.
Le créateur de Netscape Marc Andreesen disait en 2011 que « les technologies mangeraient le monde » car elles viendraient inévitablement combler des espaces préservés de notre société : les taxis, la publicité politique, la génération de contenus, etc.
Mais la technologie ne doit pas supplanter nos institutions et nos espaces sociaux sans prendre la responsabilité de les protéger :
la technologie « a mangé » les campagnes d’élection sur Facebook, tout en supprimant les contrôles de la FEC comme la parité des temps de parole en matière politique ;
elle a mangé le terrain de jeu de la guerre de l’information en remplaçant l’OTAN et le Pentagone par quelques équipes de modérateurs employés de Facebook, Google ou Twitter ;
elle a mangé nos émetteurs de dopamine, sans la supervision d’une agence de santé ;
elle a mangé le développement de nos enfants avec Youtube, pendant que sautaient les barrières de contrôle sur les contenus des dessins animés.
Exactement 50 ans plus tôt, le présentateur de dessins animés Fred M. Rogers a témoigné devant ce même comité et vous a fait part de ses craintes concernant la course engagée vers la violence dans les dessins animés diffusés à la télévision. Le monde de Youtube et de TikTok est bien plus dangereux que celui de la télévision d’alors, et présenté à une audience immensément plus grande. Aujourd’hui Mister Rogers n’aurait pas une chance…
Mais ce jour-là, les Sénateurs ont décidé d’agir et ont pris une décision fondatrice pour protéger nos enfants sur la télévision publique. Cette décision a changé durablement le paysage des programmes, pour le mieux. Aujourd’hui j’espère que vous choisirez de la même manière de protéger les citoyens et l’ordre du monde, en soutenant une économie technologique humaine et protectrice de l’humain, seule capable de renforcer et de protéger notre société.
Les conséquences de nos actions en tant que civilisation sont aujourd’hui plus cruciales qu’elles ne l’ont jamais été, et si nous sommes incapables de prendre les bonnes décisions, nous irons droit dans le mur.
Merci,
Tristan Harris, Center for Humane Technology. Contributions de Yael Eisenstat et Roger McNamee.
Traduction en Français par Florent Souillot, membre du collectif Lève les Yeux.
[1] « pull to refresh »
[2] « infinite scroll »
[3] « human downgrading »
[4] « Body Dismorphic Disorder »
[5] « Callout culture »
Le 23/10/2019 sur "CNBC" : "How Mark Zuckerberg lets his toddlers use their screen time"
"I don’t generally want my kids to be sitting in front of a TV or a computer for a long period of time,” Facebook CEO Mark Zuckerberg said on Fox News’ “The Daily Briefing,” posted Friday.
Instead, Zuckerberg allows his daughters with wife Priscilla Chan — August, 2, and Maxima, 3 — to use Facebook’s video chat product, Portal.
“I let my kids use that to communicate with my parents, so they can stay in touch with their grandparents easily, [and] their aunts who live across the country,” Zuckerberg said.
According to Zuckerberg, that kind of screen time — using video to interact with other human beings — is actually good for you, with benefits such as feeling more connected and healthier.
“I think all the research would generally support that,” Zuckerberg Told “The Daily Briefing.”
However, says Zuckerberg, passively consuming content, or “going from video to video” isn’t associated with the same positive effects.
While that may be the standard thinking (the American Academy of Pediatrics recommends that kids ages 2 to 5 only use screens for one hour a day, and kids 18 to 24 months only use digital media to video chat) a new study from the Oxford Internet Institute at Oxford University found that moderate screen use is actually beneficial for kids’ development.
After analyzing data from 35,000 American children ages 6 months to 17 years (and their caregivers), researchers found that the sweet spot seems to be about one to two hours of screen time a day. “Screen time” includes using digital devices such as iPads and watching television.
The kids who were exposed to the optimal amount of screen time had better levels of social and emotional well-being than kids who weren’t allowed to use digital devices. (In this study, researchers controlled the data for variables that influence digital engagement, such as age and sex, race and ethnicity, stress, social support and health.)
So banning kids from using technology altogether, or implementing age restrictions, isn’t the best solution for parents who are concerned about their children’s screen use, “particularly as screen usage in some cases has a net positive impact,” Andrew Przybylski, Director of Research at the Oxford Internet Institute and study author said in a press release.
There is an upper limit for screen time, though: This study also found that kids could watch four hours of TV or use an electronic device for five hours before it started to affect their behavior. Compared to the average amount of time that kids use devices (about two hours of tablets and smartphones, and one hour and 45 minutes of TV), these numbers are very high.
Connexion ou Créer un compte pour participer à la conversation.
- Messages : 279
D'autant que les... comment les appeler ? "Numéristes" ? "Pro-écrans" ? "Pro-numérique" ? "Anti-anti-écrans" ? Bref... les personnes qui ont un problème avec les personnes comme toi, ou le COSE, ou Michel Desmurget, ou le Dr. Ducanda, se le partagent, et commencent à trouver la parade à ce que j'appellerais "l'argument Waldorf/Steve Jobs".
Dit autrement, si on leur demande (c'est un exemple) : n'est-il pas contradictoire de promouvoir le numérique à l'école ou dès l'enfance quand on sait que les pontes du numérique eux-mêmes font tout pour que leurs propres enfants n'y accèdent pas ? La preuve avec Steve Jobs qui était un parent "low-tech" revendiqué. La preuve, aussi, avec tous ces "cadres de la Silicon Valley" qui envoient leurs rejetons dans les écoles Waldorf, dépourvues d'écrans.
... certains d'entre eux ont une parade : Clé utilisateur/ secrète de la configuration non valide
... qui consiste à dire : d'une part, Steve Jobs, avant d'être un parent "low-tech", était surtout un parent horrible (cf. les articles sur sa fille Lisa) qui a cru qu'il pouvait soigner son cancer avec les plantes, et d'autre part, les écoles Waldorf, avant d'être dépourvues d'écrans, sont surtout des écoles dépourvues d'hygiène, sans parler de leur promotion de théories délirantes, sectaires et racistes.
Edit: Effectivement, mon message avait plus sa place dans ce fil, au temps pour moi. Par contre, c'est curieux, mais je ne peux pas répondre... même chose pour le fil "enseigner l'informatique à l'école".
Connexion ou Créer un compte pour participer à la conversation.
- Loys
- Auteur du sujet
- Messages : 18193
Connexion ou Créer un compte pour participer à la conversation.
- Loys
- Auteur du sujet
- Messages : 18193
Aza Raskin is the creator of “infinite scroll”, a feature that has become ubiquitous on sites such as Facebook and Twitter and allows users to continuously move up or down a page, removing any need to press “refresh” or hit a “next page” button.
He said he designed the service to create the most seamless possible experience for user but did not foresee the consequences.
Et Guillaume Chaslot qui a travaillé sur l'algorithme de recommandation de YouTube de 2010 à 2013 dans "Le Point" du 29/08/19 : "YouTube : confessions d'un repenti" .
Mais un article qui se veut rassurant dans le "NYT" du 17/01/20 : "Panicking About Your Kids’ Phones? New Research Says Don’t" . L'article se fonde uniquement sur la santé mentale.
Quelque chose est masqué pour les invités. Veuillez vous connecter ou vous enregistrer pour le visualiser.
Connexion ou Créer un compte pour participer à la conversation.
- Loys
- Auteur du sujet
- Messages : 18193
Cette première tribune se résume en réalité... à un procès de Tristan Harris et de son audition par le Sénat américain (cf supra dans ce fil).
Vincent Bernard
Nov 3, 2019
On parle beaucoup de l’économie de l’attention, de mécanisme de récompense du cerveau, de dopamine et de captologie, mais que sait-on réellement à ce sujet ? À partir de la lecture critique de l’audition de Tristan Harris au sénat américain ce billet essaie de faire le point sur la question.
Lors de son audition devant le sénat américain en juin 2019, Tristan Harris se présente comme un ancien éthique designer de Google, dont le travail consistait à “influencer les pensées de deux milliards d’être humains” :
“J’aimerais vous montrer aujourd’hui à quel point les technologies de la persuasion constituent une force puissante et sous-estimée qui façonne le monde dans lequel nous vivons, et comment cette prise de contrôle nous conduira dans le mur si nous ne réagissons pas rapidement. Chaque jour, la technologie guide le regard de deux milliards d’êtres humains, leur indique l’endroit où poser leur attention, influence leur vérité, leurs relations, leur position sociale et le développement de leurs enfants.”
À travers l’économie de l’attention, il parle de “pouvoir asymétrique” de la technologie, qui dans le domaine militaire renvoie à un combat déloyal (Bühlmann, 2012), puis enchaîne sur les technologies de la persuasion qu’il compare à la magie où celui qui fait un tour a préalablement truqué le jeu de cartes et connaît parfaitement les faiblesses de l’esprit. En plus de sa maîtrise de l’illusion apprise enfant, il affirme avoir suivi un enseignement au Laboratoire de Technologie Persuasive de Stanford, aux côtés des fondateurs d’Instagram, où il a “découvert comment les technologies pouvaient influencer nos attitudes, nos croyances et nos actes”.
La captologie
La captologie est définie comme le domaine d’étude des technologies interactives conçues pour modifier le comportement ou l’attitude des individus. Elle s’appuie sur des travaux en psychologie expérimentale, cognitive et sociale (Foulonneau, Calvary, & Villain, 2015). Créée dans les années 1990, dans le laboratoire de technologie persuasive de Stanford par B.J. Fogg, la discipline a pour objet d’utiliser le pouvoir des ordinateurs pour changer ce que les gens croient, la manière dont ils se comportent, et découvrir comment cela pourrait être appliqué pour améliorer le monde (Fogg, B.J., 2010).
Image for post
Image for post
La discipline a mauvaise réputation et Fogg le sait. Lorsqu’il évoque la présentation de ses premières recherches, il dit qu’une partie des gens ne croyait aux données exposées ; qu’une autre pensait que le travail était diabolique ; et que seul un petit segment du public a vu des applications pour l’avenir. Cependant, une étude portant sur 95 technologies persuasives a ainsi montré que près de 50% traitaient de la santé et de l’exercice physique, 20% de l’écologie, 10% de l’éducation et enfin 6% de la sécurité et autant du marketing et du commerce (Hamari, Koivisto, & Pakkanen, 2014). Autrement dit, bien que controversés les travaux en captologie ne s’intéressent ni uniquement ni préférentiellement à l’économie de l’attention.
Pour illustrer l’utilisation de la captologie sur les réseaux sociaux, Harris évoque plusieurs stratégies :
La “captation de l’attention” à grand renfort de pull to refresh (tirer pour rafraîchir), décrit par Harris comme une “petite addiction” et de infinite scroll (défilement infini) afin que “l’esprit n’ait pas la possibilité de faire autre chose”.
La “validation sociale” afin de nous rendre “accro à l’attention de ceux qui nous entourent” à travers le nombre de followers et les likes, ce qui aurait déclenché” une véritable crise de santé mentale chez les adolescents”.
Les algorithmes qui créent un “avatar, une sorte de poupée vaudou qui nous représente” et nous connait mieux que personne afin de proposer “le contenu précis qui vous fera immanquablement rester le plus longtemps possible devant l’écran”.
Bien entendu ces stratégies sont sous-tendues par stimulation, à des fins publicitaires, de notre “cerveau reptilien”, en activant les mécanismes de récompenses grâce à la fameuse dopamine.
Le déclassement de l’humain
Dans son argumentaire, Harris affirme que tant que cette course continuera, “l’asymétrie de pouvoir augmentera et mettra en échec notre esprit, jusqu’à l’effondrement de la vérité”. Ce qu’il nomme des “périls” feraient partie d’un ensemble plus large appelé “le déclassement humain”. Au repenti de la Silicon Valley de présenter dans les notes de son discours un authentique mille-feuilles argumentatif où se mélangent captation de l’attention, exploitation de la faiblesse de l’esprit humain, syndrome de dysmorphie, dépression, anxiété, isolement social, fake news, post-vérité, théories du complot, polarisation sociale, utilisation des données personnelles… et allant dans son envolée lyrique jusqu’à parodier Spiderman (“avec un grand pouvoir n’est venue aucune responsabilité”) et parler “d’extrémisme algorithmique”.
En fait pour Harris, il y aurait un complot de la part de Facebook et Google qui ambitionnent de “mettre échec et mat l’humanité” en :
Construisant des intelligences artificielles plus sophistiquées pour prédire ce qui manipulera les actions d’une personne ;
Simplifiant les humains en les rendant plus prévisibles et réactifs.
C’est derrière ces deux objectifs simultanés (un seul n’aurait pas suffi à faire peur ?) que se dissimule le complot, puisqu’il affirme que ce que nous pensons être des problèmes indépendants les uns des autres (addiction, distraction, fake news, polarisation, santé mentale et dépressions adolescentes) sont en fait les facettes d’un seul et même mouvement : la course à la racine de nos cerveaux.
Debunkage en 3 points
À vrai dire, si l’on peine à comprendre comment les simples fonctionnalités énumérées ci-dessus peuvent produire de si grands effets, le fait que ces propos soient tenus devant le sénat américain et que les arguments cités soient couramment repris par les contempteurs du numérique et des écrans, nous invitent à approfondir et surtout debunker certains points.
L’économie de l’attention
“Un réseau social est un espace en ligne dans lequel un utilisateur peut créer un profil et construire un réseau personnel qui le connecte aux autres utilisateurs” (Lenhart & Madden, 2007). Par rapport aux sites et aux blogs, les réseaux sociaux se concentrent davantage sur les liens que sur la personnalisation de l’espace (Leroux, 2017). Dans ce registre les liens sont matérialisés par les personnes que l’on suit ou qui nous suivent et avec lesquelles on interagit. La nouveauté apportée par les réseaux sociaux est donc que la navigation s’effectue désormais au travers de la liste de contact (Cardon, 2011, 2019), ce qui remanie profondément la donne puisque ce ne sont plus des pages Web mais des individus qui sont référencés (Ertzscheid, 2017).
Notre propos n’est pas de nier l’existence d’une économie de l’attention. Les réseaux sociaux usent bel et bien de stratégies marketing pour garder les utilisateurs captifs dans leur écosystème et leur faire “consommer avidement des posts ou des fils d’information” (Boyd, 2016). Cependant il ne faut pas négliger que la quantité de données produites quotidiennement est astronomique (Cardon, 2019; Ertzscheid, 2017). Dans ce contexte, “vouloir tout suivre est impossible et crée le sentiment d’être submergé” (Boyd, 2016). Pour remédier à ce problème et ne pas perdre d’utilisateurs, les réseaux sociaux ont recours à des solutions informatiques qui “limitent les posts visibles, en faisant remonter ce que son algorithme aura calculé comme étant le plus susceptible d’intéresser l’usager” et ainsi générer un “maximum d’attention” (ibid.). Cette stratégie rendue nécessaire pour maintenir des conditions agréables d’utilisation possède cependant son revers en nous “enfermant dans nos préférences” par un mécanisme de « bulles de filtres » (Bronner, 2013; Pariser 2011). En effet, en priorisant les publications en fonction des profils ou des pages avec lesquelles les internautes interagissent le plus, les réseaux sociaux biaisent en quelques sortes les représentations du monde (Ertzscheid, 2017). C’est le phénomène qui est notamment à l’origine de la propagation de fake news et de la polarisation de l’opinion.
Cette économie de l’attention se manifeste aussi à travers la notion de gamification qui peut être définie comme “un processus qui consiste à user de l’état d’esprit et de la mécanique du jeu pour résoudre des problèmes et faire participer les usagers” (Bonenfant & Genvo, 2014). Qu’il s’agisse de badges, de points, de récompenses appliqués aux réseaux sociaux, ce mécanisme a pour finalité de fidéliser l’utilisateur en lui donnant l’impression de jouer. Or, si le recours aux mécanismes du jeu peut faire craindre des risques d’addiction, il est nécessaire de distinguer ce qui relève du game, c’est-à-dire la mécanique du jeu dans son acceptation behavioriste ou comportementale ; et ce qui relève du play qui recouvre les dimensions narratives et imaginaires (Genvo, 2008). En somme, jouer nécessite de “faire comme si”, et, c’est justement cette dimension qui n’est pas prise en compte dans les conceptions comportementalistes et marketing du game. Autrement dit, dans les jeux vidéo et sur les réseaux sociaux l’expérience d’immersion ne serait pas équivalente.
Cependant si l’on se réfère à la théorie de “l’expérience optimale” ou flow de (Csikszentmihalyi, 1990) avec les TIC, il est possible d’atteindre l’équilibre entre ses compétences personnelles et la demande de la tâche, ce qui procure un intense sentiment de bien-être, et range le numérique du côté des expériences autotéliques, c’est-à-dire que l’on prend du plaisir à pratiquer pour elles-mêmes (Heutte, 2017). Issues de la psychologie positive la notion de flow a pour ambition d’optimiser les mécanismes d’apprentissage, mais le concept pourrait aussi jouer dans les phénomènes d’addiction (Taquet, 2016) lorsque “plus rien d’autre ne compte” (Heutte, 2017).
Quoiqu’il en soit, avec le web 2.0, il semble bien que nos émotions ont désormais une valeur marchande, soit qu’il s’agisse de nous faire réagir en interagissant avec des contenus pour les faire gagner en visibilité ; soit lorsqu’il s’agit de collecter les données relatives à la « “circulation des affects” afin de cibler au mieux les goûts des internautes et ainsi alimenter les algorithmes (Alloing & Pierre, 2017). Ce champ d’investigation émanant essentiellement du marketing, il est difficile d’attester de sa validité scientifique en termes de santé publique. Nous serions alors plus dans la création d’habitudes, comme l’explique le manuel de référence “Hooked: Comment créer un produit ou un service qui ancre des habitudes” (Eyal, 2018), que dans une problématique d’addiction, car ces comportements routiniers seraient plus gênants que dangereux (Griffiths, 2018).
Image for post
La dopamine
Tristan Harris n’est pas le seul à faire le rapprochement entre économie de l’attention et mécanismes de récompense du cerveau. En septembre 2019, la chaîne de télévision Arte a mis en ligne une websérie qui s’intitule Dopamine et qui fait la part belle au neurotransmetteur. Conjointement le Réseau Canopé s’est senti obligé de produire un dossier pédagogique sur le sujet (Do & Mérieux, 2019). Dans ce dossier, on peut lire sous la plume de Bruno Patino, qui ne cite pas plus de sources que Harris, que les enseignants se heurtent “à la difficulté à se concentrer, qui résulte en partie de l’habitude à répondre aux sur-sollicitations numériques ou de l’assuétude à la dopamine que nous font produire nombre d’applications en ligne”.
D’un point de vue biochimique, les réseaux sociaux pourraient donc solliciter anormalement le circuit de récompense du cerveau. Ce débat qui a lieu avec les jeux vidéos n’a pourtant pas conclu à des résultats probants. Ainsi, si pour certains, à l’instar des substances psychoactives, jouer aux jeux vidéo libérerait de la dopamine dans le cerveau (Koepp et al., 1998) ; pour d’autres, les toxicomanes perdent la notion de plaisirs au profit de la recherche d’un soulagement nécessaire ce qui n’est pas le cas avec les jeux vidéo (Bach, Houdé, Léna, & Tisseron, 2013). De plus, si l’on compare les taux de dopamine libérés par le fait de jouer au jeux vidéo (100%) à celle libérée par la nourriture (50%), le sexe (100%) ou à la dopamine libérée par d’autres substances psychoactives comme la cocaïne (350%) ou la méthamphétamine (1200%) on constate que la seule explication des mécanismes de récompense du cerveau ne suffit pas à expliquer une éventuelle addiction (Di Chiara & Imperato, 1988; Koepp et al., 1998; Vousooghi, Zarei, Sadat-Shirazi, Eghbali, & Zarrindast, 2015).
Pour d’autres encore, ce sont d’autres neuromédiateurs, en l’occurrence la noradrénaline et la sérotonine, qui seraient également impliqués dans les phénomènes d’addiction à travers le mécanisme de couplage / découplage. Initialement les systèmes de production de noradrénaline et de sérotonine sont couplés et se compensent. Chez l’animal, après la consommation de psychostimulants ces circuits deviennent autonomes et hyper-réactifs : cette phase s’appelle le découplage. Chez une personne souffrant d’addiction la substance, par l’entremise de la dopamine qu’elle produit, viendrait alors momentanément re-coupler ces deux circuits. Par contre, Il semblerait que le jeu vidéo seul ne soit pas en mesure de découpler les systèmes noradrénergique et sérotoninergique. Mais, il pourrait re-coupler provisoirement les systèmes en cas d’alcolo-dépendance, tabaco-dépendance, ou toute autre dépendance avec produit (Coulomb, 2014). Autrement dit, les jeux vidéo et les réseaux sociaux ne seraient pas en mesure de créer à eux seuls une addiction. Et ce d’autant plus qu’on ne constate ni manque ni rechute avec les jeux vidéo (Griffiths, 2012).
Ainsi, si des hypothèses neurochimiques existent en ce qui concerne les mécanismes de l’addiction, il semble quelque peu précipité de calquer le modèle aux jeux vidéo et aux réseaux sociaux puisqu’il n’existe pas de consensus scientifique sur le sujet. Le rôle de la dopamine dans la fameuse économie de l’attention ne serait donc, à l’heure actuelle, que purement spéculative.
La santé mentale
Dans les notes accompagnant le plaidoyer de Harris, nous pouvons lire ceci :
“Être constamment visibles des autres a entraîné une anxiété sociale et une crise massive de la santé mentale. Il vous est impossible de vous déconnecter si votre réputation sociale risque d’être ruinée le temps que vous arriviez à la maison. Après environ 20 ans de baisse, les symptômes de forte dépression des adolescentes de 13 à 18 ans ont augmenté de 170% entre 2010 et 2017”.
On peut accorder à Harris d’avoir raison sur un point : les réseaux sociaux occupent une place importante dans la vie des adolescents étant donnés qu’ils participent à la leur construction individuelle, leur socialisation et leur autonomisation. D’ailleurs dana boyd (2016) résume la problématique ainsi :
“Que les médias sociaux soient devenus leur principal lieu de sociabilité n’a rien à voir avec la technologie, mais bien plus avec les restrictions parentales et les agendas trop remplis. Les adolescents se tournent vers n’importe quel environnement qui leur permet de rester avec leurs amis, et en deviennent obsédés. La plupart ne sont pas dépendants aux médias sociaux ; s’ils doivent l’être à quelque chose, ils sont accros les uns aux autres”.
Par contre, concernant la santé mentale plusieurs recherches viennent contredire les propos alarmistes que Harris rapporte. La première réalisée au Royaume uni sur 120000 adolescents tend à montrer que la santé mentale baisse aussi bien avec les temps d’écrans faibles que élevés (Przybylski & Weinstein, 2017) ; la seconde menée aux Royaume uni, aux USA et en Irlande tend à montrer qu’une diminution du bien-être correspondrait à une hausse exponentielle du temps d’exposition (Orben & Przybylski, 2019). Ces résultats confirment ceux d’une autre recherche qui montre qu’il n’y a pas de relation entre le temps passé et l’apparition de problèmes de santé mentale. Au contraire, des temps importants de jeu sont associés à une diminution des problèmes interpersonnels et des bénéfices dans le domaine pro-social (Kovess-Masfety et al., 2016).
Alors que penser ?
Il semblerait alors que Harris et bien d’autres aient tendance à confondre les risques individuels et les enjeux sociétaux. Si les plateformes introduisent bel et bien des mécanismes incitatifs en vue de fidéliser les internautes, faire basculer le débat du côté de la santé publique est hasardeux en l’état actuel de la recherche : l’implication de la dopamine et des mécanismes de récompense du cerveau semble réductrice par rapport à d’autres mécanismes qui sont encore mal connus ; les questions de santé mentale peuvent également subir la même critique, puisqu’il n’est actuellement pas possible d’envisager qu’une utilisation normale et raisonnée des outils numériques puisse engendrer quelque trouble que ce soit.
Bien entendu ceci ne doit pas annuler les problématiques d’utilisation des données personnelles à des fins publicitaires, commerciales ou politiques. Mais contrairement à ce que pense Harris les différentes problématiques doivent être étudiées indépendamment les unes des autres, parce que les mille-feuilles argumentatifs comme les biais d’intentionnalité sont assimilables à une pensée complotiste, ce à quoi ressemble fortement son “déclassement de l’humain”.
À l’heure actuelle si on ne peut nier une course au profit, les données personnelles représentant un pétrole numérique, la course à la racine du cerveau paraît surtout être un argument promotionnel du Center for human technology. Il n’y a pas que les techniques informatiques qui peuvent capter l’attention et manipuler les émotions. Avec la rhétorique et le rédactionnel, il est également possible de le faire, en témoignent les nombreuses paniques morales qui circulent sur le Web.
Références
Alloing, C., & Pierre, J. (2017). Le web affectif. Une économie numérique des émotions. Bry-sur-Marne: INA Editions.
Bach, J.-F., Houdé, O., Léna, P., & Tisseron, S. (2013). L’enfant et les écrans. Un avis de l’académie des sciences. Paris: Le Pommier.
Bonenfant, M., & Genvo, S. (2014). Une approche située et critique du concept de gamification. Sciences du jeu, (2).
Boyd, Danah. (2016). C’est compliqué : Les vies numériques des adolescents. Caen: C&F éditions.
Bronner, G. (2013). La démocratie des crédules. Paris: PUF.
Bühlmann, C. (2012). Le concept d’asymétrie : Une plus-value pour comprendre les conflits modernes ? Stratégique, 100‑101(2‑3), 229‑268.
Cardon, D. (2011). Réseaux sociaux de l’Internet. Communications, 88(1), 141.
Cardon, D. (2019). Culture numérique. Paris: Presses de science Po.
Coulomb, D. (2014). Jeux vidéo, jeux d’argent, sexe, travail : Des addictions comme les autres ? Science&Santé, N°19, p.22- 33.
Csikszentmihalyi, M. (1990). Flow, the Psychology of Optimal Experience. New york: Harper and Row.
Di Chiara, G., & Imperato, A. (1988). Drugs abused by humans preferentially increase synaptic dopamine concentrations in the mesolimbic system of freely moving rats. Proceedings of the National Academy of Sciences of the United States of America, 85(14), 5274–8.
Do, Kimi, & Mérieux, Pascal. (2019). La course à l’attention. Réseau Canopé.
Ertzscheid, O. (2017). L’appétit des géants. Caen: C & F éditions.
Eyal, N. (2018). Hooked. Comment créer un produit ou un service qui ancre des habitudes. Paris: Eyrolles.
Fogg, B.J. (2010). Thoughts on Persuasive Technology. Consulté 2 novembre 2019, à l’adresse captology.stanford.edu/resources/thought...sive-technology.html
Foulonneau, A., Calvary, G., & Villain, E. (2015). State of the art in persuasive systems design. Journal d’Interaction Personne-Système, 4(1), 19‑47.
Genvo, S. (2008). « Caractériser l’expérience du jeu à son ère numérique : Pour une étude du « play design » ». Consulté à l’adresse www.ludologique.com/publis/articles_en_ligne.html
Griffiths, M. D. (2012). Addiction sans drogue, quand le cerveau a le goût du jeu. Adolescence, 79(1), 51.
Griffiths, M. D. (2018). Addicted to Social Media? Consulté à l’adresse www.psychologytoday.com/us/blog/in-exces...ddicted-social-media
Hamari, J., Koivisto, J., & Pakkanen, T. (2014). Do Persuasive Technologies Persuade? — A Review of Empirical Studies. In A. Spagnolli, L. Chittaro, & L. Gamberini (Éd.), Persuasive Technology (Vol. 8462, p. 118‑136).
Heutte, J. (2017). L’environnement optimal d’apprentissage : Contribution de la recherche empirique sur les déterminants psychologiques de l’expérience positive subjective aux sciences de l’éducation et de la formation des adultes. Sciences et bonheur, 82–99.
Koepp, M. J., Gunn, R. N., Lawrence, A. D., Cunningham, V. J., Dagher, A., Jones, T., … Grasby, P. M. (1998). Evidence for striatal dopamine release during a video game. Nature, 393(6682), 266–268.
Kovess-Masfety, V., Keyes, K., Hamilton, A., Hanson, G., Bitfoi, A., Golitz, D., … Pez, O. (2016). Is time spent playing video games associated with mental health, cognitive and social skills in young children? Social psychiatry and psychiatric epidemiology, 51(3), 349–57.
Lenhart, A., & Madden, M. (2007). Social Networking Websites and Teens | Pew Research Center.
Leroux, Y. (2017). Adolescence et réseaux sociaux : Point de vue psychodynamique. In Nos jeunes à l’ère numérique (p. 133–163). Louvain la Neuve: Académia — l’Harmattan.
Orben, A., & Przybylski, A. K. (2019). The association between adolescent well-being and digital technology use. Nature Human Behaviour, 3(2), 173–182.
Pariser, Eli. (2011). The Filter Bubble. What the Internet is Hiding from You. New york: The Penguin Press.
Przybylski, A. K., & Weinstein, N. (2017). A Large-Scale Test of the Goldilocks Hypothesis : Quantifying the Relations Between Digital-Screen Use and the Mental Well-Being of Adolescents. Psychological Science, 28(2), 204–215.
Taquet, P. (2016). Les motivations dans l’usage pathologique des jeux vidéo : Théories et thérapie. Terminal, (119).
Vousooghi, N., Zarei, S. Z., Sadat-Shirazi, M.-S., Eghbali, F., & Zarrindast, M. R. (2015). MRNA expression of dopamine receptors in peripheral blood lymphocytes of computer game addicts. Journal of neural transmission (Vienna, Austria : 1996), 122(10), 1391–8.
Le titre de la tribune revendique une neutralité équilibrée ("on fait le point ?"). En réalité, son infantilisation trahit sa partialité, M. Bernard étant un défenseur inconditionnel des écrans pour qui les penseurs techno-critiques ne sont que des "contempteurs du numérique et des écrans". Rappelons que "le médiateur numérique aide les individus à maîtriser les différents outils numériques et cherche à en développer l'utilisation" (définition de la Grande école du numérique).
Le procès de Tristan Harris commence par la mise en doute de son expérience professionnelle ("Tristan Harris se présente comme un ancien éthique designer de Google [...] il affirme avoir suivi un enseignement au Laboratoire de Technologie Persuasive de Stanford"). Tristan Harris a bien étudié au Stanford Persuasive Technology Lab, comme l'a reconnu B. J. Fogg sur le site du Lab ("I have long been a champion for my former students doing good things in the world, including Tristan Harris and his work"), et a bien été ethicist designer chez Google pendant trois ans (2013-2016) : son témoignage est donc d'un grand intérêt, d'où son audition par le Sénat américain.
"Notre propos n’est pas de nier l’existence d’une économie de l’attention" dit M. Bernard. Reste que, ne pouvant mettre en doute les technologies séductives qui prétendent modifier le comportement ou l'attitude des individus (la "persuasive technology" ou captologie), il s'emploie à en minimiser la portée, en commençant par nier qu'elles s'appliquent à proprement parler à l'économie de l'attention.
L'économie de l'attention n'est pas un domaine (elle n'est d'ailleurs pas citée par cette méta-étude de 2014) : la recherche du contrôle de l'attention s'applique - de fait - à tous les domaines, de l'éducation à la publicité en passant par la politique. A noter - ce que ne fait pas Vincent Bernard pour faire "le point" - que cette méta-étude souligne combien ces technologies séductives sont efficaces ("it can be concluded that, in the published literature, persuasive technologies indeed seem to persuade people into various behavior").[...] une étude portant sur 95 technologies persuasives a ainsi montré que près de 50% traitaient de la santé et de l’exercice physique, 20% de l’écologie, 10% de l’éducation et enfin 6% de la sécurité et autant du marketing et du commerce (Hamari, Koivisto, & Pakkanen, 2014). Autrement dit, bien que controversés les travaux en captologie ne s’intéressent ni uniquement ni préférentiellement à l’économie de l’attention.
Mais le plus important n'est pas là : non seulement les 95 études retenues (sur la base de critères méthodologiques) n'ont pas de valeur représentative mais surtout elles étudient essentiellement des technologies mises en œuvre sur des sujets pour les accompagner vers des buts volontairement poursuivis ("it seems that persuasive technologies are implemented especially in contexts wherein people would be willing to undertake the target activities but find it difficult to start or continueworking toward them"), en respectant donc un cadre éthique. Il y a effectivement peu d'études scientifiques - et pour cause - qui portent sur des pratiques non éthiques (le "dark design" dénoncé par le psychologue Richard Freed) : de telles études, très difficiles, ne pourront en effet être menées que de manière indirecte et rétrospective.
En somme, ce que dénonce Tristan Harris depuis 2016 n'est pas étudié à ce jour par des études scientifiques, et ça n'a rien d'étonnant...
Ce qui est étonnant, c'est que Tristan Harris n'est qu'un des représentants d'un grand mouvement techno-critique venu de l'intérieur de la hi-tech, dont nous avons réuni les principaux noms dans ce fll : de Justin Rosenstein (Facebook) à Sean Parker (Facebook) en passant par Chamath Palihapitiya (Facebook), Roger McNamee, Loren Brichter, Renée DiResta (Haven), Sandy Parakilas (Facebook), Greg Hochmuth (Instagram), Aza Raskin ou Guillaume Chaslot (YouTube) etc. Sans parler de tous ces géants de la Silicon Valley très méfiants quand il s'agit de leurs propres enfants, de Steve Jobs (Apple) à Bill Gates (Microsoft), en passant par Tim Cook (Apple) ou les investisseurs d'Apple.
Autant de noms que M. Bernard ne cite pas, sans doute pour mieux faire "le point". Faire le procès d'un individu isolé, c'est évidemment un moyen commode de nier ce grand mouvement techno-critique venu de l'intérieur. Alors, comment ce procès a-t-il lieu ? De façon assez sommaire, à vrai dire. M. Harris présente-t-il une synthèse de tous les problèmes en apparence distincts mais en réalité liés, selon lui, à cette nouvelle économie de l'attention ? Il ne peut s'agir que d'une réflexion confuse sur "ce qu’il nomme des “périls”" (et qui, visiblement, n'en sont pas pour M. Bernard...) :
Au repenti de la Silicon Valley de présenter dans les notes de son discours un authentique mille-feuilles argumentatif où se mélangent captation de l’attention, exploitation de la faiblesse de l’esprit humain, syndrome de dysmorphie, dépression, anxiété, isolement social, fake news, post-vérité, théories du complot, polarisation sociale, utilisation des données personnelles
Le procès devient encore plus sommaire quand M. Harris, qui s'inquiète dans son audition des progrès du complotisme comme conséquence non voulue de cette économie de l'attention, est lui-même présenté par M. Bernard comme... un complotiste. Après le confusionnisme, le complotisme donc. La tribune de Richard Freed que nous avons retranscrite ici subit le même sort : décidément, l'accusation de complotisme surgit dès qu'est une émise la moindre critique de l'économie numérique !
L'accusation de complotisme à propos de Tristan Harris se fonde donc... sur une hyperbole tirée de son contexte. M. Bernard confond le moyen et les fins : on peut prêter beaucoup d'intentions mauvaises - essentiellement liées à la seule recherche du profit - à Google et Facebook, mais sans doute pas celle d'exterminer l'humanité. Dans le discours de M. Harris, "mettre échec et mat l'humanité" correspond simplement aux deux stratégies qu'il a identifiées pour contrôler les émotions...En fait il y aurait un complot de la part de Facebook et Google qui ambitionnent de “mettre échec et mat l’humanité”
Le "débunkage" nébuleux de M. Bernard laisse tout autant perplexe. Il porte sur trois points arbitrairement choisis (l'économie de l'attention, la dopamine et la santé mentale des adolescents), ignorant d'autres points pourtant de plus en plus scientifiquement documentés comme la performance scolaire .
1) S'agissant de l'économie de l'attention (dont la portée a déjà été relativisée précédemment) et après la remarquable démonstration que les réseaux sociaux sont sociaux, M. Bernard reconnaît des stratégies "pour garder les utilisateurs captifs" mais, pour M. Bernard, ce seraient des stratégies bienveillantes en réalité pour ("maintenir des conditions agréables d’utilisation" et "générer un “maximum d’attention”"). Allez comprendre la logique : "maintenir captifs" les utilisateurs, "générer un maximum d'attention" seraient donc uniquement la démonstration de la bonne volonté de la hi-tech et non d'une volonté... de capter l'attention. De même, après de savantes explications sur la "gamification" et sur le "flow", M. Bernard aboutit à cette autre découverte : "avec le web 2.0, il semble bien que nos émotions ont désormais une valeur marchande". Mais pas d'inquiétude : nos comportements ne seraient que des "habitudes" sans danger.
2) S'agissant de la dopamine, et après d'autres explications savantes sur la dopamine, la noradrénaline et la sérotonine (se résumant par "il n’existe pas de consensus scientifique sur le sujet"), M. Bernard conclut cette absence de consensus... en tranchant lui-même : il n'y a pas d'addiction aux jeux vidéo et aux réseaux sociaux. Il oublie étourdiment, dans son "point" équilibré, de mentionner que l'OMS a officiellement reconnu l'existence d'un "gaming disorder" en 2019. Bien sûr, l'existence d'un tel trouble pour une minorité d'utilisateurs ne concerne évidemment pas tous les utilisateurs. Reste que ce n'est pas parce qu'il n'y a pas addiction au sens médical du terme que vidéos, réseaux sociaux, jeux vidéo etc. ne sont pas addictifs. Pour les écrans, les temps d'exposition, de plus en plus précoces et importants, en témoignent mais M. Bernard se garde bien de donner aucun chiffre à ce sujet.
3) S'agissant de la santé mentale des adolescents, M. Bernard ne voient dans les réseaux sociaux que de bonnes nouvelles : "ils participent à la leur construction individuelle, leur socialisation et leur autonomisation". Et de citer Danna Boyd (qui n'est pas chercheuse) de façon quelque peu contradictoire (en gras) avec sa réfutation précédente de toute addiction :
Cette spéculation vaseuse sur les "restrictions parentales" et les "agendas trop remplis" qui expliqueraient une hausse des suicides, des dépressions etc. à partir de 2012 aux États-Unis ne repose sur aucune démonstration scientifique.Que les médias sociaux soient devenus leur principal lieu de sociabilité n’a rien à voir avec la technologie, mais bien plus avec les restrictions parentales et les agendas trop remplis. Les adolescents se tournent vers n’importe quel environnement qui leur permet de rester avec leurs amis, et en deviennent obsédés. La plupart ne sont pas dépendants aux médias sociaux ; s’ils doivent l’être à quelque chose, ils sont accros les uns aux autres.
(Indicators of poor mental health among U.S. girls and young women, 2001–2018, Jean Twenge, 2020 cf infra)
Mais l'essentiel est sauf : "rien à voir avec la technologie" !
Et M. Bernard de citer les travaux de Andrew Przybylski, du Oxfort Internet Institute (institut très peu techno-critique, et pour cause), sans indiquer qu'ils font précisément l'objet d'une vive controverse (voir ici par exemple ) avec ceux de Jean Twenge (ou avec la position arrêtée par l'OMS sur le "gaming disorder"). Les travaux cités de Przybylski, tels que cités par M. Bernard, laissent même perplexe quant aux conclusions enthousiastes sur les écrans : "une diminution du bien-être correspondrait à une hausse exponentielle du temps d’exposition (Orben & Przybylski, 2019)"
Les travaux de Jean Twenge ne sont pas même mentionnés dans la bibliographie de M. Bernard. Encore une fois, curieuse façon de faire "le point". M. Bernard va même plus loin : "Au contraire, des temps importants de jeu sont associés à une diminution des problèmes interpersonnels et des bénéfices dans le domaine pro-social (Kovess-Masfety et al., 2016)".
Résumons : pas vraiment d'économie de l'attention pensée par une hi-tech au contraire bienveillante, pas d'addiction et des médias qui profitent au bien-être des adolescents.
"Alors que penser ?" : c'est plus facile quand on ignore tout un mouvement techno-critique venu de la hi-tech, quand on fait le procès en complotisme d'un seul homme sur la base d'une expression décontextualisée, quand on choisit soigneusement ses sources scientifiques ou quand on les interprète de façon biaisée. "il n’est actuellement pas possible d’envisager qu’une utilisation normale et raisonnée des outils numériques puisse engendrer quelque trouble que ce soit" dit ainsi M. Bernard sans définir ce qu'est "une utilisation normale et raisonnée", sans évoquer l'augmentation saisissante des temps d'exposition, et sans s'interroger sur ce qui explique cette augmentation, de même qu'il n'explique les problèmes
Dernière accusation après le confusionnisme et le complotisme : la vénalité. M. Bernard, qui dénonce le caractère "promotionnel" du discours de Tristan Harris en faveur du Center for human technology, se montre beaucoup moins critique sur cette course au profit (qu'"on ne peut nier") pour capter notre attention et les marchés gigantesques qui sont en jeu.
Sa conclusion est relativiste jusqu'au bout : "Il n’y a pas que les techniques informatiques qui peuvent capter l’attention et manipuler les émotions. Avec la rhétorique et le rédactionnel, il est également possible de le faire." Que ce soit possible ne revient - bizarrement - pas à ce que ce soit concrètement le cas...
Exemple de travaux oubliés par M. Bernard (et de ceux qu'on peut ajouter depuis).
2017-11-14, Twenger & Joiner & Rogers & alii, "Increases in depressive symptoms, suicide-related outcomes, and suicide rates among US adolescents after 2010 and links to increased new media screen time"
2019-03-30, Keyes & Gary & alii, "Recent increases in depressive symptoms among US adolescents: trends from 1991 to 2018"
2020-03-17 Twenge, "Increases in Depression, Self-Harm, and Suicide Among U.S. Adolescents After 2012 and Links to Technology Use: Possible Mechanisms"
"Notre propos n’est pas de nier l’existence d’une économie de l’attention" disait M. Bernard fin 2019.
En 2020, nouveau billet de quelque peu contradictoire le 29/07/20, et plus décousu encore que le premier, prenant pour cibles pêle-mêle Bruno Patino, Richard Freed, Tristan Harris ou Michel Desmurget : "L’économie de l’attention à l’épreuve du doute"
Le discours sur l’économie de l’attention s’articule autour de 4 arguments principaux : des effets sur la santé mentale, des effets neuropsychologiques, le mea culpa de dirigeants de la Silicon Valley et le fait que ces mêmes dirigeants tiennent leurs enfants à l’écart des technologie qu’ils créent. À travers la lecture croisée de plusieurs sources sur le sujet, ce billet a pour objectif de montrer que ces arguments sont à prendre avec précaution en raison d’un manque évident de rationalité.
La santé mentale
Dans mon premier article sur le sujet qui s’attachait à déconstruire les arguments de Tristan Harris devant le Sénat américain, j’ai déjà pointé la faiblesse de son argumentation, relevé le fait qu’il ne rapporte aucune source, et que son propos peut être contredit par d’autres études. En fait, dans les contenus que j’ai passé en revue et évoquant l’économie de l’attention, il est possible de constater ce même biais méthodologique.
Ainsi, le livre la civilisation du poisson rouge (Patino, 2019) débute sur ce chiffre :
L’attention des millennials sature au bout de 9 secondes, leur capacité d’attention serait à peine supérieure à celle du poisson rouge.
Sauf que le goldfish tidbit serait un mythe qui circule sur le net depuis les années 2000 et dont les sources ne sont pas identifiables. Ce qui n’empêche pas l’auteur de mettre ce chiffre en rapport avec un autre chiffre, tiré d’un l’article publié dans la revue Journal of Social and clinical psychology (Hunt et al., 2018) et d’en inverser le propos. En effet, si les auteurs de l’étude notent “qu’une limitation de l’utilisation des réseaux sociaux à 30 minutes peut conduire à une augmentation du bien être”, dans son livre, Patino dévoie ce temps d’utilisation en seuil au-delà desquels les réseaux sociaux seraient dangereux (p.20). Inversion qui ne tient bien entendu pas compte des précautions prises par les auteurs dans la discussion des résultats, puisqu’il s’avère que sur cet échantillon, ce n’est que la méthodologie utilisée qui est jugée prometteuse pour ce type d’investigation. Contrairement à ce que rapporte Patino, l’article original n’est nullement affirmatif et devant les résultats significatifs obtenus auprès des personnes évaluées comme étant les plus dépressives en début de protocole, les auteurs postulent les probables bénéfices d’un “autocontrôle” (induit par le protocole de recherche ?) et non la dangerosité des réseaux sociaux.
La tribune, traduite en français sur le site La vie moderne du docteur en psychologie Richard Freed débute sur la description d’une situation de crise. Une adolescente aurait dû être hospitalisée de force parce que ses parents auraient tenté de la séparer de force de son smartphone. Cette vignette clinique purement descriptive, ne faisant allusion à aucune comorbidité éventuelle, sert de préambule au texte et permet d’embrayer sur l’évocation de nombreuses situations problématiques rencontrées dans la clinique de l’auteur, concernant toutes les smartphones ou les jeux vidéo. Cette manière de procéder qui place Freed dans le rôle du lanceur d’alerte, rappelle celle du Docteur Ducanda lorsqu’elle prend l’initiative de faire remonter les inquiétudes du terrain, pour ce qu’elle appelle à l’époque “l’autisme virtuel” et qui s’avèrera être une panique morale montée de toute pièce, en témoigne la réponse faite par le Collectif surexposition aux écrans (CoSE) au courriel du neuroscientifique Hervé Cadiou qui s’étonnait des symptômes “autism-like” :
“Dans ce cas là les médias sont les plus efficaces. Tout ce qui est caricatural est forcément faux mais tout ce qui ne l’est pas n’est pas entendu”.
Sans préjuger de l’honnêteté de Freed, il est tout de même possible de pointer les limites de sa démarche comportant deux biais potentiels : le biais de la taille de l’échantillon et le biais d’autorité. Le biais de taille de l’échantillon consiste à attribuer à la population globale les caractéristiques de son échantillon. Dans le cas qui nous intéresse, comme pour celui du Docteur Ducanda, il s’agit en fait d’une généralisation sur la base leur seule intuition. Le biais d’autorité, quant à lui, résulte d’une tendance à surévaluer la valeur de l’opinion d’une personne que l’on considère comme ayant une autorité sur un sujet donnée. Ici, cela se traduit par le fait qu’un psychologue ou un médecin peut se passer de présenter des références bibliographiques ou des données chiffrées étant donné qu’il parle de son domaine d’expertise. Autrement dit, à défaut d’arguments tangibles, son hypothèse est à considérer comme caduque.
Dopamine et récompense aléatoire
L’objectif poursuivi par ce que Tristan Harris appelle “Le déclassement de l’humain” consisterait à une “course à la racine de notre cerveau” et correspondrait à une sollicitation excessive du système de récompense du cerveau en raison de la production de dopamine. Si dans mon premier article, j’ai expliqué que le taux de dopamine libéré ne justifie pas à lui seul de pareilles affirmations, il s’avère que chez les anglo-saxons des voix s’élèvent également contre cette “dopamania”. Ainsi quand Paul Anderson, docteur en psychologie, analyse la Websérie dopamine, il associe le recours au neurotransmetteur à un “diable folklorique” dans le phénomène de panique morale élaboré par le sociologue Stanley Cohen (1972). De son côté, David J. Ley, également docteur en psychologie, affirme dans un article de Psychology Today que la dopamine n’est pas addictive, elle serait plutôt “comme un petit drapeau rouge” qui repère les expériences plaisantes afin de pouvoir les revivre. Et cela vaut, selon lui, aussi bien pour les montagnes russes, les relations sexuelles, voir son équipe sportive favorite gagner ou tenir son bébé dans ses bras. Même son de cloche chez le neuroscientifique Mark Humphries pour qui la dopamine ne rend pas heureux mais aide à identifier les situations où on pourrait l’être.
S’il n’arrive pas à se départir du mythe du “pic de dopamine” (“Les technologies séductives fonctionnent en déclenchant la libération de dopamine, un puissant neurotransmetteur impliqué dans les circuits de la récompense, de l’attention et de la dépendance”), Freed avance un argument pouvant paraître plausible en évoquant la “récompense aléatoire”. Il n’est cependant pas le seul à évoquer ce mécanisme dont la paternité est attribuée au comportementaliste Burrhus Frederic Skinner. Patino dans la civilisation du poisson rouge et le Youtuber Game Spectrum dans sa vidéo critiquant Fortnite y ont également recours. Le principe est finalement simple : lorsqu’on donne systématiquement de la nourriture à un rat ou un pigeon qui actionne un mécanisme, ce dernier arrête de l’actionner lorsqu’il est rassasié. Par contre, si le mécanisme distribue aléatoirement de la nourriture, l’animal va se mettre à l’actionner frénétiquement, quand bien même il serait rassasié. On retrouverait, alors, ici, de nouveau la dopamine, mais cette fois comme système de prédiction de la récompense. Cependant, une recherche dans Google Scholar ou Scite, deux moteurs de recherche répertoriant la littérature académique, ne mène pas à des résultats probant sur les items “variable rewards”, “videogame” et/ou “social network”. En fait, les articles validant directement cette hypothèse simpliste ne sont pas légion. Ce n’est donc pas étonnant que Freed & cie ne citent pas de source, puisqu’ils n’en ont pas ! Ils se contentent de faire une inférence, c’est-à-dire considérer comme vraie une proposition en raison du lien qu’elle entretient avec une autre proposition déjà tenue pour vraie. Sauf que ce n’est pas parce que la compulsion est avérée chez une animal dans une boîte de Skinner qu’elle l’est forcément pour un humain sur les réseaux sociaux ou devant un jeu vidéo. Autrement dit, même si leur hypothèse est séduisante ou peut paraître plausible, il manque indubitablement des éléments de preuve dans leur argumentation.
“Mélanger les risques individuels immédiats avec les enjeux collectifs à venir ne peut aboutir qu’à une simplification abusive de la réalité.”
De même, évoquer les “machines à sous”, comme le font Freed ou le documentaire ” Abus d’écrans : notre cerveau en danger ?” diffusé le 23 juin sur France 5 , n’est pas non plus un argument recevable. Dans une lettre ouverte à l’OMS (Aarseth et al., 2016), où 26 chercheurs exprimant leurs préoccupations par rapport à la création du Game disorder, notent que l’application de symptômes rappelant les troubles liés à l’usage de substances ou aux comportements de gambling pathologise des comportements qui peuvent être non problématiques chez des joueurs de jeux vidéo réguliers. De plus, avec les loot boxes dans les jeux vidéo ou les prétendues récompenses aléatoires sur les réseaux sociaux, l’individu ne pouvant pas multiplier ses gains n’a pas la sensation de remettre sa vie entre les mains du hasard, ce qui signifie qu’une des principale caractéristique du gambling n’est pas présente. Ainsi Freed, comme les autres, se fourvoie lorsqu’il affirme que “Les utilisateurs ne savent jamais quand ils obtiendront le prochain “j’aime” ou la prochaine gratification dans le jeu” attribuant ce procédé à une intentionnalité de “pirater le cerveau”, puisque d’une part gaming et gambling relèvent de deux problématiques différentes, et que de l’autre les “j’aime” ne sont pas attribués par les plateformes, mais par d’autres internautes en fonction de la qualité des contenus postés. Ainsi, que ce soit pour le “déclassement de l’humain” de Harris ou le “piratage du cerveau” de Freed, pour la santé mentale ou pour l’addiction, les éléments de preuve présentés ne permettent pas de conclure à la véracité de leur propos. L’analyse des procédés rhétoriques qu’ils utilisent tendrait même à démontrer que leur discours est largement exagéré.
Image for post
Image for post
@Likecoholic
Les repentis de la Silicon Valley
Tristan Harris est lui-même un repenti de la Silicon Valley et faire son mea culpa est la raison même de son intervention devant le Sénat. Dans son intervention, la repentance est accentué par les allusions à la religion :
“Mis ensemble, Google et Facebook sont comme un prêtre dans un confessionnal écoutant les vies de deux milliards de personnes”.
Patino dans La civilisation du poisson rouge, en nommant un chapitre “Repentance” continue dans cette voie en citant diverses personnalités et évoquant une scission entre Mark Zuckerberg et les autres :
“Le patron de facebook, continue de faire face aux accusations sans questionner la nature de son entreprise” (p. 49).
Il évoque alors Sean Parker, ancien cadre dirigeant de Facebook, qui aurait déclaré publiquement :
“Dieu seul sait ce que nous sommes en train de faire avec le cerveau de nos enfants” ;
puis Chamath Palihapitiya, autre ancien de Facebook, dont on apprend qu’il est devenu “capital-risqueur”, c’est-à-dire gestionnaire de fonds d’investissement ; et Justin Rosenstein, le créateur du bouton “like” sur Facebook. Bien sûr, il cite également Tristan Harris sans prendre de distance par rapport à son intervention devant le Sénat. Ces repentis, toujours selon Patino, se regroupent dans des associations comme le “Center for human technology” de Harris ou “The time well spent” qui organisent des événements comme la conférence “la vérité sur la technologie” de 2018. Patino finit son inventaire en se demandant si Kevin Systrom et Mike Krieger, les fondateurs d’Instagram racheté par Facebook en 2012 et ayant depuis quitté l‘entreprise, vont rejoindre le mouvement. De son côté, Freed évoque bien entendu Harris, mais aussi Sean Parker, Chamath Palihapitiya, et ajoute à la liste un ancien de chez Apple, Tony Fabell, “considéré comme le père de l’iPad” et actuel PDG de de Nest, filiale de Google spécialisée dans la domotique.
A l’évocation de ces noms un premier constat s’impose : aux Etats-Unis, la repentance ne s’assortit pas de la nécessité de faire pénitence, puisque la plupart des repentis sont encore en activité dans le secteur de la Tech. Ensuite, il est possible de s’interroger sur la véracité de ces propos, puisque Harris lorsqu’il parle de son expérience, pas plus que Freed ou Patino lorsqu’ils lancent l’alerte, n’apportent d’éléments de preuve de ce que les repentis de la Silicon Valley avancent.
En fait, le seul argument se trouve dans l’évocation de Fogg et la captologie, sans jamais décrire ni ses travaux ni les méthodologies qu’il utilise. Ce manque de distance critique donne l’impression d’un gourou de la technologie, ayant mis au point une méthode quasi-magique et qui aurait inspiré toute une génération de nouveaux millionnaires. Nous retrouvons à nouveau ici le biais d’autorité où le lecteur est invité à les croire sur parole. Pour mesurer l’impact de ce biais, un petit détour peut s’avérer instructif. Lorsqu’en septembre 2018, à une journaliste qui lui demande si on a la preuve que les réseaux sociaux fabriquent des outils addictifs, Mounir Majhoubi, alors secrétaire d’état au numérique répond :
“On en a la preuve, on en a la certitude puisqu’ils le reconnaissent eux-même”.
Voici, illustré par les biais cognitifs la contagion des paniques morales. Dans ce cas, le biais d’autorité s’assortit d’un biais de confirmation, lorsqu’une information provenant d’un expert ou une personne censée maîtriser son sujet ne sert qu’à confirmer ce que l’individu tient déjà pour vrai.
Or, il s’avère que Fogg n’est pas le seul à s’intéresser à ce sujet. Dans le livre Le Web effectif (Alloing & Pierre, 2017) deux chercheurs en sciences de l’information et communication se livrent à l’analyse de dispositifs que Freed qualifie de “technologie séductive”. Pour les deux chercheurs, si cela ne fait aucun doute qu’il existe un “capitalisme affectif”, ils confirment qu’il ne s’agit que d’outils de mesure de “ce qui affecte un individu” (p.64). De même, dans une étude récente, des chercheurs de l’université de Princeton (Stachl et al., 2020) ont réussi à valider partiellement le test de personnalité “Big five” à partir de données recueillies grâce au smartphone des participants à l’étude. Dans la discussion des résultats, s’ils sont enthousiastes vis à vis des bénéfices envisageables (éviter le biais de désirabilité sociale dans les réponses aux questionnaires), ils s’inquiètent néanmoins de l’opportunité commerciale de cette méthodologie, non pas pour des raisons de santé mentale ou d’addiction, mais pour des raisons évidentes de vie privée et de consentement à l’utilisation des données personnelles.
Aussi, s’il est difficile de deviner quelles sont les motivations qui poussent les repentis de la Silicon Valley à retourner leur veste, une chose est cependant sûre : mélanger les risques individuels immédiats avec les enjeux collectifs à venir ne peut aboutir qu’à une simplification abusive de la réalité.
Image for post
Image for post
@Pinterest — Cumartesi
Les écoles sans écran
Les écoles sans écran, sont un autre élément tenu pour preuve que l’on retrouve chez ceux qui tiennent des discours technophobes. Selon eux, la dangerosité des écrans, des jeux vidéo et des outils numériques seraient fondées parce que les dirigeants de la Silicon Valley tiennent leurs propres enfants à l’écart des technologies qu’ils créent, et vont même jusqu’à les inscrire dans des écoles qui n’ont pas recours au numérique pour les apprentissages. Dans son livre, Patino décrit les chose ainsi :
“Une procession de milliardaires se flagellant sur les origines de leur fortune, pour mieux s’étonner en public de ce que leur créature est devenue. Qui placent les enfants dans des écoles non connectées et leur interdisent l’usage de leurs inventions, à l’image du créateur de l’iPad qui en prohibe l’entrée à son domicile” (p. 49–50).
Dans son essai, La fabrique du crétin digital, Michel Desmurget (2019) y fait également allusion. C’est finalement bien mal connaître son dossier, puisqu’il s’avère que ces fameuses écoles sans écran sont des écoles où sont appliquées la pédagogie Steiner, le créateur de l’anthroposophie. Si l’on ne peut affirmer avec certitude qu’avec l’anthroposophie nous sommes en présence de dérives sectaires, il est assez facile cependant de pointer un manque de transparence et un goût pour l’occultisme, ce qui devrait suffire à ne pas mettre cet auteur sur le même plan que Freinet, Montessori et Claparède lorsqu’on évoque les pédagogies alternatives. Sauf que le neuroscientifique le fait dans son pamphlet…
Le fait que Steve Jobs ait essayé de soigner son cancer du Pancréas grâce aux médecines parallèles est également un indicateur de l’état d’esprit New Age qui plane sur la Silicon Valley. Ce qui n’est pas étonnant, étant donné que les hippies à l’utopie déçue de la baie de San Francisco ont largement contribué à l’essor d’Internet (Cardon, 2019). Mais encore faut-il le savoir ou ne pas occulter l’information…
“Sur ce sujet comme pour tout autre, il faut aborder ces contenus avec la distance critique requise, car les entrepreneurs de panique morales sont à l’affût.”
Quoiqu’il en soit, on ne peut que constater que les discours technophobes ne s’embarrassent pas de rationalité. Ainsi, c’est un anthroposophe qui serait à l’origine de la rumeur sur les liens supposés entre le déploiement des antennes 5G et la propagation du Coronavirus. De son côté, Jacques Brodeur le créateur du “défi 10 jours sans écran”, par ailleurs plébiscité dans les écoles Steiner, a publié un long article dans la revue Biocontact, connue pour être un vecteur de désinformation sanitaire. Et dernière illustration, le Docteur Ducanda a, un temps, fait la promotion de la miraculeuse méthode Andaloussia pour anéantir l’autisme, en témoignent les captures d’écrans qui circulent sur les réseaux sociaux.
Image for post
Image for post
Verdict
En résumé, à travers les exemples que je viens de passer en revue, il paraît évident que les discours technophobes en général et sur l’économie de l’attention en particulier souffrent d’une absence de données chiffrées et de références bibliographiques quand celles utilisées ne sont pas dévoyées. Il est également possible de déceler la présence de plusieurs biais cognitifs : biais de la taille de l’échantillon, biais d’autorité, biais d’intentionnalité et biais de confirmation. Aussi, sur ce sujet comme pour tout autre, il faut aborder ces contenus avec la distance critique requise, car des entrepreneurs de panique morales sont de toute évidence à l’affût.
Bibliographie
Aarseth et al. (2016). Scholars’ open debate paper on the World Health Organization ICD-11 Gaming Disorder proposal. Journal of Behavioral Addictions, 6(3), 267‑270.
Cardon, D. (2019). Culture numérique. Presses de science Po.
Cohen, S. (1972). Folk devils and moral panics. The invention of mods and rockers” (Réed 1987). Blackwell.
Desmurget, Michel. (2019). La Fabrique du crétin digital Les dangers des écrans pour nos enfants. Seuil.
Hunt, M. G., Marx, R., Lipson, C., & Young, J. (2018). No More FOMO : Limiting Social Media Decreases Loneliness and Depression. Journal of Social and Clinical Psychology, 37(10), 751‑768.
Patino, Bruno. (2019). La civilisation du poisson rouge (Grasset).
Stachl et al. (2020). Predicting personality from patterns of behavior collected with smartphones. Proceedings of the National Academy of Sciences, 117(30), 17680‑17687.
Ce manque de neutralité s'exprime dans la récusation audacieuse d'une nouvelle étude scientifique (Hunt et al. 2018) contredisant quelque peu la vision optimiste des réseaux sociaux par M. Bernard.
Si une limitation est bénéfique pour le bien-être, c'est pourtant bien qu'une absence de limitation ne l'est pas. M. Bernard prétend par ailleurs s'appuyer sur l'étude elle-même pour en souligner l'irrecevabilité, comme le reconnaîtraient eux-même des auteurs,. Or rien de tel dans l'étude. Contrairement à ce qu'affirme M. Bernard ("ce n’est que la méthodologie utilisée qui est jugée prometteuse pour ce type d’investigation"), l'article ( lien ) est parfaitement "affirmatif" dans sa conclusion : "The results from our experiment strongly suggest that limiting social media usage does have a direct and positive impact on subjective well-being over time, especially with respect to decreasing loneliness and depression.".si les auteurs de l’étude notent “qu’une limitation de l’utilisation des réseaux sociaux à 30 minutes peut conduire à une augmentation du bien être”, dans son livre, Patino dévoie ce temps d’utilisation en seuil au-delà desquels les réseaux sociaux seraient dangereux (p.20).
M. Bernard s'efforce ensuite de discréditer le psychologue Richard Freed, dont nous avons traduit et publié la tribune ici même , de la façon suivante :
L'alerte du docteur Anne-Lise Ducanda, loin de correspondre à un "concept fumeux" débouchant sur une "panique morale", s'est révélée parfaitement pertinente : elle a été confirmée par une première étude scientifique d'ampleur, publiée en avril 2020.Cette manière de procéder qui place Freed dans le rôle du lanceur d’alerte, rappelle celle du Docteur Ducanda lorsqu’elle prend l’initiative de faire remonter les inquiétudes du terrain, pour ce qu’elle appelle à l’époque “l’autisme virtuel” et qui s’avèrera être une panique morale montée de toute pièce,
Curieusement, bien qu'il en ait été informé et malgré l'importance de cette étude, le "médiateur numérique" qu'est M. Bernard n'en fait aucune mention dans sa tribune de fin juillet 2020. Il faut dire qu'il s'était indigné que "la Ducanda" puisse être invitée par des municipalités pour s'exprimer ou se félicitait de plaintes déposées contre elle devant l'ordre des médecins ("elle est quand même ahurissante cette histoire d'autisme virtuel") : il est surtout ahurissant que M. Bernard n'ait jamais pris publiquement acte du fait que ces plaintes ont toutes été rejetées par l'Ordre des médecins en 2020. Dès lors, on mesure combien le parallèle est intéressant entre Richard Freed et Anne-Lise Ducanda...
M. Bernard récuse ensuite l'analyse de Richard Freed en vertu de deux biais, l'échantillon et l'autorité. Encore une fois, un praticien de terrain faisant des constats dans sa pratique n'est qu'un lanceur d'alerte (tout comme Anne-Lise Ducanda présente des vignettes et demande, avec le collectif CoSE, des études scientifiques. Et on a vu que, quand ces études interviennent a posteriori, elles sont tout simplement ignorées par M. Bernard). Si on écoutait M. Bernard, Irène Frachon, simple médecin constatant des atteintes cardiaques chez ses patients, aurait dû se taire à propos du Médiator.
M. Bernard s'efforce ensuite de minorer le rôle de la dopamine. Pour cela, il s'appuie non pas sur des études scientifiques, comme on aurait pu l'espérer, mais sur des billets plus ou moins anciens et visiblement pêchés au hasard du net, notamment de deux psychologues. M. Bernard se trompe d'ailleurs le nom du premier d'entre eux, Paul Marsden (et non Paul Anderson) : alors que Richard Freed est psychologue de l'enfant et de l'adolescent, Paul Marsden enseigne la psychologie du consommateur dans une école de commerce, est consultant pour des groupes technologiques et son blog s'intitule "digital well-being". Pour Paul Marsden , il n'y a pas addiction donc le rôle de la dopamine n'est pas important. [url=https://www.psychologytoday.com/u
Connexion ou Créer un compte pour participer à la conversation.