Les espaces sans écran sont devenus rares. Les temps sans écran, quasi inexistants. Rien d’étonnant, notre attention, notre « temps de cerveau disponible » est le Graal des grandes entreprises de plateforme.

L’expérience utilisateur » est désormais truffée de cheminements, imaginés par les designers pour tromper ou induire les choix de l’internaute. Dans le même objectif : qu’il ou elle ne se déconnecte pas.

Derrière cette attention dérobée, derrière ce temps passé sur nos différents écrans, la possibilité d’une publicité ciblée au plus près des centres d’intérêt, cernés en récoltant toutes nos actions en ligne. L’Union européenne et son RGPD (Règlement général de protection des données) est en pointe sur le sujet. Ne doit-on pas aller plus loin ? Pousser la logique du RGPD, en permettant aux internautes de ne pas autoriser la collecte de leurs données, tout en leur donnant accès au service ? Et de façon explicite. Les dark patterns qui ne semblent pas laisser de choix, forçant à l’acceptation des cookies ne doivent-ils pas être réglementés ?

Ce moteur de croissance, désormais bien connu, s’avère-t-il véritablement toxique ? Un indice de réflexion : selon les recherches menées par Helen Thai, doctorante en psychologie à l’Université McGill, le fait de limiter le temps passé devant un écran à environ une heure par jour aiderait les adolescent·es et les jeunes adultes anxieux·ses à se sentir mieux par rapport à leur image corporelle et à leur apparence. Les consommatrices et consommateurs sont les premier·ères à s’en être ému·es. Pour preuve ? Selon l’outil Google Trends, l’incidence de recherche de l’expression « screen time » a augmenté de 400 % au cours de la décennie passée. Une préoccupation suffisante pour que les différent·es législateur·rices s’en emparent.

Rythme fou

Répondant à cette préoccupation, certains fabricants d’appareils numériques ont intégré à leurs machines cette dimension de temps passé. Apple a été la première entreprise à donner la possibilité à ses client·es de contrôler leur temps d’utilisation de leurs écrans. D’autres ont suivi, sans emporter de véritable succès.

Et c’est désormais aux producteurs de logiciels eux-mêmes d’être contraints de se pencher sur la question. TikTok a annoncé, début mars dernier, un train de mesures pour accompagner la limitation du temps d’écran de ses utilisateur·rices adolescent·es. La principale : configurer un temps maximum de 60 minutes par jour pour les moins de 18 ans. Au terme de cette durée, un mot de passe doit être entré pour continuer à utiliser l’appli. Une obligation de se montrer un tant soit peu actif·ve, pour rompre le rythme fou du scroll passif.

La conscience que l’utilisation de nos écrans n’est pas vraiment guidée par notre libre arbitre mais plutôt par les algorithmes, résonne surement auprès de chacun·e de nous.
Le Club Chut!

Libre arbitre contre algorithme

Ces solutions ne sont que des pansements. Elles ne résolvent pas, de façon durable, la conception même de la technologie qui n’a pas intégré dans ses applications ni dans son design ces notions de sobriété. Par exemple, la combinaison de la vidéo et de la musique, bien connue des spécialistes des neurosciences, montre sa puissance pour capter notre attention. Mais elle n’explique pas, à elle seule, le succès de TikTok. Sur l’application chinoise, il suffit de quelques minutes de scroll pour que les contenus soient personnalisés avec une efficacité impressionnante. Sa rivale, Instagram (groupe Meta), tente de la copier sans pourtant connaître une croissance identique ni un même taux d’engagement.

La conscience que l’utilisation de nos écrans n’est pas vraiment guidée par notre libre arbitre mais plutôt par les algorithmes, résonne surement auprès de chacun·e de nous, petit·es et grand·es.

Envie d’avoir de nos nouvelles par mail ?

Infléchir le modèle

La bataille de la collecte de nos données ne fait que commencer. Toutes ces données viennent nourrir les algorithmes un peu plus à chaque seconde passée devant nos écrans. En forçant les applications et les websites à proposer un choix clair et rapide sur le recueil de nos données, nous pourrions infléchir le modèle, aujourd’hui uniquement fondé sur la captation de notre attention.

Aux côtés du « ecologic by design », des « privacy by design » et « security by design », les éditeur·rices de logiciels pourraient aussi se conformer à une « sobriety by design ».