jeudi 6 février 2014

Les algorithmes ne sont pas neutres (1) : Introduction.

L'intro qui déchire

On parle beaucoup en ce moment de "Neutralité du net"; Beaucoup moins de "Neutralité des algorithmes". Pourtant dans les algorithmes que nous utilisons tous les jours, à commencer par ceux des GAFA, beaucoup de choix sont fait par les développeurs (ou leurs managers...), basés sur des critères qui n'ont rien à voir avec les impératifs métiers (but de l'algorithme) ou les contraintes technologiques (façon d'atteindre ce but de la manière la plus fiable / stable / légère / rapide possible).


L'exemple simple

Un exemple très simple à comprendre, car ne demandant aucune connaissance technique : L'interface utilisateur de Facebook concernant les réglages de confidentialité des données. Relativement dur à trouver, découpés en plusieurs morceaux, sur-complexifiés... Et surtout, changeant continuellement. Des options apparaissent, disparaissent, sont déplacées d'un menu à un autre, changent de nom... En résumé : chaque nouvelle modification ou vérification de vos réglages implique un ré-apprentissage complet du logiciel. 

Pour expliquer ce phénomène, deux possibilités :

1/ Facebook paye à prix d'or une armée de développeurs web sur-diplômés et triés sur le volet, mais qui se trouvent être TOUS pitoyablement nuls en interface utilisateurs et en design.

OU 

2/ C'est fait exprès.  

[Note de brouillon : penser à flatter le lecteur.] Je vous laisse déduire par vous-même, car si vous êtes un de mes lecteurs, c'est que vous êtes forcément doté d'une intelligence vive et raffinée. Mais pour les éventuels idiots qui arriveraient ici par erreur en tapant "Who is the king of the tralala ?" sur google, explicitons les choses : Les choix consistant à complexifier ce qui est simple, à morceler ce qui est lié, sont bel et bien des choix, conscients, réfléchis, conceptualisés par des individus. Ainsi, ces algorithmes ne sont pas neutres : ils ne sont pas conçus pour vous aider à gérer vos paramètres de confidentialité de la manière la plus simple et la plus efficace possible. Ils sont conçus pour vous rendre la tâche difficile et tenter de vous décourager.

Les implications politiques

Bien sûr, pas besoin d'avoir la moindre notion en programmation pour comprendre l'exemple de Facebook et de la confidentialité. Dans la plupart des cas cependant, ce sont des petits détails beaucoup moins visibles, de petites subtilités, qu'un œil de développeur pourra remarquer un peu partout : Applis mobiles, sites web, systèmes d'exploitation, et même ce jeu vidéo que j'adore où je dois dessiner et colorier des licornes et des poneys. Ne me jugez pas.

Dans une application fermée, on ne saura jamais tout ce qui se passe lorsqu'un algo est exécuté. Mais avec un regard de développeur, en "pensant" aux solutions qu'on aurait privilégié pour coder telle ou telle partie du logiciel qu'on est en train d'utiliser, on détecte plus facilement les raisons qui ont poussés ces entreprises à choisir une façon d'arriver à un résultat plutôt qu'une autre. C'est en partie pour cette raison que beaucoup de gens militent pour l'introduction de la programmation dans le cursus scolaire, dès le plus jeune âge, un peu à la manière d'une langue étrangère.

Former l'intégralité de la population, c'est aussi une façon de récupérer la maîtrise des outils que l'on utilise. Pour résumer, dans le monde que l'on nous dessine, nous louons des matériels (en France, des "box", mais à terme, des "TV Connectées") qui ne nous appartiennent pas, pour utiliser des logiciels que l'on ne maîtrise pas (que fait donc facebook avec mon GPS et mon carnet d'adresse ?), afin de consommer du contenu qu'on croit "acheter", mais qu'on ne peut pas revendre, prêter, léguer (musique sur iTunes, ebooks avec DRM...). On vous vend la jouissance d'un contenu, mais pas sa propriété, et on peut décider de vous le supprimer (ou de le modifier) à l'envie. 

Apprendre dès l'école primaire à comprendre l'informatique, c'est à dire les concepts, les notions, les langages, au lieu d'apprendre à utiliser Word et Excel pour coller au desiderata des entreprises, permettrait à tous de réaliser à quel point l'économie du numérique est aujourd'hui basée sur des pièges que nous n'accepterions de la part d'aucune autre industrie : Je ne pense pas que nos grands parents auraient acceptés d'acheter (cher) une nouvelle voiture (construite pour tomber en panne dans deux ans), pour louer de l'essence (qu'on en consomme ou pas, on paye), qui ne permette de se déplacer que dans les villes avec qui le constructeur a passé des partenariats, qui augmente ses tarifs s'il y a trois personnes à bord alors qu'on a un contrat "célibataire", le tout avec de la publicité sur la moitié du pare-brise, vantant principalement des maisons closes si vous êtes passé au statut "c'est compliqué" - c'est-à-dire si vous conduisez de moins en moins souvent avec un passager à vos côtés. Et bien entendu, le vrai coeur du bizness : La revente de nos habitudes et de nos déplacements à des banques et des compagnies d'assurance.

C'est pourtant ce que nous acceptons tous les jours. Principalement parce que c'est gratuit, facile, et que nous n'avons pas les concepts clés pour comprendre.

Autre exemple : Lorsque Google possède un quasi monopole sur la recherche d'information, il est important de comprendre que les résultats remontées par Google n'apparaissent pas "par magie", mais bien par des choix dans les algorithmes, qui changent et évoluent avec le temps. Nous avons confié à une seule entreprise privé la quasi-totalité de notre accès à la connaissance. Sans aucun contrôle possible, sans aucun moyen de pression (car après tout, nous ne sommes pas les clients de Google, nous ne payons rien : Nous sommes en fait les produits). 

Vie privée, bien commun, domaine public, culture, instruction, économies fondés sur des oligopoles, avec des entreprises plus puissantes que les états, ne respectant presque aucune législation et s'affranchissant des contraintes fiscales... Les implications sont multiples, à peine survolées ici, et elles sont politiques. Intrinsèquement, fondamentalement politiques.

L'exemple suivant : Google Translate

Ce n'est pas la première fois que je voulais faire un article sur le thème de la (non) neutralité des algorithmes. A vrai dire, j'ai déjà deux ou trois brouillons en stock, sur les changements d'interfaces imposés par twitter, ou sur certains téléviseurs connectés LG, notamment. 

Mais faute de temps (thèse officielle) et/ou par légère flemme (rumeur mensongère murmurée dans les couloirs des "milieux-autorisés"), je n'étais jamais allé jusqu'au bout. 

J'ai tenu pourtant à écrire rapidement le billet à venir, car il ne concerne pas seulement la technologie (ma passion #2), mais aussi le langage (ma passion #1) : La traduction par Google.

Que sait-on de ce service ? Que ça fonctionne mal. Certes. Mais que ça peut être bien pratique quand même. D'accord. Quoi d'autre ?

Nous nous questionnerons d'abord sur l'acte même de traduction, et sur ce qu'il implique. Car une traduction neutre est encore plus rare qu'un algorithme neutre. Puis nous verrons quelques comportements pour le moins étrange que peut avoir Google Translate.

Rendez-vous demain, donc. Ou après-demain. Ou comme d'habitude : dans deux ans.

Aucun commentaire: