jeudi 7 janvier 2010

Automatisation et morale

.
Google a été condamné par la Cour d'appel de Paris (arrêt du 9 décembre 2009) parce que Google Suggest, une fonctionnalité par défaut du moteur de recherche, a "produit" un énoncé associant le nom d'une entreprise avec le mot "arnaque". Cette association résulte du classement d'associations constatées dans le passé et stockées par Google sur ses serveurs.

Le tribunal n'a reconnu aucune valeur à l'argument de Google invoquant l'automaticité de la fabrication de l'expression. "Ce n'est pas moi, c'est le moteur", n'est pas un argument recevable. Prétendre qu'il n'y a pas d'intervention humaine est précisément faux : il n'y a pas de programme sans programmeur, derrière tout énoncé, même automatisé, il y a une pensée (un cogito), une personne avec une rémunération, sa liberté et sa responsabilité. Si le hasard ne fait pas bien les choses, c'est qu'il a été mal programmé. Il n'y a pas de "procès sans sujet" (au sens de processus, d'action), la langue ne saurait parler toute seule.

Le quantitatif a ses limites morales : nulle entreprise ne peut se défausser de sa liberté et de sa responsabilité sur le calcul statistique. Les automates ont bon dos. Que des énoncés semblables aient été auparavant produits en grand nombre ne justifie rien, au contraire : le moteur les renforce et les légitime en les répétant. Ce n'est pas Google "suggère" mais Google "répète". Un moteur de suggestion n'est-il pas nécessairement, par construction, un moteur de conformité ?
Le tribunal affirme que tout utilisateur est censé, par défaut, ignorer les principes de fonctionnement d'un moteur de recherche. Aussi, du point de vue de l'analyse linguistique, ces énoncés automatiques sont-ils, pour l'utilisateur non spécialisé, des énonciations dont Google est l'énonciateur. Donc l'auteur, le responsable.

Parce que Google innove sans cesse, en tout sens, il anime le droit, en pousse les limites et contribue à précipiter les problèmes fondamentaux d'une économie numérique. Ce jugement pose des limites morales à la "production" automatique des discours et à leur "reproduction". Il rappelle aussi la responsabilité inaliénable des entreprises programmant "automatiquement" des énoncés. On n'a pas fini de s'y référer. 



* Pour les éléments du jugement(discussion, etc.), voir legalis.net et notamment l'affaire Direct Energie.
.

1 commentaire:

Simona Candrian a dit…

C’est évidemment le faute du programmeur, si le moteur de recherche, trouve des mauvais mots-clés. Mais c’est de toute façon une machine et une machine a des taux erreurs.
Plus souvent qu’une erreur de la machine, c’est le « problème » du contenu. Google est plutôt un miroir du contenu du site. Ce n’est pas l’erreur de Google, s’il y a beaucoup des mots désagréables sur un site. Ça me rappelle à quelque chose que j’ai lu une fois, par exemple ici : http://boingboing.net/2012/06/01/google-image-search-for-euro.html Les différences sont intéressantes, lesquelles on trouve, si on tape les mots des continents dans Google Images. Avec "European", "African" or "American" on trouve des drapeaux ou des cartes. Avec "Asian" c’est différent. Je ne pense pas, que c’est la faute de Google, qu’apparemment le mot "Asian" est plus souvent utilisé dans un différent environnement.