L’idée qu’il y a des trajectoires normales sur Internet et d’autres, anormales. C’est ce qu’on appelle le « nominalisme dynamique » : les individus, à partir du moment où ils savent qu’ils sont classifiés, même s’ils ne savent pas quels sont les critères de classification, vont adapter leur comportement à ce qu’ils pensent qu’on attend d’eux.
Et ce n’est pas rien. Les États qui tendent dans le totalitaire n’ont pas forcément des millions d’opposants en prison. Ils ont surtout des millions de citoyens qui ont peur, peur de sortir des normes, d’avoir un comportement analysé comme déviant.
L’auto-censure est un réel enjeu, autant que la censure elle-même. C’est vers ça que nous mènent la traque des terroristes via des algorithmes en boite noire, qui analysent tous nos comportements sur Internet. La peur est d’autant plus raisonnable quand on voit la démarche implacable et aveugle que peut avoir l’anti-terrorisme dans l’affaire de Tarnac.
Ça me pose question sur les droits et libertés fondamentaux. Parce qu’il me semble qu’ils ne sont pas là pour protéger les formes de vie, d’expression, de comportements, banales, normales, standardisées… Au contraire, ils sont là pour protéger les prises de position qui, sans être jugées illégales, sont jugées déviantes, malsaines, voyeuristes…
Les droits de l’homme jouent le rôle d’auto-subversion de la norme juridique par elle-même.
J’ai un peu peur que ce type de projet de loi érode progressivement, sans qu’on s’en rende compte, cette signification fondamentalement anti-totalitaire des droits et libertés fondamentaux.
Parce que ces algorithmes ne peuvent faire que pointer les comportements a-normaux (ceux qui n’agissent pas comme tout le monde) ou faire des amalagames (ceux qui agissent comme d’autres suspects).
Celui qui n’agit que dans la norme majoritaire n’a pas besoin de protection particulière, son comportement n’est pas spécialement en danger. Ces comportements anormaux ou minoritaires sont justement et exactement ceux que l’État de droit et les droits de l’Homme doivent protéger.
En instaurant ce filet d’algorithme on nie totalement notre droit et nos valeurs fondamentales. Rien que ça.
Et comme dit plus loin dans l’article, la présomption sera forte. Pour qu’un juge, un fonctionnaire ou un politique ose contredire un algorithme qu’il ne connait pas et qu’il ne comprend pas, il va lui falloir un sacré courage. S’il se trompe… autant dire que la présomption ne sera plus à l’innocence une fois qu’on sort de la case prévue par l’algorithme.
Je m’explique : on croit avoir accès à des catégories non-biaisées, mais on ne se soucie plus du tout des causes. Un algorithme qui aide à la décision d’embauche, par exemple, pourrait évincer automatiquement des candidats venant d’une certaine partie d’une ville, parce que statistiquement, ces gens-là restent moins longtemps embauchés que les autres… Ça paraît parfaitement objectif.
Sauf qu’il se peut que les raisons pour lesquelles ces individus restent moins longtemps embauchés tiennent à des préjugés raciaux de la part des employeurs, et que ces individus sont en majorité d’origine nord-africaine. Donc il y a une sorte de masquage des réalités socio-économiques et culturelles par le chiffre.
Là est le danger de toute dictature par les chiffres. Même les humains les plus malins ont du mal à dégager la cause de la conséquence. L’algorithme lui ne le pourra jamais. Il ne regarde que ce qui est. Et à regarder ce qui est, on peut surtout renforcer les injustices, les discriminations, les stéréotypes et continuer à brimer les plus faibles. Il y a un vrai danger, bien au delà du débat de la lutte contre le terrorisme.
Il n’est pas anodin que la plupart des informaticiens ont peur de ces systèmes, et que seuls ceux qui n’y comprennent goute cherchent à les appliquer.
À lire en entier sur Rue89, par Xavier de La Porte et Andréa Fradin.
Laisser un commentaire