PROJET AUTOBLOG


Reflets

Site original : Reflets

⇐ retour index

Proposition de loi sur les Fake News : quand Reflets rencontre Nathalie Goulet

mardi 28 mars 2017 à 17:19
Nathalie Goulet, sénatrice de l’Orne (UDI)

Le vendredi c’est trolldi, c’est bien connu. Un journaliste gonzo, même au minimum de sa forme se doit donc de troller un peu ce qui mérite le troll. Il se trouve que ce vendredi 24 mars 2017, le trolldi est tombé sur Nathalie Goulet, la sénatrice de l’Orne. Il faut dire que la situation méritait quand même de secouer un peu le cocotier : la sénatrice avait lancé qu’elle envoyait au Sénat le 30 mars une proposition de loi pour réprimer les Fake News sur Internet, avec amende de 15 000€ et peine d’un an d’emprisonnement à la clef.

Le texte une fois lu, pas plus rassuré qu’auparavant, je décide donc, suite à un accès de tweets #pasgentils à @senateur61 avec le compte @_Reflets_, de demander une interviouve à la sénatrice. Et comme c’est quelqu’un ouvert d’esprit et qui s’intéresse vraiment à Internet, qui a voté contre la Loi renseignement, elle accepte immédiatement. Rendez-vous lundi au Sénat, pour un entretien-discussion (qui durera 52 minutes), que votre serviteur vous retranscrit en partie, pour comprendre à la fois la volonté de la sénatrice, et les tenants et les aboutissants de toute cette affaire.

17h, lundi 27 mars 2017 : J’arrive au 15 Rue de Vaugirard, des plantons plutôt sympathiques me laissent entrer dans l’illustre bâtiment. A l’accueil on m’explique que c’est en face, au 26. Je n’avais pas pris le temps de lire le DM de la sénatrice qui me l’indiquait. Tant pis pour moi.

17h05 : Au 26 rue de Vaugirard, contrôle par scanner des affaires du gonzo-journaliste de Reflets. Pas de problème. Je monte à l’étage par un escalier et cherche le numéro de bureau que l’on m’a indiqué. Je frappe, une voix féminine me dit d’entrer, je rentre et me voilà devant la sénatrice Nathalie Goulet. Un bureau plutôt sympathique, pas immense, mais avec beaucoup de bois, des décorations sur les murs, des ordinateurs, des bouquins, bref, on se sent plutôt à l’aise. La sénatrice m’invite à m’assoir, je m’exécute et nous entamons très vite la discussion. Avant même de lancer l’enregistreur, Nathalie Goulet m’avoue qu’elle y est allée « un peu fort » en proposant un an d’emprisonnement et 15 000€ d’amende. Je grimace un sourire d’acquiescement, et finit par rire. « Oui, un peu fort, c’est le moins qu’on puisse dire. Mais le problème ne se situe peut être pas vraiment là ? »

17h08 : Je lance l’enregistrement et la sénatrice débute par une explications du sujet qui nous préoccupe : les Fake News.

Nathalie Goulet : « Le texte que j’ai déposé est là pour ouvrir le débat. Au niveau de l’information, si c’est de la diffamation, de l’injure, c’est couvert par la loi. Moi j’appelle Fake News un attentat qui n’a pas existé, par exemple. C’est avant tout la fabrication du doute. L’opinion publique est faite de telle façon aujourd’hui, que la crédibilité des uns et des autres va plus à ceux qui lancent des scoops. Il y a un contexte général qui n’est pas favorable à la vérification de l’information. »

Drapher : « Oui, et ça me fait venir sur le terrain de l’orientation de l’information. Une information à un moment donné peut être considéré comme fausse ou mensongère, puis devenir l’inverse. Je pense à la Syrie, avec les groupes de rebelles qui étaient « révolutionnaires », et ceux qui commençaient à expliquer qu’ils étaient majoritairement issus d’Irak, du Liban, financés par des monarchies et tirés des rangs d’Al Quaïda se faisaient traiter de pro Assad, et pouvaient se voir accuser de pratiquer de la désinformation. En 2017, tout le monde sait et s’accorde à dire que ce sont des groupes armés islamistes… »

N.G : « Les armes de destruction massive, c’était une Fake news et ça a semé le chaos et tué des milliers de personnes. Je sais bien que le prisme du ministère des affaires étrangères n’est pas aussi simple qu’il en a l’air, et on n’est pas dans la nuance sur un certain nombre de choses. Sur les zones de conflit, j’ai une position très claire : ce qui est vrai le soir peut être faux le lendemain, donc je ne rentre pas les Fake news dans cette catégorie. Il faut donc vérifier les informations »

D. : « Mais qui va définir le mensonge ? Si on définit le mensonge, il faut définir la vérité ? Qui va le faire ? »

N.G : « Oui, je suis d’accord, mais il faut mettre le débat sur la table. Cette histoire de Fake News peut prendre des proportions inquiétantes. Si les réseaux avaient existé au moment du protocole de Sion, je ne suis pas sûre  du résultat que ça aurait eu… »

D : « Les défenseurs des libertés du net dont je fais partie en tant que journaliste de Reflets ne sont pas contre le débat à ce sujet. Mais commencer par « 15 000 euros d’amende et un an d’emprisonnement », c’est une entrée en matière qui n’incite pas vraiment à y aller »

N.G : « J’ai fait vérifier par les services du Sénat, le droit existant n’est pas suffisant pour poursuivre et condamner. »

D. « Si on se situe dans le droit uniquement, par rapport à Internet et les Fake News, certainement. Mais le problème n’est pas là à mon sens… »

N.G : « Mon sujet c’est de qualifier les Fake News, ce que je ne sais pas faire toute seule. Comment y remédier sans pour autant institutionnaliser une vérité d’Etat, ce que je ne veux pas ? Quand vous avez un élément qui est manifestement un mensonge, avec la mauvaise foi qui va avec, vous avez derrière des conséquences, et n’est-ce pas au législateur de réfléchir à la chose ? »

D. : « Je vous donne un exemple, avec le fameux café interdit aux femme, où deux journaliste de France TV sont allées et ont ramené un reportage qui a déchaîné les passions sur Internet. Ce reportage a été entièrement démonté par le Bondy blog qui sont allés vérifier que tout était faux, fabriqué. Des femmes venaient dans ce café, et le quartier entier était choqué par ce reportage. Les journalistes avaient décidé de ramener ce sujet avec cet angle, et elles se sont débrouillées pour le faire. Qu’est-ce qu’on fait dans ce cas là, on met en prison les deux journalistes avec 15 000€ d’amende ? »

N.G : « Oui, mais le sujet c’est que ma loi comme vous l’appelez, c’est un produit d’appel, et qu’on se mette autour d’une table pour en discuter. Moi je vois qu’il y a un trou dans la législation. Il y a un éventail très large de fake news, et il y a des conséquences. Il y a des victimes. »

D. : « Ok, je suis d’accord. Mais dans le cas de la fake news Trump, avec les attentats en Suède, bien qu’il n’ait jamais parlé d’attentat mais sous-entendu qu’il s’était passé quelque chose, qui est la victime ? »

N.G : « Moi je pense qu’il faut une graduation, mais il faut une définition. C’est vraiment un produit d’appel cette loi. Si on ne réfléchit pas tous ensemble, ça va être terrible. Je suis affolée par la violence sur les réseaux sociaux, par la société écorchée et le manque de tolérance dans l’absolu. Il faut en débattre. J’ai fait ça il y a peu avec le syndicat des journalistes sur la personne morale des rédactions, il y a un problème de droit énorme parce que les rédactions ne sont pas protégées. »

D. : « On est quand même dans un dialogue difficile, parce que d’un côté vous me dites que c’est pour ouvrir le débat, et dans le même temps il y a le droit. Le fait de réprimer les fake news. »

N.G : « Parce que le seul outil que j’ai ici c’est le droit. Il faut que vous compreniez quelque chose, la majorité des parlementaires ne sait pas faire vraiment bien fonctionner son téléphone portable, et vous leur demandez de devenir des spécialistes des blocages de site, des boites noires, des algorithmes, etc.  Le seul moyen, parce qu’on a très peu d’outils, c’est de déposer quelque chose pour avoir un outil de travail« .

D. : « Il faut quand même voir que Dan Shefet avec qui vous avez travaillé pour ce texte est très orienté dans la voie d’une régulation d’Internet, et qu’on se demande bien quand même comment il n’en sortira pas une régulation, de cette proposition… »

N.G : « Si c’est ça c’est pas mon objectif. Parce que je fais partie des gens qui considèrent qu’on ne peut pas réguler le net. »

D. : « Ben, si vous voulez réprimer les fake news sur Internet, vous allez devoir réguler Internet… »

Je prends une tête de gonzo journaliste contrit et attend avec une impatience la mieux dissimulée possible la réponse. Parce que ça devient vraiment intéressant. Je trouve.

N.G : « La réalité de ce qui m’intéresse moi, c’est : est-ce qu’on peut définir ces fake news, cerner ce sujet. Je n’ai pas d’autre outil pour engager un débat avec les professionnels d’Internet et les journalistes. Est-ce qu’il faut les éviter, comment ? »

D. : « Mais la question est justement peut être là : faut-il les éviter ? »

N.G : « Je ne me résous pas à ce qu’Internet soit une zone de non-droit »

D. : « Mais ce n’est pas le cas. Il y a des gens qui passent en procès pour leurs actes sur Internet, il y a des plaintes, la justice est active sur Internet. »

N.G : « Oui, mais c’est long et compliqué… »

Et là, le gonzo journaliste part dans une longue diatribe. Ca ne se fait pas dans le journalisme standard. Mais tant pis.

D. : « Je crois qu’on est sur une confusion des choses. On confond le symptôme et le mal. Je vous prends un exemple, avec l’exemple du moustique et du marteau dans une pièce humide. Il y a ceux qui prennent un marteau pour essayer d’écraser le moustique et ceux qui se posent la question « pourquoi le moustique est rentré ? » Peut-être parce qu’il y a de l’humidité, et qu’il faut assainir la pièce. Pour que le moustique ne revienne pas. Internet c’est exactement pareil. Vous n’arriverez jamais à écraser le moustique. Et même si vous arrivez, il y en aura dix qui reviendront. A chaque fois qu’il y a un problème sur Internet, les politiques s’en emparent, prennent leur marteau et essayent d’écraser le moustique issu d’Internet. Ce qui m’agace profondément, c’est qu’il y a des associations formidables avec des centaines de personnes dedans qui font un boulot extraordinaire depuis des années, qui sont indépendantes politiquement, et veulent essayer de faire qu’Internet reste « sain ». Personne n’appelle ces personnes au niveau national. L’idée serait peut-être qu’on leur donne des moyens pour faire de l’éducation populaire. Faire remonter ces fake news. Les mettre en avant ces fake news, pour expliquer au public en permanence ce que sont ces fake news. L’idée serait de faire appel à l’intelligence des gens. Parce qu’ils sont preneurs, si ce n’est pas le « système » qui leur parle, de réfléchir à ce qui leur est renvoyé sur le net. »

N.G : « Ah mais je suis très emballée par une solution qui ne soit pas législative. Mais on fait comment ? »

D. : « Si des associations indépendantes, jamais récupérées par personne, viennent faire un travail d’éducation populaire, aidées de journaux indépendants, pour permettre aux gens de comprendre ce qu’il se passe, ça peut être intéressant quand même… »

N.G : « Le législateur n’est pas à sa place, neuf fois sur dix, c’est la pratique qui fonctionne. Je suis d’accord. Ce n’est pas une loi anti-terroriste ni stop djihadiste qui va arrêter le terrorisme. Mais je n’avais pas vu les choses de cette manière, et c’est pour ça que je vous ai fait venir, donc je suis preneuse de ces idées. Je suis de bonne foi. Ce que je vous propose est assez simple. Je connais quelques personnes comme Jérémie Zimmerman, de la quadrature que j’ai fait venir pour une conférence formidable sur les réseaux djihadistes en ligne. Je vais faire un tour de table le 30 mars, ce texte va nous servir à réfléchir, et peut être en juin, juillet on peut faire une table ronde professionnelle, de façon à budgéter une assistance avec la Quadrature et d’autres structures. Ca c’est un projet qui n’est pas législatif, qui est un projet de société et que je peux porter. La proposition était un pur produit d’appel, donc c’est parce qu’elle vous choqué qu’on échange et que des solutions émergent… »

J’arrête ici la retranscription de cet entretien.

La sénatrice Nathalie Goulet a décidé de changer son texte de loi, indiquant les dispositions d’éducation aux médias, de réflexions avec les associations, de réflexion collaborative à venir sur les fake news, et de sursis au lieu de prison ferme. Si le texte n’a pas été changé à tous les niveaux comme elle le souhaitait à la suite de cet entretien, elle fera de toute manière une déclaration jeudi, pour annoncer la révision du texte.

Bien entendu, il faut attendre la proposition du texte de Nathalie Goulet jeudi, et voir si le projet de société qu’elle semble vouloir porter aidée des légions de l’internet libre©Mettout des « associations de défense des libertés du net » se réalise. Si c’était le cas, nous serions contents chez Reflets. Et nos lecteurs ?

[Ceci était un gonzo-reportage de Reflets au Sénat.]

 

 

Comment créer une société totalitaire [acceptée et acceptable], mais sans que ça se sache ?

mardi 28 mars 2017 à 13:51

 

La vision courante du totalitarisme — partagée par le plus grand nombre dans les grandes nations industrialisées — est basée le plus souvent sur une expérience historique, celle du nazisme. C’est ainsi que de nouvelles terminologies comme « islamo-fascisme » font florès et sont utilisées par le personnel politique en charge de l’administration des dits pays. Il y aurait donc des « régimes » totalitaires définis de manière simple et compréhensible par le plus grand nombre, faciles à dénoncer et à assimiler, soit au nazisme, soit à ses équivalents dictatoriaux antérieurs ou postérieurs : les fascismes, mais aussi le communisme soviétique. Selon cette vision, le totalitarisme serait un mode de gouvernance politique, avec son despote en chef, ses lois dures, sa justice implacable, son administration soumise, ses forces répressives aux ordres.

Au cœur du processus totalitaire : la limitation des libertés individuelles, collectives, réduites à leur plus simple expression, par mesure d’efficacité pour l’ensemble de la société. Cette vision du totalitarisme revêt de grands avantages pour ceux qui la diffusent : elle évite de questionner les fondements réels du totalitarisme, et par essence, ceux de la démocratie. Pourtant, une société totalitaire peut se constituer sans se définir en tant que telle, et surtout, sans modifier fondamentalement ses processus démocratique constitutifs. Il est possible de vivre dans une société totalitaire sans que personne n’ose la définir pour ce qu’elle est, ni même la contester. Comment une telle chose est-elle possible ?

Contrôler, contraindre, soumettre et faire adhérer

Le vieux totalitarisme du XXème siècle demandait de nombreux moyens matériels et humains. L’adhésion du plus grand nombre avec les grandes règles totalitaires établies par un chef élu dans les urnes ne suffisaient pas à pouvoir faire perdurer conséquemment une dictature des esprits, intrinsèquement liée au phénomène de réduction des libertés. Il était ainsi nécessaire de faire travailler des corps administratifs importants, à la solde du régime et sommés de contraindre et soumettre aux règles totalitaires la totalité de la population. Les forces de répression (police, renseignement, armée) en étaient une pièce maîtresse, mais insuffisante. Ainsi, l’ensemble de la bureaucratie d’Etat devait appliquer au plus près toutes les actions, règles, contrôles qui permettait la soumission du plus grand nombre au « système » mis en place.

L’idée principale de tout totalitarisme est toujours la nécessité — pour le bien collectif — d’acceptation d’un tel système, qui même s’il comporte de nombreuses contraintes individuelles, est vendu comme étant le seul moyen d’éviter le chaos, la destruction du corps social. L’adhésion des foules est donc la dernière pièce centrale de tout système totalitaire. L’ouvrage de Wilhelm Reich, « La psychologie de masse du fascisme » (1933), exprime avec une extrême acuité ces procédés socio-psychologiques qui permettent la « fabrique du totalitarisme ». Mais l’époque de la fabrique du totalitarisme par adhésion des foules à une idéologie politique, (soit l’acceptation d’un système totalitaire basé sur un contrôle vertical) est révolue. D’autres procédés totalitaires, bien plus puissants et profonds se sont constitués, et commencent à générer la société totalitaire du futur. Avec comme pivot, les technologies du numérique.

Efficacité, efficience, désincarnation et dématérialisation

La soumission des foules à des règles dures, souvent injustes et surtout décorrélées de toute logique humaine concrète est le premier pas pour constituer une société totalitaire. Dans un tel système il n’y a aucune négociation possible entre les individus et les règles qui s’imposent à tous, même si ces règles peuvent générer l’inverse de leur objectif affiché, ou être sans effet visible. La mécanique totalitaire a besoin de s’afficher dans l’efficacité, et si celle-ci n’est pas ou peu au rendez-vous, rien ne doit pourtant changer : l’efficacité totalitaire est par essence définie dans sa propre substance. Et c’est là que la technologie intervient.

L’espace social, dans une démocratie, est un lieu de négociations et de contestations, d’échanges entre des individualités qui confirment ou infirment leur volonté commune d’adhérer à une politique donnée. Le système de représentation politique est censé appliquer ce qui a été promis [de faire] aux électeurs, ajuster ses actions en fonction de l’adhésion plus ou moins grande, de la contestation plus ou moins forte envers ces mêmes représentants. Dans un système totalitaire basé sur les technologies numériques, tous ces aspects de négociations au sein de l’espace social n’ont plus cours. Ils n’ont plus aucune nécessité, sont écartés au profit d’un nouveau contrat —totalitaire — donnant l’illusion d’une conservation de la négociation démocratique.

Les représentants simulent des débats, axés en permanence sur l’efficacité, puis légifèrent avec ou sans l’approbation de la majorité des représentants (49.3), et renvoient le corps social à une simulation de contestation ou d’adhésion par l’utilisation des technologies numériques de l’information (Facebook, Twitter). Cette société, désincarnée, dématérialisée, pourrait parvenir à se maintenir dans ce schéma sans pour autant contenir les ingrédients du totalitarisme : après tout, le mépris des gouvernants en démocratie n’est pas nouveau, que la contestation sociale soit dans la rue ou sur un réseau informatique n’est possiblement pas un élément significatif. Il faut donc que des outils totalitaires viennent écraser la possibilité d’un vitalité de l’espace social, tout en simulant la possibilité [autocensurée] démocratique de le faire. « Contrôler » les esprits et les volontés, réguler les désirs, influencer les émotions : les moyens d’y parvenir sont connus. Reste à les mettre en œuvre.

Cherche gardiens numériques d’espace politique et social panoptique. Deep learning exigé.

Un système totalitaire a besoin que chaque individu constituant la société soit soumis à une somme de règles et de contrôles suffisante pour qu’il ne se comporte jamais autrement que ce que le système exige. Si dans ce type de systèmes, la répression et la peur du châtiment étatique étaient suffisants au XXème siècle, le totalitarisme du XXIème siècle possède des outils bien plus performants pour parvenir au même but. Avec un bonus incommensurable : l’ignorance de ceux-là mêmes qu’il contraint. Les foules. Et chaque individu les constituant.

Le principe de départ d’organisation du totalitarisme « moderne » est conditionné à l’émergence d’un élément central, longtemps imaginé, cherché, lentement testé, souvent reporté, et qui émerge au tournant de la moitié de la deuxième décennies du XXIème siècle. Son nom courant est l’IA. L’intelligence artificielle. Les spécialistes préfèrent parler d’algorithmes apprenants et spécialisés, basés sur les procédés informatiques de réseaux de neurones, de deep learning et data mining. Les IA sont au travail en 2017. Elles déplacent des véhicules, recherchent des fraudeurs aux aides sociales, surveillent les foules à travers des réseaux de caméras, créent et diffusent de l’information, simulent des activités humaines numériques, pistent des activités, tentent d’inciter des humains à acheter, épaulent des humains dans leurs activités, jouent en bourse, répondent à des questions, établissent des prédictions… Leur efficience est en croissance permanente tout comme leur nombre. Leur docilité est parfaite. Leur vitesse d’exécution inabordable pour l’esprit humain, et leurs capacités à appliquer des règles, vertigineuse.

Le respect absolu des règles est justement l’essence même du totalitarisme. Quoi de plus performant qu’une IA qui voit, lit, entend à la vitesse des circuits électroniques, de la lumière qui circule dans les tuyaux pour faire respecter des règles ? Une IA n’étant elle-même qu’une somme de règles qui s’appliquent au sein d’algorithmes, la performance totalitaire de ces nouveaux agents du « système » est évidente. Un système qui adopte, chaque année de nouvelles règles toujours plus fortes, plus contraignantes, pour le bien du plus grand nombre. Pour réduire les risques, diminuer les dangers, éviter les écarts, accroître la sécurité.

Ces IA (algorithmes) sont les nouveaux gardiens invisibles des règles du système. Chacun sait plus ou moins consciemment qu’ils sont là, qu’ils nous observent (ou pas) dans les villes, trient sur le réseau nos métadonnées, parfois nos données pures, établissent des statistiques sur nos comportements, suivent nos déplacements, observent nos activités. Le principe de l’espace panoptique total est possible grâce aux IA. Nous sommes tous sous leur surveillance invisible. Nous ne savons pas quand, ni où précisément, mais nous savons qu’elles observent le suivi des règles. Des leurs propres, et de celles que nous autres humains sommes censés respecter. Pour résumer : le totalitarisme algopolitque est la simulation d’une prison panoptique à l’échelle d’un pays, automatisant la répression des écarts et forçant à l’autocensure.

Croissance infinie du contrôle sécuritaire : jusqu’à la singularité ?

Plus le monde se modernise, plus il est déclaré dangereux. Plus il est déclaré dangereux plus la modernisation des outils sécuritaires est justifiée et s’accroît. Cette croissance sans fin de la sécurité par les technologies (intelligentes) n’est pas possible à freiner tant qu’aucun responsable ne lancera un cri d’alarme. Ou que les populations ne mettront pas en cause fortement cette nouvelle société dystopique pour forcer les responsables à la stopper. Le plus « drôle » dans l’affaire, est que ceux là même qui prônent et poussent à l’avènement de cette société techno-totalitaire pour la sécurité de tous, pourraient bien se retrouver comme responsables… de la destruction de l’humanité. Mais ceci est une autre histoire. Celle de l’émergence de la singularité. Invisible. Silencieuse. Comme le sont toujours les agents algorithmiques…

Aux chiottes les caméras !

vendredi 24 mars 2017 à 18:18

“La com’, c’est plus c’que c’était. Sont d’venus cons ces salariés quand même”.

Entre pâté et cornichons, ballon de rouge en main, le Directeur de Création nous joue l’air du “c’était mieux avant”.

Figure-toi que y’a quelques temps, on allait faire une campagne pour du papier toilette. Alors moi, je propose de mettre des caméras dans les toilettes de l’agence pour voir quel usage font les gens du PQ. Normal. Faut bien se docu(l)menter avant de produire une créa. Non ?”

J’écoute, atterré.

Je ne sais pas vous, mais moi, quand quelqu’un présente un certain niveau de connerie, ou mieux, un niveau de QI en dessous de 7, je reste comme médusé. Je l’ai déjà écrit dans un précédent billet, mais pourquoi ne pas le redire ? Dans ces cas particuliers, j’observe la personne avec la même attention que si je voyais un insecte hallucinant cloué avec une épingle dans une boite, sous verre. Tous les détails m’intéressent. Je veux tout voir, tout observer.

“Et tu sais quoi ? Ces cons, ils ont gueulé, genre ouaaaaiiiss, on peut pas mettre des caméras dans les toilettes, comme si j’étais dingue de proposer ça. Ca va, faut se détendre du string les gars, on bosse dans une créa ! J’y crois pas… Y’a quelques années ça les aurait fait tripper, au contraire !

Vraiment, moi non plus, je ne comprends pas ces salariés à qui on apporte paix, amour, joie, harmonie, ondes positives et bonheur avec du Feng-Shui via la plus grande experte dans ce domaine depuis les temps immémoriaux de la Chine antique (Lao Tseu reviens, ils sont devenus fous).

Sont cons quand même.

Et vraiment pas détendus du string.


Morpho-Safran : la société algopolitique dystopique du futur a débuté

vendredi 24 mars 2017 à 14:10

Morpho-Safran — comme cet article de Reflets l’expliquait il y a peu — est une entreprise de high-tech excessivement pointue dans le domaine de la biométrie, et qui depuis plusieurs années travaille sur des outils de « détection du crime » à base d’IA prédictives. Une première tentative de réalisation d’un logiciel en partenariat avec le Teralab de Mines Télécom et nommé Anticrime/Horizon a été effectuée. Selon les informations de l’époque, ce logiciel semblait destiné avant tout à concurrencer Predpol, le fameux logiciel de détection du crime américain.

Mais la spécificité de Morpho-Safran, axée sur le traitement de données biométrique, et proche des services de l’Etat (rappel : Morpho réalise la première version du fichier monstre français TES), en fait une entreprise aux possibilités très importantes en termes d’algopolitique et d’algogouvernance. Et si Morpho-Safran participait déjà à organiser la société dystopique de la surveillance automatisée et du contrôle des populations par reconnaissance visuelle d’intelligences artificielles ?

1 milliards d’Indiens fichés par Morpho : et moi, et moi, et moi ?

La volonté des États de ficher et identifier leurs populations de façon numérique existe depuis longtemps. En 2017, elle est en cours de réalisation. Safran-Morpho explique avec simplicité cette « nécessité » de fichage biométrique sur son site :

« L’utilisation de la biométrie est la contribution la plus efficace aux registres de population. Elle garantit l’unicité et la viabilité de l’identité d’un individu.

Les solutions d’enregistrement de population de Safran Identity & Security utilisent les trois principales biométriesl’empreinte digitale, le visage et l’iris -, sélectionnées en fonction des contraintes culturelles, budgétaires et sécuritaires de chaque pays. Elles reposent sur notre savoir faire technologique et leur robustesse éprouvée. »

Cette technologie d’enregistrement biométrique a de nombreuses déclinaisons, pour autant de produits Safran différents dans le catalogue. L’une d’elles se nomme Morpho Argus  et peut servir à :

Comparer des portraits à une liste prédéfinie de personnes. Lorsqu’il y a correspondance, une alarme est générée. Elle peut être envoyée soit au personnel de sécurité, soit à un autre système ou peut être revue par un agent en faisant une comparaison d’images côte à côte. Créer une base de données en ligne qui pourra être utilisée plus tard pour localiser une personne dans l’espace comme dans le temps.

Dans ce cas, son portrait sera comparé à la base de données en ligne et une liste de candidats sera communiquée à l’agent pour revue. Ces cas d’utilisation ne sont pas exclusifs, Morpho Argus est capable de faire les deux en même temps et sur le même flux vidéo. Morpho Argus peut analyser simultanément des flux vidéo provenant de plusieurs caméras IP sur un même réseau. Il utilise un moteur biométrique et une base de données centralisés pour réaliser des comparaisons faciales et les stocker. Morpho Argus peut gérer plusieurs listes de recherche et inclut un logiciel permettant de les modifier et de les gérer globalement..

L’Inde a sauté le pas depuis 2009 dans le cadre de son programme Aadhaar de fichage biométrique de ses 1,2 milliard d’habitants. Le but affiché du gouvernement indien — comme dans le cas français — est de limiter la fraude, l’usurpation d’identité, et d’arriver sous peu à pouvoir identifier de façon formelle et informatique n’importe quel citoyen indien. Mais quelle entreprise est capable de réaliser une chose pareille ? Plusieurs ? Non. Une seule. Et quelle est cette entreprise qui a remporté ce marché ? (ceux qui savent se taisent…) : Safran-Morpho.

Un fichier méga monstrueux de plus d’un milliard d’individus est donc en cours de réalisation. Fichier biométrique et certifié French-tech et  Morpho-Safran conforme. Avec les visages des personnes, leurs empreintes numériques digitales, leur iris. Le même fichier qui arrive en France, mais à l’échelle du sous-continent. Bien entendu, comme dans le cas français, ces fiches informatiques très précises ne doivent pas [normalement, et pour l’heure] être utilisées dans d’autres cas que le contrôle de l’identité des personnes. L’objectif affiché de ce fichier est donc, de façon officielle, de simplement permettre aux administration d’être certaines que la personne demandeuse ou contrôlée est bien celle qu’elle prétend être. Pour l’heure.

Quand Morpho vend ses IA de détection/investigation faciale aux policiers 3.0

Depuis 2016, Morpho-Safran se vante d’avoir vendu deux systèmes de reconnaissance faciale « intelligents » aux forces de police néerlandaises et française. Le premier se nomme Morpho Argus/ Morpho Bis, et est utilisé en Hollande.

« Le système, déployé au niveau national et doté de fonctions de recherche, de comparaison et d’analyse, a été récemment installé au Centre national de la police judiciaire du pays. Les policiers hollandais peuvent désormais comparer la photo d’un visage avec celles de leurs bases de données et ainsi gagner un temps précieux. »

Ce logiciel capture en temps réel les visages humains et les compare avec un fichier de personnes recherchées ou non-autorisées. Une sorte de « comparateur de visages numérique automatisé », mais qui permet quand même de créer « des listes de surveillance à partir des visages détectés dans un flux vidéo » : automatisation de la création de fichiers de visages ? Pour constituer à la volée des bases de données de visages ? La question mérite d’être posée et la publicité de Morpho-Safran mériterait d’être éclaircie à ce niveau là…

Petite vidéo promotionnelle pour le Morpho-Argus :

Cette technologie ciblée de détection et comparaison de visages été étendue à des outils plus élaborés, permettant de suivre à la trace des suspects. L’un d’eux est nommé MVI (Morpho Vidéo Investigator) et c’est lui a qui a été vendu en 2016 à la police nationale française. C’est un « détecteur de suspects », un enquêteur et investigateur numérique. Une IA flic. Cette intelligence logicielle qui se connecte aux caméras de surveillance, aux réseaux sociaux, à Google images, etc., est donc capable de repérer des personnes suspectés d’actes criminels dans une foule, d’établir des correspondances d’identification à travers tout type de fichiers publics ou non, et de suivre ces personnes à la trace. Repérage des véhicules empruntés, plaques d’immatriculation, trajets, tout est enregistré et traité par l’IA. Jusqu’à, par exemple, « prédire » le lieu de rencontre de deux suspect, comme la vidéo promotionnelle suivante le démontre :

Changement de société ou simple amélioration des outils ?

L’exemple de la « détection du crime », d’identification et d’investigation par des logiciels spécialisés, semi-autonomes, pur produit des recherches en intelligence artificielle, est symptomatique du basculement en cours. De la mutation très discrète, mais profonde de la société. Ou plus précisément, de la gestion politique de la société française. Pour de nombreux observateurs, et le plus souvent pour le public en général, des logiciel comme MVI et Argus ne sont rien d’autre qu’une « évolution logique » et technologique des outils mis à la disposition des fonctionnaires, dans le cas d’espèce de la police nationale. Un peu comme ce que serait le passage du portrait robot dessiné à la main à Photoshop.

En réalité, il n’en est rien, puisque l’arrivée de ces IA est un profond changement de paradigme, la porte ouverte à une nouvelle forme de société, où l’Etat aidé d’acteurs économiques privés établirait un contrôle sur les corps et les esprits, délégués à des agents numériques aux fins d’empêcher ou prévenir toute possibilité de transgression des citoyens. Nous sommes là dans la définition d’une société totalitaire. Une dystopie basée sur la surveillance des machines intelligentes. Qui s’installe, sans un bruit, sans concertation. Pour la sécurité, et contre les libertés. Mais qui s’en précoccupe un tant soit peu aujourd’hui dans la classe politique ?

Qosmos renvoyé à son DPI par la 17ème chambre du TGI de Paris

mercredi 22 mars 2017 à 12:08

[Full disclosure : l’auteur de cet article était cité comme témoin par la défense dans ce procès] Dans son jugement du 26 janvier, la chambre spécialisée dans les délits de presse a savamment assaisonné Qosmos qui poursuivait pour diffamation James Dunne, un de ses anciens salariés, et une journaliste de France 24. Alexandra Renard avait signé un reportage intitulé « Des logiciels français vendus aux dictateurs ? » dans lequel était interviewé James Dunne.

Qosmos estimait être diffamée par les propos suivants :

« Il travaillait pour QOSMOS, une société française d’informatique qui a créé une technologie hyper-perfectionnée, une technologie capable de surveiller de d’analyser avec précision des nations entières via Internet, le tout en temps réel. C’est ce bijou de surveillance massive qu’a vendu leur partenaire français AMESYS au colonel Kadhafi, une arme numérique idéale pour traquer les opposants du régime ».

« A l’époque je ne savais pas qu’on avait livré à la Libye, je ne savais pas qu’on était en train de livrer à la Syrie ».

« Ce que je souhaite, c’est qu’on ne puisse plus vendre impunément de tels logiciels, de telles technologies à des dictatures tout simplement ».

Il n’est pas inintéressant de noter que Qosmos n’a pas poursuivi les dizaines de media qui ont relayé le même type d’analyses. L’auteur des propos, James Dunne, était sans doute l’homme à faire taire, lui qui avait alerté la presse par ses écrits sur son blog à propos des activités peu recommandables, sur un plan éthique notamment, de Qosmos et d’Amesys.

La 17ème chambre a donc jugé que ces propos n’étaient pas diffamatoires. Mais c’est l’argumentation de la cour qui est intéressante. Elle s’est appuyée sur les arguments habituels de Qosmos (ou d’Amesys d’ailleurs) pour débouter la société.

La Cour souligne ainsi :

 » […] force est de constater :

Qu’il n’est pas imputé à la société la commission d’une infraction pénale, le fait que des opposants soient arrêtés étant à l’évidence en lien avec l’action des dirigeants des États mis en cause et ne résultant pas d’une action directe de la société QOSMOS, dont le rôle se limite à avoir fourni une technologie ».

Sur ce point, la cour utilise l’argument récurrent de Qosmos : nous vendons des briques technologies, pas à des États mais à des intégrateurs, l’utilisation qui en est faite nous n’en sommes pas responsables…

« Que le fait de fournir une technologie, certes sensible, à des régimes autoritaires ne contrevenait en outre à aucune règle légale, […] à tout le moins jusqu’à la fin de l’année 2014 »

Le PDG de Qosmos, Thibaut Bechetoille a toujours dit que le commerce du DPI n’était pas assez encadré, y compris dans la mémorable interview qu’il avait accordée en 2011 à des contributeurs de Reflets sur Techtoc.tv :

Dans cette interview, Thibaut Bechetoille explique : « Je crois que l’utilisation de la technologie de DPI doit être…. Doit être encadrée bien sûr ».

Devant les juges du Pôle Crimes contre l’humanité du Tribunal de Grande Instance de Paris, il estimait que « Qosmos milite pour une réglementation internationale concernant la vente des produits de surveillance électronique ».

« Que livrer du matériel technologique sensible à des régimes autoritaires ne peut non plus être considéré comme un comportement moralement condamnable, le commerce international justifiant de travailler avec nombre d’États, dont certains non démocratiques ; qu’il n’en résulte pas un manquement évident à la morale commune, sauf à considérer des pans entiers de l’industrie française, notamment l’industrie d’armement ou le secteur des hautes technologies, comme étant objectivement et par nature condamnables.

Ainsi, s’il est fait état, dans les propos en voix off et dans l’interview, d’un fait précis pouvant faire l’objet d’un débat probatoire, il n’en résulte pas, pour autant, une atteinte à l’honneur et à la considération de la société QOSMOS »

Les propos poursuivis ne représentent donc pas un caractère diffamatoire au sens du droit de la presse.

Ainsi, sans qu’il y ait lieu de se prononcer sur les autres moyens soulevés, les prévenus seront renvoyés des fins de la poursuite.

La cour met ici sur le même plan les vendeurs de DPI et les vendeurs d’armes en disant qu’il arrive que ce type d’industrie vende à des pays peu démocratiques. Un euphémisme… Il n’est donc pas diffamatoire de le dire.

Qosmos n’a pas fait appel de cette décision. De fait, elle aurait dû, le cas échéant, se battre contre ses propres arguments, ce qui aurait été assez cocasse.

Ce procès est le troisième que Qosmos perd contre James Dunne (4 procédures). Les deux premiers étant liés à son départ de l’entreprise. Thibaut Bechetoille avait une relation très particulière avec son ancien employé devenu lanceur d’alerte. Dans un café où il recevait des journalistes avec une agence spécialisée dans la communication de crise (Clai), il s’était emporté, criant que James Dune était fou, qu’il fallait l’enfermer. En 2013, réagissant à un article de Mediapart, Thibaut Bechetoille indiquait :

« Nous restons confiants dans l’issue de la procédure, tant les faits qui nous sont reprochés par cet ancien salarié sont faux et calomnieux. Nous rappelons que nous avons porté plainte pour diffamation contre cet ancien salarié. »

Des faits faux et calomnieux… Ce n’est pas du tout l’avis de la 17ème chambre. On imagine mal Thibaut Bechetoille présenter des excuses à James Dunne. Mais on peut s’interroger sur deux points.

Le premier concerne les particuliers qui sont attaqués par des entreprises. Ils doivent faire face avec des moyens très faibles au rouleau compresseur du service juridique de l’entreprise qui les attaque avec, généralement, de gros moyens financiers. Le temps et l’argent jouent pour les entreprises. Le combat est inégal. Avis aux candidats à la présidentielle…

Le second concerne la presse. Elle a rarement le réflexe de consacrer de la place au résultat final. Et c’est fort dommage. Car dans le cas de James Dunne, par exemple, le particulier attaqué est accusé de tous les maux et cela laisse des traces, dans quantité d’articles. James Dunne a donc été accusé par Qosmos d’être un diffamateur pendant des années. Or in fine, il se trouve qu’il ne l’est pas. Doit-on en conclure , au contraire, que ce sont Thibaut Bechetoille et Qosmos qui se sont rendus coupables de diffamation en affirmant aux journalistes, de manière répétée, que James Dunne était un diffamateur ?