PROJET AUTOBLOG


Reflets

Site original : Reflets

⇐ retour index

Comment créer une société totalitaire [acceptée et acceptable], mais sans que ça se sache ?

Tuesday 28 March 2017 à 13:51

 

La vision courante du totalitarisme — partagée par le plus grand nombre dans les grandes nations industrialisées — est basée le plus souvent sur une expérience historique, celle du nazisme. C’est ainsi que de nouvelles terminologies comme « islamo-fascisme » font florès et sont utilisées par le personnel politique en charge de l’administration des dits pays. Il y aurait donc des « régimes » totalitaires définis de manière simple et compréhensible par le plus grand nombre, faciles à dénoncer et à assimiler, soit au nazisme, soit à ses équivalents dictatoriaux antérieurs ou postérieurs : les fascismes, mais aussi le communisme soviétique. Selon cette vision, le totalitarisme serait un mode de gouvernance politique, avec son despote en chef, ses lois dures, sa justice implacable, son administration soumise, ses forces répressives aux ordres.

Au cœur du processus totalitaire : la limitation des libertés individuelles, collectives, réduites à leur plus simple expression, par mesure d’efficacité pour l’ensemble de la société. Cette vision du totalitarisme revêt de grands avantages pour ceux qui la diffusent : elle évite de questionner les fondements réels du totalitarisme, et par essence, ceux de la démocratie. Pourtant, une société totalitaire peut se constituer sans se définir en tant que telle, et surtout, sans modifier fondamentalement ses processus démocratique constitutifs. Il est possible de vivre dans une société totalitaire sans que personne n’ose la définir pour ce qu’elle est, ni même la contester. Comment une telle chose est-elle possible ?

Contrôler, contraindre, soumettre et faire adhérer

Le vieux totalitarisme du XXème siècle demandait de nombreux moyens matériels et humains. L’adhésion du plus grand nombre avec les grandes règles totalitaires établies par un chef élu dans les urnes ne suffisaient pas à pouvoir faire perdurer conséquemment une dictature des esprits, intrinsèquement liée au phénomène de réduction des libertés. Il était ainsi nécessaire de faire travailler des corps administratifs importants, à la solde du régime et sommés de contraindre et soumettre aux règles totalitaires la totalité de la population. Les forces de répression (police, renseignement, armée) en étaient une pièce maîtresse, mais insuffisante. Ainsi, l’ensemble de la bureaucratie d’Etat devait appliquer au plus près toutes les actions, règles, contrôles qui permettait la soumission du plus grand nombre au « système » mis en place.

L’idée principale de tout totalitarisme est toujours la nécessité — pour le bien collectif — d’acceptation d’un tel système, qui même s’il comporte de nombreuses contraintes individuelles, est vendu comme étant le seul moyen d’éviter le chaos, la destruction du corps social. L’adhésion des foules est donc la dernière pièce centrale de tout système totalitaire. L’ouvrage de Wilhelm Reich, « La psychologie de masse du fascisme » (1933), exprime avec une extrême acuité ces procédés socio-psychologiques qui permettent la « fabrique du totalitarisme ». Mais l’époque de la fabrique du totalitarisme par adhésion des foules à une idéologie politique, (soit l’acceptation d’un système totalitaire basé sur un contrôle vertical) est révolue. D’autres procédés totalitaires, bien plus puissants et profonds se sont constitués, et commencent à générer la société totalitaire du futur. Avec comme pivot, les technologies du numérique.

Efficacité, efficience, désincarnation et dématérialisation

La soumission des foules à des règles dures, souvent injustes et surtout décorrélées de toute logique humaine concrète est le premier pas pour constituer une société totalitaire. Dans un tel système il n’y a aucune négociation possible entre les individus et les règles qui s’imposent à tous, même si ces règles peuvent générer l’inverse de leur objectif affiché, ou être sans effet visible. La mécanique totalitaire a besoin de s’afficher dans l’efficacité, et si celle-ci n’est pas ou peu au rendez-vous, rien ne doit pourtant changer : l’efficacité totalitaire est par essence définie dans sa propre substance. Et c’est là que la technologie intervient.

L’espace social, dans une démocratie, est un lieu de négociations et de contestations, d’échanges entre des individualités qui confirment ou infirment leur volonté commune d’adhérer à une politique donnée. Le système de représentation politique est censé appliquer ce qui a été promis [de faire] aux électeurs, ajuster ses actions en fonction de l’adhésion plus ou moins grande, de la contestation plus ou moins forte envers ces mêmes représentants. Dans un système totalitaire basé sur les technologies numériques, tous ces aspects de négociations au sein de l’espace social n’ont plus cours. Ils n’ont plus aucune nécessité, sont écartés au profit d’un nouveau contrat —totalitaire — donnant l’illusion d’une conservation de la négociation démocratique.

Les représentants simulent des débats, axés en permanence sur l’efficacité, puis légifèrent avec ou sans l’approbation de la majorité des représentants (49.3), et renvoient le corps social à une simulation de contestation ou d’adhésion par l’utilisation des technologies numériques de l’information (Facebook, Twitter). Cette société, désincarnée, dématérialisée, pourrait parvenir à se maintenir dans ce schéma sans pour autant contenir les ingrédients du totalitarisme : après tout, le mépris des gouvernants en démocratie n’est pas nouveau, que la contestation sociale soit dans la rue ou sur un réseau informatique n’est possiblement pas un élément significatif. Il faut donc que des outils totalitaires viennent écraser la possibilité d’un vitalité de l’espace social, tout en simulant la possibilité [autocensurée] démocratique de le faire. « Contrôler » les esprits et les volontés, réguler les désirs, influencer les émotions : les moyens d’y parvenir sont connus. Reste à les mettre en œuvre.

Cherche gardiens numériques d’espace politique et social panoptique. Deep learning exigé.

Un système totalitaire a besoin que chaque individu constituant la société soit soumis à une somme de règles et de contrôles suffisante pour qu’il ne se comporte jamais autrement que ce que le système exige. Si dans ce type de systèmes, la répression et la peur du châtiment étatique étaient suffisants au XXème siècle, le totalitarisme du XXIème siècle possède des outils bien plus performants pour parvenir au même but. Avec un bonus incommensurable : l’ignorance de ceux-là mêmes qu’il contraint. Les foules. Et chaque individu les constituant.

Le principe de départ d’organisation du totalitarisme « moderne » est conditionné à l’émergence d’un élément central, longtemps imaginé, cherché, lentement testé, souvent reporté, et qui émerge au tournant de la moitié de la deuxième décennies du XXIème siècle. Son nom courant est l’IA. L’intelligence artificielle. Les spécialistes préfèrent parler d’algorithmes apprenants et spécialisés, basés sur les procédés informatiques de réseaux de neurones, de deep learning et data mining. Les IA sont au travail en 2017. Elles déplacent des véhicules, recherchent des fraudeurs aux aides sociales, surveillent les foules à travers des réseaux de caméras, créent et diffusent de l’information, simulent des activités humaines numériques, pistent des activités, tentent d’inciter des humains à acheter, épaulent des humains dans leurs activités, jouent en bourse, répondent à des questions, établissent des prédictions… Leur efficience est en croissance permanente tout comme leur nombre. Leur docilité est parfaite. Leur vitesse d’exécution inabordable pour l’esprit humain, et leurs capacités à appliquer des règles, vertigineuse.

Le respect absolu des règles est justement l’essence même du totalitarisme. Quoi de plus performant qu’une IA qui voit, lit, entend à la vitesse des circuits électroniques, de la lumière qui circule dans les tuyaux pour faire respecter des règles ? Une IA n’étant elle-même qu’une somme de règles qui s’appliquent au sein d’algorithmes, la performance totalitaire de ces nouveaux agents du « système » est évidente. Un système qui adopte, chaque année de nouvelles règles toujours plus fortes, plus contraignantes, pour le bien du plus grand nombre. Pour réduire les risques, diminuer les dangers, éviter les écarts, accroître la sécurité.

Ces IA (algorithmes) sont les nouveaux gardiens invisibles des règles du système. Chacun sait plus ou moins consciemment qu’ils sont là, qu’ils nous observent (ou pas) dans les villes, trient sur le réseau nos métadonnées, parfois nos données pures, établissent des statistiques sur nos comportements, suivent nos déplacements, observent nos activités. Le principe de l’espace panoptique total est possible grâce aux IA. Nous sommes tous sous leur surveillance invisible. Nous ne savons pas quand, ni où précisément, mais nous savons qu’elles observent le suivi des règles. Des leurs propres, et de celles que nous autres humains sommes censés respecter. Pour résumer : le totalitarisme algopolitque est la simulation d’une prison panoptique à l’échelle d’un pays, automatisant la répression des écarts et forçant à l’autocensure.

Croissance infinie du contrôle sécuritaire : jusqu’à la singularité ?

Plus le monde se modernise, plus il est déclaré dangereux. Plus il est déclaré dangereux plus la modernisation des outils sécuritaires est justifiée et s’accroît. Cette croissance sans fin de la sécurité par les technologies (intelligentes) n’est pas possible à freiner tant qu’aucun responsable ne lancera un cri d’alarme. Ou que les populations ne mettront pas en cause fortement cette nouvelle société dystopique pour forcer les responsables à la stopper. Le plus « drôle » dans l’affaire, est que ceux là même qui prônent et poussent à l’avènement de cette société techno-totalitaire pour la sécurité de tous, pourraient bien se retrouver comme responsables… de la destruction de l’humanité. Mais ceci est une autre histoire. Celle de l’émergence de la singularité. Invisible. Silencieuse. Comme le sont toujours les agents algorithmiques…

Aux chiottes les caméras !

Friday 24 March 2017 à 18:18

“La com’, c’est plus c’que c’était. Sont d’venus cons ces salariés quand même”.

Entre pâté et cornichons, ballon de rouge en main, le Directeur de Création nous joue l’air du “c’était mieux avant”.

Figure-toi que y’a quelques temps, on allait faire une campagne pour du papier toilette. Alors moi, je propose de mettre des caméras dans les toilettes de l’agence pour voir quel usage font les gens du PQ. Normal. Faut bien se docu(l)menter avant de produire une créa. Non ?”

J’écoute, atterré.

Je ne sais pas vous, mais moi, quand quelqu’un présente un certain niveau de connerie, ou mieux, un niveau de QI en dessous de 7, je reste comme médusé. Je l’ai déjà écrit dans un précédent billet, mais pourquoi ne pas le redire ? Dans ces cas particuliers, j’observe la personne avec la même attention que si je voyais un insecte hallucinant cloué avec une épingle dans une boite, sous verre. Tous les détails m’intéressent. Je veux tout voir, tout observer.

“Et tu sais quoi ? Ces cons, ils ont gueulé, genre ouaaaaiiiss, on peut pas mettre des caméras dans les toilettes, comme si j’étais dingue de proposer ça. Ca va, faut se détendre du string les gars, on bosse dans une créa ! J’y crois pas… Y’a quelques années ça les aurait fait tripper, au contraire !

Vraiment, moi non plus, je ne comprends pas ces salariés à qui on apporte paix, amour, joie, harmonie, ondes positives et bonheur avec du Feng-Shui via la plus grande experte dans ce domaine depuis les temps immémoriaux de la Chine antique (Lao Tseu reviens, ils sont devenus fous).

Sont cons quand même.

Et vraiment pas détendus du string.


Morpho-Safran : la société algopolitique dystopique du futur a débuté

Friday 24 March 2017 à 14:10

Morpho-Safran — comme cet article de Reflets l’expliquait il y a peu — est une entreprise de high-tech excessivement pointue dans le domaine de la biométrie, et qui depuis plusieurs années travaille sur des outils de « détection du crime » à base d’IA prédictives. Une première tentative de réalisation d’un logiciel en partenariat avec le Teralab de Mines Télécom et nommé Anticrime/Horizon a été effectuée. Selon les informations de l’époque, ce logiciel semblait destiné avant tout à concurrencer Predpol, le fameux logiciel de détection du crime américain.

Mais la spécificité de Morpho-Safran, axée sur le traitement de données biométrique, et proche des services de l’Etat (rappel : Morpho réalise la première version du fichier monstre français TES), en fait une entreprise aux possibilités très importantes en termes d’algopolitique et d’algogouvernance. Et si Morpho-Safran participait déjà à organiser la société dystopique de la surveillance automatisée et du contrôle des populations par reconnaissance visuelle d’intelligences artificielles ?

1 milliards d’Indiens fichés par Morpho : et moi, et moi, et moi ?

La volonté des États de ficher et identifier leurs populations de façon numérique existe depuis longtemps. En 2017, elle est en cours de réalisation. Safran-Morpho explique avec simplicité cette « nécessité » de fichage biométrique sur son site :

« L’utilisation de la biométrie est la contribution la plus efficace aux registres de population. Elle garantit l’unicité et la viabilité de l’identité d’un individu.

Les solutions d’enregistrement de population de Safran Identity & Security utilisent les trois principales biométriesl’empreinte digitale, le visage et l’iris -, sélectionnées en fonction des contraintes culturelles, budgétaires et sécuritaires de chaque pays. Elles reposent sur notre savoir faire technologique et leur robustesse éprouvée. »

Cette technologie d’enregistrement biométrique a de nombreuses déclinaisons, pour autant de produits Safran différents dans le catalogue. L’une d’elles se nomme Morpho Argus  et peut servir à :

Comparer des portraits à une liste prédéfinie de personnes. Lorsqu’il y a correspondance, une alarme est générée. Elle peut être envoyée soit au personnel de sécurité, soit à un autre système ou peut être revue par un agent en faisant une comparaison d’images côte à côte. Créer une base de données en ligne qui pourra être utilisée plus tard pour localiser une personne dans l’espace comme dans le temps.

Dans ce cas, son portrait sera comparé à la base de données en ligne et une liste de candidats sera communiquée à l’agent pour revue. Ces cas d’utilisation ne sont pas exclusifs, Morpho Argus est capable de faire les deux en même temps et sur le même flux vidéo. Morpho Argus peut analyser simultanément des flux vidéo provenant de plusieurs caméras IP sur un même réseau. Il utilise un moteur biométrique et une base de données centralisés pour réaliser des comparaisons faciales et les stocker. Morpho Argus peut gérer plusieurs listes de recherche et inclut un logiciel permettant de les modifier et de les gérer globalement..

L’Inde a sauté le pas depuis 2009 dans le cadre de son programme Aadhaar de fichage biométrique de ses 1,2 milliard d’habitants. Le but affiché du gouvernement indien — comme dans le cas français — est de limiter la fraude, l’usurpation d’identité, et d’arriver sous peu à pouvoir identifier de façon formelle et informatique n’importe quel citoyen indien. Mais quelle entreprise est capable de réaliser une chose pareille ? Plusieurs ? Non. Une seule. Et quelle est cette entreprise qui a remporté ce marché ? (ceux qui savent se taisent…) : Safran-Morpho.

Un fichier méga monstrueux de plus d’un milliard d’individus est donc en cours de réalisation. Fichier biométrique et certifié French-tech et  Morpho-Safran conforme. Avec les visages des personnes, leurs empreintes numériques digitales, leur iris. Le même fichier qui arrive en France, mais à l’échelle du sous-continent. Bien entendu, comme dans le cas français, ces fiches informatiques très précises ne doivent pas [normalement, et pour l’heure] être utilisées dans d’autres cas que le contrôle de l’identité des personnes. L’objectif affiché de ce fichier est donc, de façon officielle, de simplement permettre aux administration d’être certaines que la personne demandeuse ou contrôlée est bien celle qu’elle prétend être. Pour l’heure.

Quand Morpho vend ses IA de détection/investigation faciale aux policiers 3.0

Depuis 2016, Morpho-Safran se vante d’avoir vendu deux systèmes de reconnaissance faciale « intelligents » aux forces de police néerlandaises et française. Le premier se nomme Morpho Argus/ Morpho Bis, et est utilisé en Hollande.

« Le système, déployé au niveau national et doté de fonctions de recherche, de comparaison et d’analyse, a été récemment installé au Centre national de la police judiciaire du pays. Les policiers hollandais peuvent désormais comparer la photo d’un visage avec celles de leurs bases de données et ainsi gagner un temps précieux. »

Ce logiciel capture en temps réel les visages humains et les compare avec un fichier de personnes recherchées ou non-autorisées. Une sorte de « comparateur de visages numérique automatisé », mais qui permet quand même de créer « des listes de surveillance à partir des visages détectés dans un flux vidéo » : automatisation de la création de fichiers de visages ? Pour constituer à la volée des bases de données de visages ? La question mérite d’être posée et la publicité de Morpho-Safran mériterait d’être éclaircie à ce niveau là…

Petite vidéo promotionnelle pour le Morpho-Argus :

Cette technologie ciblée de détection et comparaison de visages été étendue à des outils plus élaborés, permettant de suivre à la trace des suspects. L’un d’eux est nommé MVI (Morpho Vidéo Investigator) et c’est lui a qui a été vendu en 2016 à la police nationale française. C’est un « détecteur de suspects », un enquêteur et investigateur numérique. Une IA flic. Cette intelligence logicielle qui se connecte aux caméras de surveillance, aux réseaux sociaux, à Google images, etc., est donc capable de repérer des personnes suspectés d’actes criminels dans une foule, d’établir des correspondances d’identification à travers tout type de fichiers publics ou non, et de suivre ces personnes à la trace. Repérage des véhicules empruntés, plaques d’immatriculation, trajets, tout est enregistré et traité par l’IA. Jusqu’à, par exemple, « prédire » le lieu de rencontre de deux suspect, comme la vidéo promotionnelle suivante le démontre :

Changement de société ou simple amélioration des outils ?

L’exemple de la « détection du crime », d’identification et d’investigation par des logiciels spécialisés, semi-autonomes, pur produit des recherches en intelligence artificielle, est symptomatique du basculement en cours. De la mutation très discrète, mais profonde de la société. Ou plus précisément, de la gestion politique de la société française. Pour de nombreux observateurs, et le plus souvent pour le public en général, des logiciel comme MVI et Argus ne sont rien d’autre qu’une « évolution logique » et technologique des outils mis à la disposition des fonctionnaires, dans le cas d’espèce de la police nationale. Un peu comme ce que serait le passage du portrait robot dessiné à la main à Photoshop.

En réalité, il n’en est rien, puisque l’arrivée de ces IA est un profond changement de paradigme, la porte ouverte à une nouvelle forme de société, où l’Etat aidé d’acteurs économiques privés établirait un contrôle sur les corps et les esprits, délégués à des agents numériques aux fins d’empêcher ou prévenir toute possibilité de transgression des citoyens. Nous sommes là dans la définition d’une société totalitaire. Une dystopie basée sur la surveillance des machines intelligentes. Qui s’installe, sans un bruit, sans concertation. Pour la sécurité, et contre les libertés. Mais qui s’en précoccupe un tant soit peu aujourd’hui dans la classe politique ?

Qosmos renvoyé à son DPI par la 17ème chambre du TGI de Paris

Wednesday 22 March 2017 à 12:08

[Full disclosure : l’auteur de cet article était cité comme témoin par la défense dans ce procès] Dans son jugement du 26 janvier, la chambre spécialisée dans les délits de presse a savamment assaisonné Qosmos qui poursuivait pour diffamation James Dunne, un de ses anciens salariés, et une journaliste de France 24. Alexandra Renard avait signé un reportage intitulé « Des logiciels français vendus aux dictateurs ? » dans lequel était interviewé James Dunne.

Qosmos estimait être diffamée par les propos suivants :

« Il travaillait pour QOSMOS, une société française d’informatique qui a créé une technologie hyper-perfectionnée, une technologie capable de surveiller de d’analyser avec précision des nations entières via Internet, le tout en temps réel. C’est ce bijou de surveillance massive qu’a vendu leur partenaire français AMESYS au colonel Kadhafi, une arme numérique idéale pour traquer les opposants du régime ».

« A l’époque je ne savais pas qu’on avait livré à la Libye, je ne savais pas qu’on était en train de livrer à la Syrie ».

« Ce que je souhaite, c’est qu’on ne puisse plus vendre impunément de tels logiciels, de telles technologies à des dictatures tout simplement ».

Il n’est pas inintéressant de noter que Qosmos n’a pas poursuivi les dizaines de media qui ont relayé le même type d’analyses. L’auteur des propos, James Dunne, était sans doute l’homme à faire taire, lui qui avait alerté la presse par ses écrits sur son blog à propos des activités peu recommandables, sur un plan éthique notamment, de Qosmos et d’Amesys.

La 17ème chambre a donc jugé que ces propos n’étaient pas diffamatoires. Mais c’est l’argumentation de la cour qui est intéressante. Elle s’est appuyée sur les arguments habituels de Qosmos (ou d’Amesys d’ailleurs) pour débouter la société.

La Cour souligne ainsi :

 » […] force est de constater :

Qu’il n’est pas imputé à la société la commission d’une infraction pénale, le fait que des opposants soient arrêtés étant à l’évidence en lien avec l’action des dirigeants des États mis en cause et ne résultant pas d’une action directe de la société QOSMOS, dont le rôle se limite à avoir fourni une technologie ».

Sur ce point, la cour utilise l’argument récurrent de Qosmos : nous vendons des briques technologies, pas à des États mais à des intégrateurs, l’utilisation qui en est faite nous n’en sommes pas responsables…

« Que le fait de fournir une technologie, certes sensible, à des régimes autoritaires ne contrevenait en outre à aucune règle légale, […] à tout le moins jusqu’à la fin de l’année 2014 »

Le PDG de Qosmos, Thibaut Bechetoille a toujours dit que le commerce du DPI n’était pas assez encadré, y compris dans la mémorable interview qu’il avait accordée en 2011 à des contributeurs de Reflets sur Techtoc.tv :

Dans cette interview, Thibaut Bechetoille explique : « Je crois que l’utilisation de la technologie de DPI doit être…. Doit être encadrée bien sûr ».

Devant les juges du Pôle Crimes contre l’humanité du Tribunal de Grande Instance de Paris, il estimait que « Qosmos milite pour une réglementation internationale concernant la vente des produits de surveillance électronique ».

« Que livrer du matériel technologique sensible à des régimes autoritaires ne peut non plus être considéré comme un comportement moralement condamnable, le commerce international justifiant de travailler avec nombre d’États, dont certains non démocratiques ; qu’il n’en résulte pas un manquement évident à la morale commune, sauf à considérer des pans entiers de l’industrie française, notamment l’industrie d’armement ou le secteur des hautes technologies, comme étant objectivement et par nature condamnables.

Ainsi, s’il est fait état, dans les propos en voix off et dans l’interview, d’un fait précis pouvant faire l’objet d’un débat probatoire, il n’en résulte pas, pour autant, une atteinte à l’honneur et à la considération de la société QOSMOS »

Les propos poursuivis ne représentent donc pas un caractère diffamatoire au sens du droit de la presse.

Ainsi, sans qu’il y ait lieu de se prononcer sur les autres moyens soulevés, les prévenus seront renvoyés des fins de la poursuite.

La cour met ici sur le même plan les vendeurs de DPI et les vendeurs d’armes en disant qu’il arrive que ce type d’industrie vende à des pays peu démocratiques. Un euphémisme… Il n’est donc pas diffamatoire de le dire.

Qosmos n’a pas fait appel de cette décision. De fait, elle aurait dû, le cas échéant, se battre contre ses propres arguments, ce qui aurait été assez cocasse.

Ce procès est le troisième que Qosmos perd contre James Dunne (4 procédures). Les deux premiers étant liés à son départ de l’entreprise. Thibaut Bechetoille avait une relation très particulière avec son ancien employé devenu lanceur d’alerte. Dans un café où il recevait des journalistes avec une agence spécialisée dans la communication de crise (Clai), il s’était emporté, criant que James Dune était fou, qu’il fallait l’enfermer. En 2013, réagissant à un article de Mediapart, Thibaut Bechetoille indiquait :

« Nous restons confiants dans l’issue de la procédure, tant les faits qui nous sont reprochés par cet ancien salarié sont faux et calomnieux. Nous rappelons que nous avons porté plainte pour diffamation contre cet ancien salarié. »

Des faits faux et calomnieux… Ce n’est pas du tout l’avis de la 17ème chambre. On imagine mal Thibaut Bechetoille présenter des excuses à James Dunne. Mais on peut s’interroger sur deux points.

Le premier concerne les particuliers qui sont attaqués par des entreprises. Ils doivent faire face avec des moyens très faibles au rouleau compresseur du service juridique de l’entreprise qui les attaque avec, généralement, de gros moyens financiers. Le temps et l’argent jouent pour les entreprises. Le combat est inégal. Avis aux candidats à la présidentielle…

Le second concerne la presse. Elle a rarement le réflexe de consacrer de la place au résultat final. Et c’est fort dommage. Car dans le cas de James Dunne, par exemple, le particulier attaqué est accusé de tous les maux et cela laisse des traces, dans quantité d’articles. James Dunne a donc été accusé par Qosmos d’être un diffamateur pendant des années. Or in fine, il se trouve qu’il ne l’est pas. Doit-on en conclure , au contraire, que ce sont Thibaut Bechetoille et Qosmos qui se sont rendus coupables de diffamation en affirmant aux journalistes, de manière répétée, que James Dunne était un diffamateur ?

Chamboule-Touite : menteur ou escroc ?

Friday 17 March 2017 à 15:41

Premiers tests de notre formidable outil, le Chamboule-Touite, qui permet de mesurer la « popularité » des mentions sur Twitter d’un candidat à la présidentielle avec un mot-clé ou un hashtag. Par un hasard tout à fait fortuitement aléatoire, nous choisissons le hashtag — pardon, le mot-croisillon — « #menteur ». Sans surprise, twittas et twittos font une association d’idées avec un certain François Fillon.

Apostrophé à 49 reprises, le vertueux châtelain met tout le monde d’accord. Il caracole largement en tête du Chamboule-Touite, avec un score de 96 %, dopé par le PenelopeGate. Loin derrière, Benoit Hamon et Emmanuel Macron font pâle figure et se partagent à égalité les 4% restants.

Nous bougeons les potards et lançons un second test avec le mot-croisillon « #escroc ». Nous nous attendions à retrouver encore une fois le bon François en pole position.

Ô surprise, si l’ancien premier ministre est le plus mentionné (50 tweets), au nombre de retweets et de favoris, c’est Emmanuel Macron qui termine au finish. Ses 31 mentions lui permettent de réaliser le plus gros score, avec 93% et près de 900 retweets.

À gauche comme à droite (surtout très à droite), on lui reproche son passé de banquier et d’énarque, ses orientations libérales, d’être le fils spirituel de François Hollande ou le « candidat du système » (oui, c’est très original). Une chose est sûre, le gendre idéal inquiète ses opposants.

Le Chamboule-Touite® est la dernière innovation issue du département Research & Gonzo Development de Reflets.info. Il tire parti des Big Data®, du Data Mining®, du Machine Learning®, et de l’Augmented Journalism®. Propulsé par un système de traitement de données unique au monde (brevet en cours de dépôt), le SHA-1® (Statistical Helicobits Analysis – Mark One), le Chamboule-Touite® permet à Reflets.info de produire les analyses politiques digitalisées les plus pointues sur l’élection présidentielle 2017.

Comment sont calculés les scores ?

Pour chaque candidat, l’API de recherche de Twitter est interrogée, la recherche portant sur le terme ou hashtag avec mention du candidat (maximum 100 tweets les plus pertinents par candidat, le nombre de tweets retournés est affiché dans la carte). Les décomptes de retweets et de favoris pour chaque candidat sont additionnés et comparés à la valeur pour l’ensemble des candidats pour calculer les pourcentages.