Ce que la censure réserve aux Russes en 2016

Source : https://fr.globalvoices.org/2016/01/02/193414/

02 Jan 2016

Alexander Zharov n’est généralement pas considéré comme faisant partie des plus influents représentants de l’Etat russe, mais il est à la tête de Roskomnadzor, l’agence gouvernementale chargée de réguler et de censurer les médias (internet y compris). Par le passé, Zharov était supplanté dans les médias par son propre représentant, Maxim Ksenzov, qui a fait les Unes des journaux après diverses plaintes et accusations controversées, comme une remarque faite en mai 2014, lorsque Ksenzov a affirmé que les régulateurs pouvaient bloquer Twitter ou Facebook “en quelques minutes”.

Le 25 décembre, toutefois, Ksenzov a annoncé officieusement qu’il quitterait son poste au début du mois de janvier. Quatre jours plus tard, Zharov s’est lancé sous les feux des projecteurs en accordant un long entretien au site d’information Gazeta.ru, donnant ainsi aux Russes un avant-goût de ce qui les attend en 2016 de la part de leur censeur national d’internet.

L’interview couvre tous les domaines. Zharov évoque les frictions entre Roskomnadzor et Wikipédia (qui a résisté aux efforts déployés par le gouvernement russe pour censurer des articles sur les drogues illégales), les proxys anonymiseurs, l’emploi des mots “ISIL” et “Daesh”, et la nomination de German Klimenko, nouveau conseiller internet de Vladimir Poutine. Ci-dessous, nous vous fournissons un résumé détaillé des trois sujets abordés par Zharov avec Gazeta.ru : évaluer la normalité de la censure médiatique russe, mesurer le succès de la censure russe et réguler le marché russe des applications de messagerie pour téléphones.

LIRE LA SUITE

Nouvelles technologies : les doléances des juges antiterroristes

Source : http://www.nextinpact.com/news/97874-nouvelles-technologies-doleances-juges-antiterroristes.htm

30 Dec 2015

Après les attentats du 13 novembre, une mission de suivi de l’état d’urgence a été lancée au Sénat. À cette occasion, plusieurs juges antiterroristes ont fait état des problèmes rencontrés dans leur quotidien face aux évolutions technologiques.

Dans cet échange organisé le 9 décembre dernier, et désormais retranscrit sur le site du Sénat, Laurence Le Vert, première vice-présidente chargée de l’instruction à la section antiterroriste et atteintes à la sûreté de l’État au tribunal de grande instance de Paris, et David Bénichou, vice-président chargé de l’instruction à la section antiterroriste et atteintes à la sureté de l’État au TGI de Paris ont ainsi fait part de leur doléance.

« L’évolution des technologies pose problème, expose la magistrate. Pour les djihadistes, c’est une arme de guerre. Pour nous, c’est un risque de destruction de nos procédures ». Pourquoi ? Tout simplement parce que « la majeure partie des preuves est issue de supports divers, téléphones, tablettes, disques durs, DVD, clefs USB et cartes SD ainsi que des interceptions de flux internet et téléphoniques ». Or, le Code de procédure pénal oblige « la mise à disposition de l’intégralité du contenu du dossier à la défense des parties », le dossier d’instruction devant être « à tout moment complet, lisible et accessible. »

LIRE LA SUITE

Délateurs en pantoufles

Source : http://www.monde-diplomatique.fr/2015/12/RAMONET/54393

Dec 2015

Beaucoup de personnes se moquent de la protection de la vie privée. Elles réclament, au contraire, le droit de montrer et d’exhiber leur intimité. Cela peut surprendre, mais, en y réfléchissant, un faisceau de signes et de symptômes annonçaient depuis quelque temps l’inéluctable arrivée de ce type de comportement qui mêle inextricablement voyeurisme et exhibitionnisme, surveillance et soumission.

Sa matrice lointaine se trouve peut-être dans un célèbre film d’Alfred Hitchcock, Rear Window (Fenêtre sur cour, 1954), dans lequel un reporter photographe (James Stewart), immobilisé chez lui, une jambe dans le plâtre, observe par désœuvrement le comportement de ses voisins d’en face. Dans un dialogue avec François Truffaut, Hitchcock expliquait : « Oui, l’homme était un voyeur, mais est-ce que nous ne sommes pas tous des voyeurs ? » Truffaut l’admettait : « Nous sommes tous des voyeurs, ne serait-ce que lorsque nous regardons un film intimiste. D’ailleurs, James Stewart, à sa fenêtre, se trouve dans la situation d’un spectateur assistant à un film. » Puis Hitchcock observait : « Je vous parie que neuf personnes sur dix, si elles voient de l’autre côté de la cour une femme qui se déshabille avant d’aller se coucher, ou simplement un homme qui fait du rangement dans sa chambre, ne pourront pas s’empêcher de regarder. Elles pourraient détourner le regard en disant : “Cela ne me concerne pas”, elles pourraient fermer leurs volets, eh bien ! elles ne le feront pas, elles s’attarderont pour regarder (1). »

A cette pulsion scopique de voir, de surveiller, d’espionner correspond, en contrepoint, son contraire : le goût impudique de se montrer. Et celui-ci, depuis l’essor d’Internet, a connu une sorte d’explosion par le biais, surtout, depuis 1996, des webcams. On se souvient, par exemple, des cinq étudiants, garçons et filles, d’Oberlin, dans l’Ohio (Etats-Unis), qui, au début de la mode webcam, s’exhibaient en ligne (www.hereandnow.net) tous les jours, vingt-quatre heures sur vingt-quatre, où qu’ils se trouvent dans les deux étages de leur pavillon. Ils vivaient sous la surveillance d’une quarantaine de caméras volontairement disposées partout dans leur demeure. Depuis, ils sont des milliers, célibataires, couples, familles, qui invitent sans gêne les internautes du monde à partager leur intimité et à les regarder vivre sans pratiquement aucun interdit (2).

LIRE LA SUITE

À Taiwan, une victoire pour les victimes de l’électronique globalisée

Source : http://terrainsdeluttes.ouvaton.org/?p=5482

21 Dec 2015

Le 17 avril 2015, le tribunal de Taipei a rendu le premier verdict de culpabilité dans une action collective (class action) autour d’une question de santé au travail. C’est une première dans l’histoire de Taiwan au regard du nombre de plaignants (plus de 500), et sans doute même au niveau mondial compte tenu du nombre de produits toxiques en jeu et de la nature internationale de la plainte, qui concerne notamment un grand groupe américain (General Electric) et une entreprise française (Thomson puis Technicolor S.A.). Les juges ont reconnu que les maladies et décès de plusieurs centaines d’anciens employés—surtout des femmes—de l’usine électronique RCA de Taoyuan ont été causées par leurs mauvaises conditions de travail, et notamment leur exposition massive à des solvants cancérigènes. Cette affaire éclaire de manière exemplaire combien, à Taiwan comme ailleurs, il est toujours difficile pour les travailleurs d’obtenir justice dans un contexte où les archives du travail disparaissent, où les propriétaires des usines dissimulent leur identité et où règnent des conceptions étroites de la causalité.

Au début des années 1970, à l’invitation du gouvernement autoritaire de Chiang Kai-chek puis de son fils Chiang Ching-kuo, la firme américaine Radio Corporation of America (RCA) transfert une partie de sa production à Taiwan (alias République de Chine). Pour la firme qui a déjà investi au Mexique, il s’agit de réduire les coûts de production et profiter d’une main d’œuvre jeune, docile et bien formée. Quant au régime en place à Taiwan, il compte sur des transferts de technologie pour une montée en gamme industrielle. Vingt ans plus tard, le pari a payé pour les deux parties ; les usines implantées sur l’île ont rapporté les bénéfices escomptés et jeté les bases d’une industrie électronique qui aujourd’hui encore continue de faire la fortune de l’île, comme en témoignent par exemple les marques Acer ou HTC.

LIRE LA SUITE

A quel problème s’attaque l’intelligence artificielle ouverte ? – Harvard Business Review

Le récent lancement d’OpenAI, une entreprise de recherche non lucrative qui a reçu d’importants financements (1 milliard de dollars) notamment d’Elon Musk, de Peter Thiel et de Reid Hoffman, semble être une forme de réponse aux initiatives récentes dans le domaine de l’Intelligence artificielle (IA) de Google (voir notre critique), Apple, IBM ou Facebook rapporte le Guardian. “Notre objectif est de faire progresser l’intelligence numérique de la manière qui est la plus susceptible de bénéficier à l’humanité dans son ensemble, sans contrainte à générer un rendement financier”, rapportent ceux qui sont à l’initiative d’OpenAI. Musk s’était d’ailleurs récemment déclaré inquiet du danger potentiel de cette technologie.

LIRE LA SUITE

17 DEC 2015 , SOURCE

 

Quel monde construisons-nous ?

Par

le 28/10/15

Source : http://www.internetactu.net

On ne présente plus la chercheuse et ethnographe américaine danah boyd (Wikipédia, @zephoria) dont nous avons souvent relayé les propos sur InternetActu.net comme sur A lire ailleurs.

A l’occasion d’une conférence donnée récemment, dont elle a publié le transcript sur son site, elle posait la question du monde que nous fabriquons avec les technologies et y apportait des réponses qui méritent d’être écoutées.

Image : danah boyd durant sa conférence donnée à l’UCCMediaJustice, photographié par @MauritaColey via Twitter.

La technologie encapsule la complexité du monde

La chercheuse rappelle tout d’abord que pour elle, l’internet était un “portail vers la complexe société interconnectée dans laquelle nous vivons”. “Je regardais les activistes utiliser la technologie comme un levier pour connecter les gens d’une manière nouvelle, alors que les gens du marketing utilisaient ces mêmes outils pour manipuler les gens pour gagner de l’argent. J’ai arrêté de croire alors que la technologie seule pourrait produire l’illumination”. “A mesure que les outils sont devenus plus populaires et se sont répandus, ce qui était en jeu n’était pas la réalisation des désirs idylliques des premiers développeurs, mais une complexité de pratique qui ressemblait plutôt au bordel de la vie quotidienne.”

C’est lors d’un entretien avec une adolescente que danah boyd réalise combien la technologie n’est pas neutre. Celle-ci lui montre qu’alors que les jeunes migrent vers Facebook, MySpace devient un ghetto pour les amateurs de rap. Les blancs utilisent Facebook, les noirs MySpace. Entre 2006 et 2007, la division sociale avait séparé les communautés adolescentes en ligne, reproduisant les divisions sociales en cours dans écoles, explique danah boyd. Dans notre société qui se disait post-raciale, les relations sociales et les dynamiques étaient toujours configurées par ce modèle. MySpace était devenu un endroit dangereux rempli de personnes peu recommandables, alors que Facebook était dépeint comme un site propre et respectable. Aidé par l’argent, les médias et les utilisateurs privilégiés, Facebook est devenu le joueur dominant qui a attiré tout le monde. “Les divisions raciales se déplaçaient dans la technologie”, comme c’est encore le cas avec Vine et Instagram. “Les adolescents ne créaient pas la dynamique racialisée des médias sociaux : ils reproduisaient ce qu’ils ont vu partout ailleurs en le projetant sur leurs outils.” Ils ne sont pas les seuls. Les journalistes, les parents, les politiciens, les experts le font également. “Et la technologie aujourd’hui est évaluée – culturellement et financièrement – non pas sur le nombre de gens qui les utilisent, mais sur le fait qu’elles soient utilisées par les membres les plus privilégiés de notre société.”

Les systèmes socio-techniques sont notre propre reflet

Personne n’avait vraiment vu venir le succès des médias sociaux ou du Big data, reconnaît avec modestie la chercheuse. Les Big data sont un concept flou, explique-t-elle. Il promet de pouvoir résoudre tous les problèmes du monde par les données. Le problème d’ailleurs n’est pas tant d’avoir les données que de savoir si nous avons la capacité de donner et produire du sens depuis elles. Le problème des technologies d’analyses de données repose pourtant sur les données. “Quand vos données d’entrée sont biaisées, ce que vous en sortez est tout aussi biaisé. Ces systèmes apprennent les préjugés de notre société. Et nous les recrachent à la figure.” Et la chercheuse d’évoquer le travail sur la discrimination électronique Latanya Sweeney, notamment sur la discrimination raciale dans la publicité en ligne, montrant que les prénoms les plus corrélés à la communauté noir Américaine tendaient à servir des publicités pour savoir si les personnes recherchées avaient un casier judiciaire. Or, le service publicitaire de Google n’est pas intentionnellement raciste. Il ne fait que servir des publicités selon les requêtes quand une requête ou la population qui la commet a des caractéristiques similaires. Google ne devient raciste que parce que ses utilisateurs le sont.

“Nos préjugés culturels sont profondément ancrés dans de nombreuses bases de données, ces ensembles de données que nos systèmes utilisent pour apprendre de nous. Les étudiants de couleur sont beaucoup plus susceptibles d’avoir des dossiers scolaires disciplinaires que les étudiants blancs. Les hommes noirs sont beaucoup plus susceptibles d’être arrêtés et fouillés, d’être arrêtés pour possession de drogue, ou accusés de crimes, même lorsque leurs homologues blancs s’engagent dans les mêmes comportements. Les personnes pauvres sont beaucoup plus susceptibles d’avoir des problèmes de santé, de vivre plus loin de leur travail, d’avoir des problèmes pour devenir locataires… Pourtant, toutes ces données sont utilisées pour alimenter les algorithmes d’apprentissage personnalisés, des outils d’évaluation des risques pour la prise de décision judiciaire, des outils de crédit et des outils pour déterminer les scores d’assurance. C’est ainsi que le système “prédit” que les gens qui sont déjà marginalisés ont des risques plus élevés de l’être, ce qui restreint leurs options et induits, qu’ils deviennent, en effets, une population à risque.”

Ce ne fut pas ce que mes pairs ont voulu créer lorsqu’ils ont imaginé des outils permettant de cartographier ceux que vous connaissiez, ou de partager vos intérêts et vos goûts. Nous n’avons pas cherché à être l’architecte du préjudice, mais nous n’avons pas non plus conçu des systèmes pour lutter contre cela.”

Ce n’est pas l’analyse des données qui est inquiétante, c’est la façon dont elle est utilisée et par qui

Pourtant, explique encore l’anthropologue, l’enjeu n’est pas de rejeter le Big data. Au contraire, explique celle qui est au conseil d’administration de Crisis Text Line, un service de prévention du suicide par SMS (voir notre article “De la prévention du suicide en ligne”) permettant via le Big data de traiter des millions de messages pour personnaliser chaque réponse de conseillers à l’adolescence en danger. Or, Crisis Text Line utilise les mêmes techniques que celles utilisées par le marketing ou la police prédictive. Le problème explique-t-elle est que “la surveillance par des acteurs puissants ne peut pas instaurer la confiance. Elle l’érode.” L’information sur les gens qui s’apprêtent à commettre un délit n’est pas la même selon qu’elle est envoyée à la police ou à un travailleur social. “Ce ne sont pas tant les données qui sont inquiétantes, mais c’est la façon dont elles sont utilisées. Et par qui”.

“Savoir comment utiliser les données n’est pas si facile”. Eric Horvitz, un collègue de danah boyd chez Microsoft Research, est capable de prédire avec une précision surprenante si quelqu’un va être hospitalisé en fonction de ce qu’il recherche en ligne. “Que doit-il faire de cette information ?” L’important n’est pas tant la qualité de nos prédictions, mais de trouver comment les utiliser. Or, “comment les utiliser est un problème social et culturel complexe que la technologie ne résout pas pour nous. Pire, la technologie rend plus difficile d’avoir une conversation raisonnée sur le pouvoir, la dignité, la responsabilité et l’éthique.”

“Les données sont le pouvoir. Et de plus en plus, les données sont utilisées pour affirmer le pouvoir de certains sur d’autres. Cela ne devrait pas être ainsi, mais une chose que j’ai apprise est que, sans contrôle, de nouveaux outils sont toujours utilisés pour renforcer le pouvoir des privilégiés au détriment de ceux qui ne le sont pas.”

Si nous voulons que les gens les moins privilégiés soient informés et responsabilisés, ils doivent avoir accès à la même qualité d’information et de communication que les privilégiés, estime danah boyd.

La responsabilité de l’usage

Or nous sommes confrontés à un nouveau défi. “Nous entrons dans un monde de prédiction. Un monde où de plus en plus de gens vont être en mesure de porter des jugements sur les autres sur la base de données.” De nombreux militants s’activent à combattre et réguler ce nouvel écosystème de la prédiction. C’est très bien quand ces technologies sont conçues pour faire le mal. Mais le plus souvent ces outils seront conçus pour être utiles, pour accroître l’efficacité, pour identifier les personnes qui ont besoin d’aide. Ils pourront être à la fois utilisé pour faire le bien et pour être terrifiants. Comment pouvons-nous apprendre à utiliser ces informations pour responsabiliser ?

Pour danah boyd, le problème est que la diversité des gens qui construisent, financent et utilisent ces outils pour imaginer notre avenir est extraordinairement réduite. Pour elle, l’enjeu est d’élargir la diversité d’approche du développement comme de l’usage de ces technologies. “Si les gens ne comprennent pas ce que ces systèmes font, comment pouvons-nous espérer que les gens les contestent ?”

“Nous devons apprendre comment poser des questions technologiques difficiles à ceux qui prennent des décisions basées sur leurs analyses. Il n’y a pas si longtemps, lorsque les systèmes financiers étaient de totales boites noires, nous nous sommes battus pour la responsabilité fiduciaire et contre la corruption et les abus. La transparence des données, des algorithmes et de la technologie ne suffit pas. Nous devons nous assurer que l’évaluation est intégrée dans tout système que nous utilisons. Nous ne pouvons pas simplement mettre des millions de dollars de matériel de surveillance dans les mains de la police dans l’espoir de créer une police responsable. Pourtant, avec les caméras de corps portés par la police, n’est-ce pas exactement ce que nous faisons ? – voir notre article, NDT. Et ce, sans même essayer d’en évaluer les implications. Nous sommes là, probablement, face au plus rapide déploiement d’une technologie d’espérance, mais ce ne sera pas la dernière. Comment pouvons-nous aider les gens à regarder au-delà de leurs espoirs et de leurs craintes pour interroger activement les compromis que la société fait pour eux ?”

De plus en plus, la technologie va jouer un rôle central partout. Nous pouvons hurler aux loups où rêver d’un monde dans lequel chaque problème se résout comme par magie. “Mais pour réellement faire du monde un endroit meilleur, nous devons commencer à prêter attention aux différents outils qui émergent et apprendre à poser des questions difficiles sur la façon dont ils devraient être mis en service pour améliorer la vie des gens ordinaires. Maintenant plus que jamais, nous avons besoin de ceux qui réfléchissent à la justice sociale pour comprendre la technologie et nous avons besoin que ceux qui comprennent la technologie s’intéressent à la justice sociale.”

Hubert Guillaud

Singapour les secrets de la réussite

Un Oeil Sur La Planète : Présenté par Etienne Leenhardt

Diffusé le 12/10/2015 , Durée : 01h40

Source : http://www.francetvinfo.fr

En un demi-siècle, Singapour a réalisé la plus incroyable ascension économique de l’histoire moderne, avec une multiplication par cinquante de sa richesse. Ce pays confetti de 5,5 millions d’habitants, composé de soixante-quatre îles représentant une surface d’un peu plus de 700 kilomètres carrés, affiche la plus forte concentration de millionnaires de la planète.

La cité-Etat est aujourd’hui en tête de très nombreux classements internationaux. Troisième pays au monde pour le revenu par habitant, elle est numéro 1 mondial pour le climat des affaires, l’éducation, la sécurité ou la qualité de sa fonction publique, qui paie particulièrement bien ses hauts fonctionnaires, notamment pour lutter contre la corruption.

Les deux faces de la cité-Etat

Le magazine « Un Œil sur la planète » (Facebook, Twitter, #UOSLP) diffusé sur France 2 s’est rendu dans ce pays enclavé entre l’Indonésie et la Malaisie qui accueille 15 millions de touristes par an. Une architecture verticale et souvent très originale, une hôtellerie haut de gamme, la qualité de l’air de l’une des villes les moins polluées du globe et la sécurité des personnes et des biens, véritable obsession du gouvernement, constituent des attraits indéniables.

La cité-jardin brille aussi avec son port classé au deuxième rang mondial, sa place financière juste au pied du podium, ses chantiers navals performants et le dynamisme de son industrie électronique. Singapour a aussi une face sombre : une population sous vidéosurveillance quasi totale, une presse contrôlée, des libertés sociales réduites à la portion congrue…

Au sommaire du magazine « Un Œil sur la planète »

Le paradis du business ?

Singapour attire les investisseurs du monde entier, et notamment les Français. Plus de 700 entreprises françaises et 15 000 compatriotes ont choisi de s’installer dans la ville-Etat, qui est devenue notre troisième partenaire commercial en Asie, derrière la Chine et le Japon. Un reportage de Jenny Briffa et Vincent Reynaud.

Le laboratoire du futur ?

Pour pallier le manque d’espace, Singapour expérimente les idées les plus originales : HLM géants devenus de véritables villes, fermes verticales pour cultiver sur une surface réduite, terrains gagnés sur la mer ou dans le sous-sol, c’est la ville où demain se fabrique. Un reportage de Stéphane Nicolopoulos et Beng Seng.

Etat protecteur ou Big Brother ?

Singapour est, pour beaucoup, la ville la plus sûre du monde. Des milliers de caméras traquent la moindre incivilité, qui peut coûter cher aux contrevenants dont les visages sont affichés sur internet. Plus de 40% des interpellations sont réalisées avec le concours des citoyens. Un reportage de Negar Zoka et Olivier Raffet.

 


ALTERNATIVE PLAYER

La NSA et ses alliées ont cherché à s’infiltrer dans le Play Store d’Android

Par

22/05/2015

Source : http://www.nextinpact.com

image dediée

Crédits : Steve Rhodes (licence CC BY-NC-ND 2.0) Securité

De nouveaux documents d’Edward Snowden montrent comment la NSA et ses agences alliées proches ont mis au point un programme qui visait l’interception des communications entre les smartphones Android et certaines boutiques. Objectif : s’insinuer dans la connexion et provoquer le téléchargement d’un code espion.

Faire des boutiques d’applications des plateformes de lancement

En janvier 2014, nous relations comment certaines applications avaient été infiltrées par la NSA et d’autres agences de renseignement pour atterrir plus facilement sur les smartphones. La NSA s’était particulièrement servi des réseaux de publicités pour s’infiltrer dans Angry Birds ou encore dans Google Maps. On ne savait pas en revanche comment les analystes et ingénieurs avaient procédé pour parvenir à ce résultat.

On en sait désormais davantage, grâce à la publication de nouveaux documents dérobés par Snowden à la NSA. On y apprend ainsi que l’agence, ainsi que les structures équivalentes des Five Eyes (États-Unis, Canada, Royaume-Uni, Nouvelle-Zélande et Australie), ont travaillé sur la mise au point de plusieurs techniques pour s’infiltrer dans les connexions qui s’établissent entre les smartphones Android d’une part, et les boutiques d’applications de Google et Samsung d’autre part.

Ce programme particulier se nomme « IRRITANT HORN » et s’utilise de pair avec XKEYSCORE, décrit un temps comme le « Google du renseignement », en fait un moteur de recherche interne pour retrouver rapidement des informations et des mises en relation. Les analystes peuvent ainsi s’en servir pour repérer un flux de données en particulier sur les câbles Internet et le suivre, littéralement, jusqu’à la porte d’entrée des boutiques. De là, la méthode consiste à se faufiler dans la place et à implanter un malware dans un téléchargement vers le smartphone visé.

NSA irritant horn

Récolter des données et transmettre de fausses informations

Une fois en place, ces implants ont la même mission que la plupart des malwares finalement : trouver, récolter et communiquer des informations sur l’activité de l’appareil. On peut imaginer que les appels téléphoniques, messages ou encore les frappes sur le clavier virtuel peuvent être communiqués à la NSA. Et la méthode est apparemment efficace puisqu’elle revient à mettre en place une attaque de type « homme du milieu » où la boutique d’applications sert d’intermédiaire.

On ne sait en fait pas dans quelle mesure la Network Tradecraft Advancement Team (constituée d’ingénieurs des cinq agences) est parvenue à ses fins. La possibilité de s’introduire dans les boutiques d’applications (seules celles de Google et de Samsung sont abordées) aurait dans tous les cas permis à la NSA et ses alliées de faire d’une pierre deux coups. Non seulement il devenait possible d’injecter du code, mais également d’envoyer de fausses informations pour susciter un « trouble » chez les victimes. L’intégralité du programme aurait été décidée en 2010 lors des prémices du Printemps arabe en Tunisie, évènements durant lesquelles les agences ont jugé qu’elles étaient relativement aveugles.

Des failles trouvées et exploitées dans le navigateur UC Browser

L’un des plus gros problèmes soulevés par ces documents concerne UC Browser. Ce navigateur mobile n’est pas nécessairement connu en Occident, mais il est très utilisé en Asie, surtout en Chine et en Inde, avec une base confortable de plus de 500 millions d’utilisateurs. Or, dans les travaux menés par les agences de renseignements, plusieurs vulnérabilités  ont été trouvées dans l’application et utilisées pour récupérer des informations.

Ces failles dans UC Browser ont été analysées et confirmées par Citizen Lab, qui les considère comme très sérieuses. Un rapport complet a d’ailleurs été émis hier pour recentrer l’ensemble des problèmes et montrer comment l’application pouvait être utilisée pour organiser des fuites de données : recherches, numéros de cartes SIM, historique ou encore identifiants uniques des smartphones étaient ainsi récupérables.

nsa irritant hornnsa irritant horn

Citizen Lab a indiqué avoir averti en avril l’éditeur d’UC Browser, qui n’est autre que le géant chinois Alibaba. L’entreprise a répondu qu’une mise à jour avait été déployée depuis pour corriger l’ensemble des failles décrites. Elle a par ailleurs affirmé ne pas être au courant de la moindre fuite de données des utilisateurs. Cela étant, et connaissant les capacités de la NSA qui n’en finissent plus d’être décrites depuis bientôt deux ans, il y a de grandes chances pour que de telles fuites n’aient de toute manière pas été détectables.

La NSA continue de militariser les failles de sécurité

Et malheureusement, ce type d’action, qui consiste ni plus ni plus qu’à « armer » des failles de sécurité existantes, est particulièrement dommageable pour les internautes. Cette thématique est régulièrement abordée puisque des figures comme Tim Berners-Lee et de nombreux experts en sécurité ont accusé la NSA de s’attaquer aux fondations d’Internet en gardant pour elles les failles de sécurité qu’elle collecte, comme autant de missiles dans un arsenal.

Ron Deibert, directeur de Citizen Lab, résume la situation : « Évidemment, les agences de sécurité ne révèlent pas ce genre d’information. À la place, elles récoltent les vulnérabilités puis les militarisent ». De fait, profiter de ces failles dans une application peut servir leurs intérêts, « mais cela se fait au détriment de la vie privée et de la sécurité de centaines de millions d’utilisateurs dans le monde ».

Il est donc reproché une fois de plus à la NSA d’être en possession d’informations importantes pour la sécurité de nombreux utilisateurs. En ne rapportant pas ces failles à leurs éditeurs respectifs, le risque augmente avec le temps qu’elles soient découvertes par des groupes nettement plus mal intentionnés.

The Intercept a contacté les cinq agences de renseignement, et toutes ont répondu soit qu’elles n’avaient pas de commentaires particuliers à faire sur ce type d’information, soit qu’elles agissaient dans un strict cadre légal. Des réponses entendues de nombreuses fois depuis deux ans à la NSA ou chez son équivalent anglais, le GCHQ. Google et Samsung, de leur côté, n’ont pas souhaité répondre.

Ce que l’école doit retenir de la débâcle des iPads à l’école à Los Angeles (Wired)

Source : http://alireailleurs.tumblr.com

13/05/2015

A l’automne 2013, les écoles de Los Angeles ont commencé à distribuer des iPads dans toutes les écoles du district, rapporte Wired. Un programme ambitieux de 1,3 milliards de dollars piloté par le district scolaire de LA, Pearson et Apple. Pourtant, depuis août, tout est à l’arrêt. Le district scolaire a stoppé son contrat avec Apple et le FBI enquête pour savoir s’il y a eu un traitement préférentiel dans le marché public conclu. Au printemps, le district a même demandé à Apple de le rembourser en expliquant que la matériel fourni était totalement inutilisable. Comment expliquer ce désastre ? Comment expliquer que l’un des plus grands district scolaire des Etats-Unis, l’une des plus grande société de technologie au monde et l’une des marques les plus établies dans le monde de l’éducation en soit arrivé à un tel fiasco ?

Pour Micheal Horn, directeur du programme d’éducation à l’Institut Clay Christensen et auteur de Blended : utiliser l’innovation disruptive pour améliorer l’école, la situation de LA est emblématique des écoles prises dans une frénésie technologique, sans avoir réfléchit à ce dont elles ont besoin. Selon lui, cela montre combien un programme éducatif doit construire sa propre réponse technologique, à l’image des AltSchool, ces nouvelles écoles alternatives privées qu’évoquait longuement Wired dans un autre article. Mais le système des marchés publics permet-il vraiment cela ? interroge Robin Lake, directeur du Centre pour réinventer l’éducation publique. Or, les systèmes scolaires ont du mal à faire de la R&D. Ils sont conçus pour travailler avec quelques grandes entreprises qui fourniront une technologie clef en main. Or, ce n’est pas la façon dont la technologie évolue. C’est aussi aux entreprises comme Pearson de changer de tactique et de mieux accompagner les écoles plutôt que de concevoir des programmes clés en main. A l’image de ce qu’à lancé New York avec iZone, pour connecter les startups aux écoles de la ville. Ou du programme lancé par Cary Matsuoka du district scolaire de Milpitas en Californie, qui a d’abord travaillé avec les écoles pour savoir ce dont elles avaient besoin.

Los Angeles ne compte pas abandonner pour autant l’informatisation de ses écoles. Elle a lancé un groupe de travail pour répondre à 4 questions fondamentales : qu’est-ce que les élèves doivent apprendre ? Comment ? Quelles ressources sont nécessaires ? Comment cela va fonctionner ?

Profitons-en pour évoquer l’ambitieux projet AltSchool, fondé par un ex-cadre de Google, Max Ventilla, qui a quitté le géant américain pour fonder une école qui correspondrait à ses attentes. Dans l’article que lui consacre Wired, on apprend que dans les 4 écoles AltSchools (il devrait y en avoir 8 l’année prochaine), largement financées par les géants de la Valley (les études coûtent tout de même 21 000 $ par an et par enfant), chaque enfant dispose d’un iPad ou d’un Chromebook dans lesquels ils trouvent les “playlists” hebdomadaires de ce qu’ils doivent étudier (écrire sur quelque chose, résoudre un problème de math, regarder une vidéo…).

Ces playlists d’activités sont personnalisées et réalisés par des professeurs qui les partagent dans une base de donnée commune afin qu’elles soient réutilisables. Tous les exercices réalisées sur tablettes sont enregistrés pour suivre les progrès des élèves d’une manière moins invasive et plus précise que les contrôles de connaissance. AltSchool se présente comme un laboratoire à la fois pour construire des applications éducatives et pour construire de nouvelles formes d’écoles. Chez AltSchool, les profs ne sont pas seuls. Une équipe de 39 personnes assure l’intendance logicielle et informatique et travaille en lien étroits avec les professeurs pour mettre au point les applications et les devoirs.

Derrière cette expérience pour l’instant très élitiste, Max Ventilla souhaite vendre un système opérationnel clé en main pour les autres écoles… Mince alors ! N’est-ce pas là justement ce qu’on nous expliquait comme étant mauvais pour l’éducation ? Bon, visiblement, cela dépend surtout de la manière dont est conçu le système…

Les Nouveaux Loups De Wall Street

Réalisé par Ivan Macaux avec Ali Baddou
Produit par CHENGYU PROD, avec la participation de CANAL+

29/04/2015

Source : http://www.canalplus.fr

Depuis la crise des subprimes en 2008 et la dépression qui s’en est suivie, on pensait que les leçons avaient été tirées… Mais, pour certains, une nouvelle pratique financière pourrait avoir des effets aussi dévastateurs. Cette pratique porte un nom : le Trading Haute Fréquence (THF).

Aujourd’hui, dans l’univers de la finance, les ordinateurs ultrarapides commandent 70 % des opérations boursières aux États-Unis et déjà 40 % en Europe. Ils interviennent sur les marchés pour acheter et vendre à la vitesse de la lumière.
Ces opérations sont réalisées en microsecondes…
Les programmeurs de ces machines sont devenus « les nouveaux loups de Wall Street ».

Les traders en chair et en os ont déserté la Bourse au profit d’ordinateurs toujours plus puissants guidés par des formules mathématiques : les algorithmes.
Les règles de fonctionnement ne sont connues que par un petit monde très fermé et peu accessible. Un monde dans lequel ces traders haute fréquence n’agissent que pour un profit immédiat.
Cette révolution pourrait se révéler dramatique. Certains estiment que la Bourse est désormais truquée… Il y a quelques mois, un journaliste américain, Michael Lewis, exprimait cette thèse dans un livre retentissant, « Flash Boys ».

Des États-Unis (New York, Connecticut, New Jersey, Chicago) à la Grande-Bretagne (Londres), en passant par les Pays-Bas (Amsterdam) et la France, Ali Baddou nous emmène au cœur du système à la rencontre de ces nouveaux loups de Wall Street qui gouvernent désormais le monde de la finance. Certains parlent pour la première fois et dévoilent une partie de leur stratégie ou de leur technologie !

Bienvenue dans ce monde d’une extrême modernité où l’économie réelle s’efface au profit de la spéculation à tout prix. Bienvenue dans ce que certains surnomment le « turbo-capitalisme ».


Alternative Player 1 , 2

Projections algorithmiques et illusion d’anonymat

Par

14/02/2015

Source : http://echoradar.eu

Unique dans la foule par nos conversations téléphoniques…

Une étude [1] publiée le 25 mars 2013 dans la revue Nature réalisée par une équipe de chercheurs du MIT (Massachussetts Institute of Technology) et de l’Institut Catholique de Louvain (Yves Alexandre de Montjoye, César A Hidalgo, Michel Verleysen) a confirmé un sentiment déjà partagé par de nombreux chercheurs en théorie de l’information : nous surestimons fortement notre anonymat numérique et sous-estimons notre unicité au sein d’une foule.

regard - projection N0

« Ils sont plus de deux mille et je ne vois qu’eux deux … » J. Brel

L’équipe du MIT a démontré qu’il suffit de quatre repères spatio-temporels de type métadonnées pour déterminer, dans 95% des cas, l’identité d’un individu utilisant un réseau de communication téléphonique. Les repères utilisés sont par exemple le lieu ou l’heure de l’appel téléphonique. L’identité de la cible est inconnue, seules ses traces de mobilité sont analysées.

Ce résultat spectaculaire prouve que le concept d’anonymat d’un individu utilisateur d’un réseau de téléphonie mobile est à la fois hautement abstrait, fragile, surestimé et que quatre traces informationnelles suffisent dans la majorité des cas à le faire voler en éclat.

L’étude a été menée à partir des données de mobilité d’un ensemble de 1,5 millions d’utilisateurs d’un réseau de téléphonie mobile. La collecte des données a eu lieu entre avril 2006 et juin 2007 dans un pays occidental. Lorsque l’utilisateur interagit avec le réseau de téléphonie par le lancement ou la réception d’un appel ou d’un SMS, l’emplacement de l’antenne de connexion relais est enregistré ainsi que l’heure de l’appel. La résolution spatiale de l’ensemble de données est égale à la moitié de la distance maximale séparant les antennes. La résolution temporelle de l’ensemble est exprimée en heures. Une mesure du caractère d’unicité des traces de mobilité E (ou unicité de mobilité humaine) est construite à partir des données collectées, et s’exprime selon la formule :

E = a – (v . h)B

h est la résolution temporelle, v la résolution spatiale liée au nombre d’antennes.

B est un exposant linéairement lié aux nombres de traces de mobilité, par exemple B = – p / 100 avec p traces utilisées (en pratique p = 4 suffit à l’identification).

La quantité « a » est une constante d’ajustement liée au système.

En moyenne, l’étude rapporte 114 interactions par utilisateur, par mois, sur un réseau de 6500 antennes référencées. Ces antennes sont distribuées sur le territoire en servant environ 2000 habitants par antenne et couvrant des zones géographiques de 0.15 km² en secteur urbain et 15 km² en zone rurale. Le nombre d’antennes est bien entendu corrélé à la densité de population. Les traces de mobilité n’ont pas toutes la même valeur informationnelle. Ainsi, une communication téléphonique passée à midi en plein centre de Paris est moins spécifique, moins parlante qu’un appel passé à quatre heures du matin depuis une clairière de la forêt de Fontainebleau. L’étude démontre que quatre traces ou points choisis au hasard sont suffisants pour caractériser de façon unique 95% des utilisateurs du réseau ; c’est-à-dire que E > 0.95.

De la même façon, deux points choisis au hasard caractérisent de façon unique plus de 50% des utilisateurs : E >0.5. Ces deux résultats prouvent que nos traces de mobilité sont globalement uniques et qu’il ne faut pas espérer passer inaperçu en tant qu’utilisateur d’un réseau de téléphonie.

Très peu d’information extérieure (de type métadonnée) est nécessaire pour identifier de façon presque certaine la trace d’un individu ciblé et l’effort de calcul que doit fournir un système de surveillance globalisé lors d’une identification et du suivi d’une cible s’avère extrêmement réduit (quatre traces suffisent)…

Unique sur internet par nos projections algorithmiques…

Le résultat précédent s’étend d’une certaine façon aux traces que nous produisons lors de nos interactions numériques. La notion de projection algorithmique [2] [3], inédite dans le formalisme qui la sous-tend, permet de décrire certaines interactions du cyberespace. Sa définition la rend compatible avec une collecte et une analyse automatisées. Même anonymé, un utilisateur régulier d’un réseau social ou d’un site de vente en ligne transfère vers le système, volontairement ou non, une quantité d’informations qui, croisées entre elles à la manière des quatre traces précédentes, finissent par abolir complètement l’anonymat initial. Cette perte d’anonymat résultant du croisement de données est souvent sous-estimée par un opérateur qui ne mesure pas toujours l’importance de l’information déduite. Il est possible de définir de façon formelle l’information résultant de chaque interaction en fixant le concept de projection algorithmique d’un individu H décidant l’exécution d’un algorithme A sur un système de calcul et de stockage noté S.

Nous appelons projection algorithmique de H sur S selon A, et notons PS(H/A) l’ensemble de mots binaires finis (des mots formés d’une suite finie de 0 et de 1) archivés sur S et résultant de l’exécution de A sur S décidée par H.

Cette projection est scindée en deux sous-ensembles disjoints :

On y retrouve d’une part la projection ouverte notée POS(H/A) qui contient l’information archivée sur S accessible à tout utilisateur ou tout système extérieur. Elle constitue la composante ouverte et publique de la projection. On la complète par la projection fermée notée PFS(H/A) réunissant les mots binaires archivés sur les unités de stockage de S, maintenus privés, et réservés au seul groupe supervisant le système S (ses administrateurs par exemple, dans le cas d’une supervision de nature humaine). La projection s’exprime donc comme une réunion disjointe :

PS(H/A) = POS(H/A) U PFS(H/A)

On considère ensuite la réunion des ensembles PS(H/A) prise sur tous les algorithmes exécutables sur S.

PS(H) = UA PS(H/A)

Cette projection informationnelle de l’opérateur H relativement au système S se scinde naturellement en deux sous-ensembles, l’un ouvert noté POS(H) et l’autre PFS(H) fermé et accessible aux seuls administrateurs-superviseurs du système de calcul S :

PS(H) = POS(H) U PFS(H)

On notera que le superviseur de S peut lui-même être un système de calcul œuvrant dans le cadre d’un système spécifiant un système.

Enfin, la projection globale notée P(H) est obtenue en considérant la réunion sur tous les systèmes S des ensembles PS(H) . Ainsi, P(H) = US PS(H) doit être vue comme notre reflet numérique global.

La projection PS(H) s’enrichit lors de chaque nouvelle interaction algorithmique décidée par l’opérateur humain H. L’apport peut être redondant ou complémentaire.

Globalement, l’information brute augmente au sein de cette projection et constitue une cible de choix pour tout programme de collecte d’information (data mining). Ces programmes ou agents logiciels agissent au bénéfice de bases de données (big data) à finalité de marketing, d’études de tendances, ou lors de collecte d’information ouverte. La pratique ROSO du renseignement obtenu à partir de sources ouvertes entre dans le cadre de ce formalisme. Il suffit de croiser les informations puisées dans les projections relatives à un algorithme A pour déduire, de façon automatique ou par calcul humain, un nouvel ensemble structuré et plus riche que l’ensemble des projections initiales.

L’analyste, qu’il soit de nature humaine ou de nature algorithmique, peut également provoquer l’apport de projections complémentaires et l’enrichissement de la projection globale en activant des boucles de rétroactions opérant entre l’opérateur humain ciblé et sa projection algorithmique.

On y trouve par exemple des boucles d’intérêt, des boucles narcissiques de valorisation, et des boucles addictives. Les notions d’identité numérique et de réputation numérique s’intègrent naturellement dans la définition plus large de projection algorithmique de l’opérateur H relativement au système S. L’intérêt d’un tel formalisme est de décomposer l’information selon le type d’algorithme envisagé et de créer des partitions sémantiquement exploitables par un système d’analyse automatisé. Un phénomène concret comme l’auto-radicalisation d’un individu fréquentant régulièrement un site militant extrémiste peut être décrit en associant le concept de concurrences algorithmiques à celui de projections. Dans tous les cas, une boucle de transfert d’information s’installe entre l’opérateur et le site concerné avec une « volonté algorithmique » de contrôler et de cadenasser la cible humaine. L’étude détaillée et exhaustive des boucles de rétroactions liant l’opérateur et sa projection algorithmique s’impose dès lors que l’on souhaite installer puis exploiter un système automatisé de collecte de données. La recherche de corrélations ou de similarités entre données passe par l’analyse de l’information issue des dynamiques propres à chaque boucle.

Les systèmes de surveillance automatisés et de détection de menaces, à l’image du programme européen INDECT (développé jusqu’en 2014) ou de son grand frère PRISM, exploitent actuellement les projections algorithmiques de façon très élémentaire (via des groupes de mots-clés ,des relations et des similarités). L’analyse du contenu informationnel des projections et de leurs relations va s’enrichir au niveau sémantique et permettre à terme une compréhension proche de ce qu’un cerveau humain peut déduire d’un ensemble réduit de données.

En attendant cette montée en puissance, soyons tous conscients que notre anonymat ne tient qu’à quatre traces !

Bibliographie

[1] Unique in the Crowd : The privacy bounds of human mobility –

http://www.nature.com/srep/2013/130325/srep01376/full/srep01376.html

[2] BERTHIER T. – « Projections algorithmiques et cyberespace » R2IE – revue internationale d’intelligence économique – Vol 5-2 2013 pp. 179-195.

[3] BERTHIER T., Sur la valeur d’une donnée, Publications Chaire de cyberdéfense Saint- Cyr-Sogeti-Thales – mai 2014.

Loi sur le renseignement : la surveillance déjà élargie en Commission des lois

Par , Journaliste, rédacteur en chef

01/04/2015

Source : http://www.nextinpact.com

image dediée

Crédits : Francisco Javier Gil Oreja/iStock/Thinkstock
 

Les amendements au projet de loi sur le renseignement seront discutés à partir d’aujourd’hui en Commission des lois, afin de préparer les débats en séance. Déjà, le très influent député PS Jean-Jacques Urvoas a fait adopter une série de rustines qui vont faciliter le déploiement des outils de surveillance. Explications.

Le projet de loi sur le renseignement définit les sept finalités qui permettront aux services du renseignement de déployer une masse d’outils de surveillance. Ainsi, est autorisé « le recueil des renseignements relatifs aux intérêts publics suivants » :

  1. La sécurité nationale
  2. Les intérêts essentiels de la politique étrangère et l’exécution des engagements européens et internationaux de la France
  3. Les intérêts économiques et scientifiques essentiels de la France
  4. La prévention du terrorisme
  5. La prévention de la reconstitution ou du maintien de groupement dissous
  6. La prévention de la criminalité et de la délinquance organisées
  7. La prévention des violences collectives de nature à porter gravement atteinte à la paix publique.

Réécriture de la plupart des sept finalités

Ces expressions ont déjà été jugées très floues, notamment par les députés écologistes, qui ont déposé plusieurs correctifs visant à mieux expliquer ou contenir ces termes (notre synthèse des 129 premiers amendements). Le député Jean-Jacques Urvoas, président de la Commission des lois et membre de l’actuelle Commission nationale de contrôle des interceptions de sécurité, entend au contraire élargir plus amplement le périmètre. Comment ? En déposant une série d’amendements modifiant la plupart de ces tiroirs afin d’en faire de larges trappes (en gras, les modifications).

  1. L’indépendance nationale l’intégrité du territoire et la défense nationale (amendement 151)
  2. Les intérêts majeurs de la politique étrangère et la prévention de toute forme d’ingérence étrangère (152)
  3. Les intérêts économiques, industriels et scientifiques majeurs de la France (153)
  4. La prévention du terrorisme
  5. La prévention de la reconstitution ou d’actions tendant au maintien de groupements dissous (155)
  6. La prévention de la criminalité et de la délinquance organisées
  7. La prévention de la prolifération des armes de destruction massive (154).

« D’essentiels » à « majeurs » pour être moins restrictif

On remarquera ainsi qu’à plusieurs reprises les intérêts « essentiels » du projet initial deviennent de simples intérêts « majeurs », ce qui abaisse d’un cran le niveau de justification. Suivi par le gouvernement, Urvoas le reconnaît lui-même : l’expression « essentiels » lui paraît en effet « trop restrictive et n’offrant un cadre suffisant à l’action de nos services extérieurs ». Dans l’amendement 153, il ajoute aussi sans rougir qu’il « paraît indispensable d’assurer une démarche de collecte de renseignements au profit de certains secteurs vitaux pour notre pays, notamment dans le domaine économique, à l’instar de ce que pratiquent tous les services de renseignement de nos partenaires (souvent à notre détriment) ». Et pour justifier cet appétit, il s’appuie sur l’article 8 de la Convention européenne des droits de l’Homme, laquelle « prévoit d’ailleurs des exemptions pour le « bien-être économique du pays », expression reprise en particulier dans la loi britannique de 1994 relative aux services de renseignement. »

Seul le dernier point vient sans nuance resserrer la fenêtre de tir des outils de surveillance. C’est la prévention de la prolifération des armes de destruction massive, « une finalité qui mérite toute l’attention des services de renseignement. En effet, eux seuls sont compétents pour détecter les réseaux criminels et les stratégies hostiles d’États cherchant à utiliser ces armes de destruction massive à l’occasion de conflits ou d’attentats terroristes ». Il faut dire que l’expression « prévention des violences collectives de nature à porter gravement atteinte à la paix publique » qu’elle remplace permettrait en l’état de mener à bien une surveillance sur des foyers de contestations sociales un peu trop excitées…

Un renseignement défensif mais aussi offensif

Il y a un autre point très important. Alors que le projet de loi vise « le recueil des renseignements relatifs aux intérêts publics » (phrase suivie de la liste des finalités), Urvoas lui préfère cette version : « le recueil des renseignements relatifs à la défense et à la promotion des intérêts publics » (amendement 150). Votée, cette petite rustine aura de lourdes conséquences : elle autorisera un renseignement non seulement défensif, mais également offensif afin d’assurer, pourquoi pas, la promotion des « intérêts économiques, industriels et scientifiques majeurs de la France »…

Ces amendements ont tous été adoptés aujourd’hui en Commission des lois. Seulement, une petite nuance a été apportée au fil des premiers débats

De 7 à 7,5 finalités

Ce matin, en effet, les députés ont revu quelque peu le listing des 7 finalités. Via un amendement socialiste, les députés ont réarrangé l’ordre initial. Le point 7 (violence collective) a été resserré. On ne parle plus d’atteinte à la paix publique, mais à la sécurité nationale, nuance. Cependant, ce passage a été déplacé pour s’intercaller dans le point 5 (les groupes dissous). La place libérée est elle occupée par les armes de destruction massive.

En conclusion, voilà la liste des 7,5 finalités adoptées avant le débat en séance :

  1. L’indépendance nationale, l’intégrité du territoire et la défense nationale
  2. Les intérêts majeurs de la politique étrangère et la prévention de toute forme d’ingérence étrangère
  3. Les intérêts économiques industriels et scientifiques majeurs de la France
  4. La prévention du terrorisme
  5. La prévention des atteintes à la forme républicaine des institutions, des violences collectives de nature à porter atteinte à la sécurité nationale, de la reconstitution ou d’actions tendant au maintien de groupements dissous en application de l’article L. 212‑1
  6. La prévention de la criminalité et de la délinquance organisées
  7. La prévention de la prolifération des armes de destruction massive

Lutter contre la haine sur internet

Par Olivier Ertzscheid

22/02/2015

Source : http://affordance.typepad.com

J’aurais du être aujourd’hui, à l’invitation de l’UEJF, aux « 1ères assises de la lutte contre la haine sur internet. » (Vous pouvez suivre en direct le déroulement des assises via le hashtag #assisesinternet)

Pour différentes raisons (personnelles), je n’y étais finalement pas. Mais mon intervention étant prête, je le mets à disposition.

Cette contribution s’inspire de deux textes récemment publiés sur ce blog :

Le diaporama est disponible ci-dessous. Juste avant, retour sur quelques points qui y sont évoqués.

#DiscoursDeLaHaine ? C’est compliqué.

D’abord il n’y a pas de « discours type de la haine » (diapos 3 et 4). A quelques rares exceptions qui font l’unanimité, comme la diffusion de ces vidéos de décapitation ou les insultes ouvertement racistes, la plupart des cas qui posent problème ne sont des discours de haine qu’au regard de certains contextes ou de certaines communautés : c’est le cas des caricatures du prophète, c’est aussi le cas de certaines « blagues » accolées au hashtag #UnBonJuif.

La question est alors de savoir « qui décide » de laisser diffuser ces contenus (diapos 5 et 6), et surtout sur quels critères : 4 possibilités : la justice, nous-mêmes, le code (les algorithmes) ou les plateformes elles-mêmes.

Code is Law.

Il faut remettre en perspective, à l’échelle du web-média, les bouleversements qui ont eu lieu dans notre perception (ou nos aspirations) de la légitimité d’un discours (diapos 8 à 11). Avec ces 3 grandes étapes qui furent, en 1996, la déclaration d’indépendance du cyberespace (« il n’y a pas de lois ici »), l’article « Code is Law » de Lessig en janvier 2000, et la récente déclaration de Mark Zuckerberg qui place, de facto, sa plateforme au-dessus et à l’extérieur des lois (« nous ne laissons jamais un pays ou un groupe de gens dicter ce que les gens peuvent partager à travers le monde« ). Vous noterez l’emploi du présent dans la déclaration de Zuckerberg qui indique qu’il a déjà « acté » cette pratique et qu’il la considère comme parfaitement légitime (culture du 1er amendement de la constitution américaine), toute la question étant de savoir ce que devient cette pratique « libertarienne » si on la déplace dans un contexte moins « unanimiste » que celui de la réaction aux attentats contre Charlie Hebdo.

Il faut ensuite acter l’état actuel des législations (américaines, françaises, etc.) qui disposent en l’état d’un arsenal de textes déjà largement suffisant (diapo 13) pour encadrer, pour « surveiller et punir » dirait Foucault, l’expression des discours de haine. Des lois certes controversées, mais des lois existantes et directement applicables. A condition de ne jamais zapper la case justice. A ces législations s’ajoutent des plateformes qui permettent de signaler l’expression des discours de haine (plateforme Pharos en France) et des phénomènes d’auto-régulation et d’auto-censure liés à l’architecture en panoptique de la plupart des réseaux sociaux dans lesquels nous sommes à la fois le gardien (« big brother ») et les prisonniers (« little sisters »).

Batrob

La tyrannie des agissants : « désengagez-vous qu’ils disaient »

Il faut, enfin, accepter, reconnaître et comprendre un certain nombre de principes « simples » qui caractérisent les modes d’expression sur le réseau : le premier d’entre eux (diapo 13) est la « tyrannie des agissants » décrite par Dominique Cardon (« Internet donne une prime incroyable à ceux qui font« ). Comprendre également la nature des processus d’engagement en ligne (diapos 18 à 21), lequel « engagement » déterminera ensuite la portée et le risque réel associé aux discours de haine qu’il sous-tend. Or en la matière, il faut constater, comme l’a rappelé l’affaire du « soutien au bijoutier de Nice », que 1 million de like n’équivaut pas à un million de soutiens, qu’une personne « soutenant » en ligne un certain type de discours n’est pas nécessairement prête à « s’engager » derrière ce discours, fut-il un discours de haine ou, d’ailleurs, un discours de paix. L’engagement en ligne est le plus souvent une forme de désengagement (« slacktivisme« ).

A propos de l’engagement, Merleau-Ponty écrivait :

« Tout engagement est ambigu puisqu’il est à la fois l’affirmation et la restriction d’une liberté : je m’engage à rendre ce service, cela veut dire à la fois que je pourrai ne pas le rendre et que je décide d’exclure cette possibilité.« 

Or précisément, sur les internets, le « like » ou le slacktivisme est une forme d’engagement monoface : « liker » une « cause » ou un « discours » c’est exclure la possibilité de rendre réellement un service. Et la plupart du temps … c’est tout.

Ceci étant posé, oui, il y a bien un discours de haine présent sur internet. Comme d’ailleurs dans le PMU du coin. C’est vouloir les traiter de la même manière, c’est leur accorder la même importance qui serait une erreur. Car ces discours de haine sur internet obéissent à des logiques propres qui tournent autour de 4 effets contre-intuitifs (diapos 23 et 24).

4 effets contre intuitifs.

L’effet petit pois (comme dans le conte de la princesse au petit pois) fait que l’on se focalise souvent – et particulièrement dans le cadre de l’analyse des discours de haine – sur des phénomènes relevant de l’infinitésimal. Il s’agit d’une erreur sur « l’ordre de grandeur » de ces phénomènes ou de ces discours. Pour s’en convaincre on pourra relire ces deux illustrations de l’effet petit pois que furent le traitement du hashtag #jesuiskouachi ou celui de #jenesuispascharlie.

L’effet miroir consiste à interpréter ces mêmes phénomènes à l’inverse de ce qu’ils signifient réellement. Là encore, en termes d’ordre de grandeur, pour 100 000 « je suis charlie » on dénombrait à peine 100 « je ne suis pas charlie », et sur ces 100 « je ne suis pas charlie », 99 reprenaient le hashtag mais pour condamner celui qui l’avait utilisé.

L’effet Streisand, le plus connu et le plus ancien à l’échelle du web, consiste à croire que supprimer ces contenus serait « la » solution alors que chaque suppression ne fait qu’accélérer la duplication et l’audience des contenus, des propos ou des discours visés.

L’effet cigogne, enfin, qui est le résultat de la somme des 3 effets précédents et qui consiste à confondre corrélation et causalité. En gros « il y a beaucoup d’appels à la haine sur internet, donc internet incite à la haine« . Ben non.

Le problème est que la plupart des approches visant à lutter contre ces discours de haine, qu’il s’agisse du discours politique ou de l’action législative ignorent presque totalement ces 4 effets.

Bain d’acide : qu’importe le caleçon ou le slip de bain.

Et l’autre problème qui explique qu’il soit si difficile de dégager un concensus efficace autour de la manière de les contrer est que la hiérarchie entre « la loi », « les réglements intérieurs » et « le code » est désormais totalement inversée (diapos 26 et 27).

. Diapositive26

Si je reprends un exemple qui m’est cher, assimilant les CGU à ce qu’elles sont réellement, c’est à dire rien d’autre que l’équivalent du règlement intérieur d’une piscine privée vous interdisant de porter des caleçons de bain, on peut alors, par extension, considérer d’une part « la loi » qui régit l’espace public de la baignade sur les plages (et qui n’a vocation qu’à autoriser ou à interdire la baignade dans certaines zones), et d’autre part « le code » qui serait alors la composition de l’élément liquide dans lequel on va se baigner ou non, en caleçon ou en slip de bain. Si le code se compose de 2 atomes d’hydrogène et d’un atome d’oxygène, alors nous sommes dans de l’eau. Tout va bien. Si l’on change quelques éléments seulement de ce code, on se trouve à patauger dans de l’acide chlorydrique. L’expérience de la baignade en est radicalement changée.

Diapositive27

Dans l’environnement numérique, c’est ce code qui prédomine. C’est la manière dont sont agencés les différents « critères » algorithmiques, les différents « atomes » du code, c’est la finalité qui leur est assignée par les ingénieurs et les plateformes qui détermine l’expérience, la nature et la portée des discours qu’ils véhiculent, qu’ils organisent, qu’ils filtrent, qu’ils trient en permanence et dans la plus totale opacité.

La bonne loi, la brute réglementaire et le truand du code.

La loi. Les réglements (CGU). Et le code. Nouvelle version de la trilogie « Le bon, la brute et le truand ». Dans l’ordre. Une trilogie dans laquelle le « nul n’est censé ignorer la loi« , devient, à partir du moment où le code est la loi, « nulle loi ne peut plus se permettre d’ignorer le code« , permettant du même coup que Mark Zuckerberg écrive « nous ne laissons jamais un pays ou un groupe de gens dicter ce que les gens peuvent partager à travers le monde » sans que personne d’autre que le type en train de rédiger ce billet ne semble s’en émouvoir outre mesure (diapos 28 et 29).

Et donc on fait quoi, #GrosMalin ?

D’abord on constate (diapo 31). On constate que tout le débat sur « comment lutter contre les discours de la haine » ne concerne pas « internet » mais concerne ses jardins fermés, c’est à dire les « plateformes » que sont Facebook, Twitter mais aussi de plus en plus Google en tant qu’écosystème de services (via Youtube notamment). Donc on agit au niveau des plateformes et pas au niveau d’internet (pour lequel, je répète, y’a déjà suffisamment de lois qui fonctionnent et s’appliquent).

On constate que ce sont les algos des plateformes qui ont à la fois pouvoir de police et de justice, dans la plus totale opacité, et qui décident de publier telle ou telle vidéo, de laisser passer tel ou tel #hashtag. Bref on constate que les algorithmes sont ces nouvelles « corporations du filtre » (l’expression est d’Umberto Eco) comme l’étaient hier les éditeurs et les rédactions de médias « papier ».

On constate que ces choix (laisser passer, laisser publier, etc.) relèvent d’un processus d’éditorialisation classique. On constate que les algorithmes font des choix d’éditorialisation classique.

On constate également qu’il serait vain et absurde (sauf à vouloir singer la corée du nord ou la chine) de demander aux plateformes de modérer « a priori » les millions de contenus publiés chaque minute. Et que c’est faire fausse route que de s’abriter uniquement derrière la logique de l’application du droit national sur Internet (cf la déclaration de Zuckerberg notamment …).

Donc on oblige, on contraint, par voie législative et à une échelle trans-nationale (comme par exemple la convention de Berne permet de la faire pour la protection des oeuvres littéraires et artistiques), on contraint les plateformes à rendre publique la partie du code qui détermine ces choix d’éditorialisation classique. Et ce faisant, à mettre en délibéré cette partie du code. Parce que, comme le disait Stiegler, « la démocratie est d’abord un exercice de rendu public. »

Voilà pour l’essentiel. Voilà pour l’urgence.

Et puis bien sûr on est conscient qu’il ne faut pas s’arrêter là. Conscient qu’il ne faut pas tout attendre du politique ni des plateformes, car comme l’écrivait encore Dominique Cardon : « Internet joue en effet un rôle majeur dans l’émancipation, dans l’auto-organisation de la société civile, sans que ses acteurs aient nécessairement à se préoccuper du centre de la société que seraient l’exécutif et la démocratie représentative…« .

Conscient qu’il ne faut à aucun prix laisser ces plateformes devenir une métonymie castratrice du web, car les cas échéant, rien ne les empêcherait plus d’y imposer leur loi, une loi qui ne serait même plus celle du code mais celle de leur code. Double peine (diapo 32).

Conscients enfin des avertissements déjà lancés, déjà écrits. Celui de Lessig en Janvier 2000.

« (…) La loi du cyberespace sera déterminée par la manière dont le cyberespace sera codé, mais nous aurons échoué à jouer notre rôle dans l’établissement de cette loi.« 

En Janvier 2015, nous n’avons jamais été aussi près d’échouer.

 

Téléphone Mobile : Les Faces Sombres

Source : http://ddc.arte.tv

03/2015

VIDEO

Taux de pénétration de la téléphonie mobile

Taux de pénétration de la téléphonie mobile

Voici une carte qui montre le taux de pénétration de la téléphonie mobile dans le monde par régions, en nombre d’abonnements pour 100 habitants en 2013. Il existe d’importantes disparités en termes d’accès à la téléphonie mobile : l’Afrique subsaharienne est loin derrière, alors que le nombre d’abonnements dans les pays de la communauté des États Indépendants excède le nombre d’habitants.
Histoire du téléphone portable

Histoire du téléphone portable

Le 3 avril 1973, Martin Cooper, ingénieur chez Motorola, passe le premier appel téléphonique depuis un portable. Dix ans plus tard, Motorola lance sur le marché le DynaTAC, premier téléphone mobile en série. En 1993, en France, est lancé le Bi-Bop, le mobile de France Télécom. Et dans le monde à la même époque, on compte alors 0,6 abonnements pour 100 habitants.
Histoire du téléphone portable

Histoire du téléphone portable

En novembre 2007, Apple lance son premier Iphone, un téléphone qui combine les fonctions d’un téléphone mobile et d’un assistant numérique personnel. En 2013, les smartphones se vendent mieux que les téléphones basiques. On compte 93 abonnements pour 100 habitants, et il s’est vendu environ 860 millions de téléphones basiques et 940 millions de smartphones cette année là.
Les éléments chimiques dans nos téléphones portables

Les éléments chimiques dans nos téléphones portables

Vous voyez ici les éléments chimiques qui composent les différentes parties de nos téléphones portables : coque, écran, parties électroniques et batterie. En tout, ce sont au total 60 éléments chimiques différents et plus de 500 pièces qui composent nos téléphones mobiles.
Matières premières critiques selon l’Union Européenne

Matières premières critiques selon l’Union Européenne

Parmi les éléments chimiques qui composent nos téléphones portables, certains ont été placés sur la liste des matières premières critiques par l’Union Européenne. Pourquoi ? Parce qu’il existe un risque de pénurie et ce pour deux raisons. D’abord parce que ces ressources sont non-renouvelables, donc épuisables. Par exemple, l’antimoine, présent dans l’électronique des téléphones, est menacé d’épuisement aux alentours de 2020. Cette estimation tient compte des conditions d’extraction et des réserves connues en 2009. Et deuxième raison : il y a en fait peu de pays producteurs.
Matières premières critiques selon l’Union Européenne

Matières premières critiques selon l’Union Européenne

Les éléments chimiques présents sur la liste des matières premières critiques de l’Union Européenne sont aussi concentrés dans quelques pays. C’est par exemple le cas de l’antimoine (Sb), de l’indium (In) et du magnésium (Mg) qui sont produits à 87 %, 58 % et 86 % en Chine.
L’exemple du tantale

L’exemple du tantale

Le tantale (Ta) est utile pour la fabrication des condensateurs. Ils permettent de stocker l’énergie et donc de conserver les données quand le téléphone est déchargé. Cette carte nous montre les principales mines dans le monde en 2011. Près de la moitié de la production mondiale vient de la République Démocratique Congo, et du Rwanda.
Groupes armés et mines en République Démocratique du Congo

Groupes armés et mines en République Démocratique du Congo

Vous voyez sur cette carte les mines de coltan et de cassitérite, dans lesquelles on trouve le tantale. Certaines de ces mines sont contrôlées ou régulièrement attaquées et pillées par divers groupes rebelles. Citons par exemple les Forces Démocratiques de Libération du Rwanda, la Nduma Defence for Congo, et les Raia Mutomboki.
Le tantale, une ressource non-renouvelable

Le tantale, une ressource non-renouvelable

Il existe un risque de rupture d’approvisionnement du tantale, qui n’est évidemment pas une ressource renouvelable. Les réserves mondiales de tantale actuellement connues correspondent à 153 000 tonnes. Et si l’on prend en compte la demande actuelle, il n’y aura plus de tantale d’ici 75 ans. Or, le dynamisme de la téléphonie mobile fait que la demande en tantale devrait s’accroitre dans les années à venir, au rythme de 5,3 % par an. Alors certes, la quantité de tantale par condensateur est faible, mais en 2011 on a tout de même fabriqué 9 milliards 300 millions de condensateurs rien que pour les téléphones.
Le puzzle mondial de la fabrication des téléphones portables

Le puzzle mondial de la fabrication des téléphones portables

Prenons l’exemple de l’Iphone 3G d’Apple, qui n’est plus fabriqué aujourd’hui, mais dont les diverses étapes de production permettent de bien comprendre la complexité de l’assemblage mondial : les écrans étaient fabriqués au Japon, l’appareil photo et le GPS en Allemagne, les processeurs en Corée du Sud, le système mémoire, l’antenne à courte portée et le circuit audio aux États-Unis et enfin, le tout était assemblé en Chine.

Lectures

TIC 2013, les nouveaux temps réels – Société, entreprises, individus, comment les TIC changent notre rapport au tempsYannick Lejeune, Stefana Broadbent, Dominique Reynié, Frédéric Bardeau
FYP Éditions01/10/2012Présentation de l’éditeur

Que devient la notion de temps pour l’individu pris dans ce flux continu d’information ? Fruit d’une vingtaine de spécialistes des nouvelles technologies, de réputation mondiale, cet ouvrage apporte un éclairage essentiel sur la transformation de la notion de temps auquel nous sommes tous confrontés, tant sur le plan professionnel que personnel.

L’ouvrage est une véritable avant-garde de la pensée et des usages à venir qui donne au lecteur des clés et des savoirs pour que les formidables capacités d’innovation puissent l’être au service de tous.

À propos des auteurs

Yannick Lejeune est directeur internet du groupe IONIS et diplômé de l’EPITA et d’un master de recherche en sciences de gestion de l’IAE de Paris.

Stefana Broadbent est Docteure en sciences cognitives, elle enseigne l’anthropologie numérique à l’University College de Londres.

Dominique Reynié est Directeur général de la Fondation pour l’innovation politique (Fondapol) et professeur des universités à l’Institut d’Etudes Politiques (IEP).

Frédéric Bardeau est cofondateur de Limite, une agence spécialisée en communication responsable qui accompagne principalement des ONG et des entreprises dans leur politique de Responsabilité sociale de l’entreprise (RSE).

Frédéric Bardeau et Nicolas Danet ont mené chez FYP un ouvrage intitulé Lire, écrire, compter, coder (06/2014) qui traite de la nécessité d’apprendre le code informatique, pour toutes les générations, tant pour la vie professionnelle que citoyenne, et explique comment y parvenir, quel que soit l’âge et la motivation.

TIC, technologies émergentes et Web 2.0 – Quels impacts en éducation ?Sous la direction de Thierry Karsenti et Simon Collin
Presses de l’Université du Québec01/05/2013Présentation de l’éditeur

L’ouvrage, en 15 textes, dégage les tendances actuelles et à venir en ce qui a trait aux usages des TIC, les technologies de l’information et de la communication, et de leurs incidences sur l’enseignement, l’apprentissage et le développement de compétences, de même qu’aux innovations technologiques tels le Web 2.0, l’apprentissage mobile et les réseaux sociaux. La méthodologie de recherche en éducation en regard des TIC est également abordée.

Ces textes sont le fruit du colloque « TIC, technologies émergentes et Web 2.0 : quels impacts en éducation ? », organisé par le Groupe de recherche sur l’intégration pédagogique des TIC en 2011 dans le cadre du congrès de l’Association Francophone pour le Savoir (ACFAS).

Le site des Presses de l’Université du Québec propose une présentation étendue du livre.

À propos des auteurs

Thierry Karsenti et Simon Collin sont présentés sur le site des Presses de l’Université du Québec.

Enseignement, informatique, TIC et société – L’industrie informatique dans la société de l’informationJacques Vétois
L’harmattan – Collection Terminal01/01/2014Présentation de l’éditeur

Dans ce double numéro 113-114 de la revue Terminal, il sera question de l’informatique à l’école et de ses enjeux à l’aube du XXIe siècle. La revue Terminal dresse aussi un premier bilan de l’enseignement de l’informatique chez les jeunes. Un dossier sera également consacré à l’actualité de l’industrie informatique à travers notamement un article sur les éditeurs de l’Open Source face au Cloud computing. Le livre est aussi téléchargeable sur le site de L’Harmattan.

À propos de l’auteur

Jacques Vétois a dirigé aussi chez le même éditeur un numéro sur les libertés à l’épreuve de l’informatique.

Mythologie du portableLaurence Allard
Le Cavalier Bleu01/01/2010Présentation de l’éditeur

À la fois produit de masse et support de personnalisation, l’usage du téléphone portable invite à dépasser les discours sur la fracture numérique. Jusqu’à inverser les rapports Nord/Sud dans ce domaine. Car l’avenir de la mythologie du téléphone portable se trouve en Afrique ou en Inde, à Gaza ou en Iran, bref, dans les pays du sud, nouveaux inventeurs de la culture mobile de demain.

À propos de l’auteure

Laurence Allard est sémiologue, maître de conférences en sciences de la communication à l’université de Lille-III. Elle s’intéresse particulièrement aux relations entre culture, politique et technique (p2p, web expressif, remixes, technologies mobiles…) en mobilisant les apports des gender, cultural et post colonial studies.

Avec Laurent Creton et Roger Odin, Laurence Allard a récemment publié Téléphonie mobile et création (Armand Colin, 02/2014) qu’analyse le site Lectures revues. Le thème a fait l’objet d’un colloque ouvert par les mêmes auteurs.

Portables : attention dangerNicolas Lefebvre avec la préface de Pierre Le Ruz
L’Archipel01/01/2010Présentation de l’ouvrage

Le Sénat, suite au rapport du 04 novembre 2009, s’est prononcé pour l’interdiction des mobiles dans les écoles maternelles et primaires. Depuis la condamnation des trois opérateurs historiques au nom du principe de précaution, la polémique sur les risques de la téléphonie mobile a pris une ampleur considérable.

Note de l’éditeur

Après un an d’investigation au contact de scientifiques internationaux réputés, de victimes, de représentants des institutions sanitaires et des industriels, Nicolas Lefebvre dépeint une réalité complexe et des conflits d’intérêt multiples. Il apparaît que le lobbying industriel, l’indépendance contestée des experts et la désinformation ont engendré la suspicion autant des usagers que des investisseurs et des assureurs.

À la fois guide pratique grand public et outil de travail à l’usage des professionnels, cet ouvrage complété d’annexes et de documents constitue un dossier de référence.

À propos de l’auteur

Nicolas Lefebvre collabore à la presse économique (Défis, Le Nouvel Entrepreneur, Rebondir) depuis 2001. Ses reportages l’ont conduit à s’intéresser aux lobbies industriels et à leur influence dans l’élaboration de l’expertise sanitaire et de la réglementation. Docteur en psychologie, le Dr Pierre le Ruz est président du Criirem (Centre de recherche et d’informations indépendantes sur les rayonnements magnétiques).

Portables et antennes : mauvaises ondesRichard Forget
Le Sang de la Terre01/02/2010Présentation de l’éditeur

Des centaines d’études ont mis en évidence les risques importants pour la santé des utilisateurs de téléphone portable et celle des riverains d’antennes-relais. Dès 2000, les premiers cas de cancer sont apparus notamment chez des enfants. Chercheurs et médecins ont alerté l’opinion et demandé l’application du principe de précaution mais les pouvoirs publics traînent des pieds. Le développement inconsidéré du téléphone portable sera-t-il un scandale comme l’a été l’utilisation de l’amiante ? Une technologie qui se développe sans tenir compte des dangers. Des intérêts économiques ignorant la santé des usagers. Des vrais rapports scientifiques qui restent confidentiels. Les témoignages inquiétants des utilisateurs. Le combat des associations qui gagnent leurs procès.

À propos de l’auteur

Avocat au Barreau de Paris, Richard Forget défend avec succès Robin des toits l’une des principales associations anti-téléphone mobile, et des citoyens se plaignant de la présence d’antennes-relais sur des édifices à proximité de leur domicile.

Blood in the mobileRéalisation : Frank Piasecki Poulsen. Production : Koncern TV- og, Filmproduktion, Film Chili (Danemark) et Gebrueder Beetz
Filmakers Library2014Présentation du documentaire

Qu’y a-t-il de commun entre un téléphone portable et la guerre civile au Congo ? Le sang. Celui qui vient de la lutte pour le contrôle du coltan, un minerai extrait dans la région du Kivu, indispensable à la fabrication de nos chers mobiles.

Stephen Applebaum pour The Guardian, en fait le commentaire.

Ce documentaire, qui fut diffusé en août 2013, fait l’objet d’un dossier sur le site d’Arte. Il est possible de commander le documentaire sur le site Blood in the mobile, de le voir en streaming et en français sur le site Culture Unplugged, en attendant, sa version DVD, sur Kongo News.

La ville du futur : les trois scenarii pour 2050 selon le Forum Économique de Davos

Par Yannick Harrel

30/03/2015

Source : http://harrel-yannick.blogspot.com

C’est un article du Huffington Post que je vous invite à lire car à mon sens ciblant très justement ce que pourraient (le conditionnel s’applique car il ne s’agit que de projections) être les villes du futur à l’aube des années 2050. Lequel se base sur les travaux du Forum Économique Mondial se déroulant à Davos (Suisse).
L’exercice est toujours compliqué, périlleux et enclin à tomber dans les oubliettes des élucubrations de futurologues. Cependant, au vu de la tendance actuelle, à savoir une massification des populations dans et autour des métropoles, entraînant de fait une césure avec le reste du pays (l’hinterland) et en prenant en considération l’essor des technologies de la communication et de l’information à ce jour, le propos est plausible.
Trois visions sont offertes :
* Le retour des cités-État
* e1984
* L’avènement des multinationales garantes du nouvel ordre
Pour le retour des cités-État, rien d’impossible en ce sens que voici déjà plusieurs années que la tendance mondiale est claire avec une migration interne et externe vers les villes les plus dynamiques, les plus connectées et les plus tournées vers l’économie-monde. Ces villes seraient interconnectées par des corridors spéciaux faisant fi de toute autorité centrale, avec des régimes et des spécialisations diverses : l’appartenance des citoyens reviendrait à l’acception première du terme, c’est à dire l’habitant de la cité, obéissant à ses règles et s’adaptant à ses moeurs.
Pour l’e1984, c’est le scénario que l’on retrouve aussi dans l’ouvrage de Jean-Christophe Rufin, malheureusement trop souvent oublié, Globalia. Des cités fonctionnant en bulles fermées et parées pour résister à l’extérieur source de menaces, au prix cependant de règles draconiennes et d’une aliénation de certaines libertés pour atteindre les objectifs de sécurité. Avec l’émergence d’un Intranet hyper protégé charriant une datamasse conséquente mais délimité au niveau d’un territoire donné. Un gouvernement technocratique en somme.
Pour les multinationales, le propos est moins ridicule qu’il ne pourrait y paraître en raison de la puissance financière et des poussées d’innovation exercées par celles-ci. De plus, il est déjà patent que certaines d’entre elles arrivent à tenir tête à plusieurs États, y compris européens, voire même à jouer les uns contre les autres à leur profit. En projection pour le futur, ces sociétés tentaculaires rassembleraient autour d’elles des communautés échangeant et tâchant de s’améliorer et d’améliorer l’existant avec une forte emprise de l’individualisme cependant au détriment du collectif (ce qui repose sur la théorie où les actions individuelles peuvent bénéficier au corps social).
Vraisemblables, ces conjectures ont le mérite de stimuler l’imagination et la réflexion car plusieurs éléments confortent que les pistes sont déjà tracées : datamasse, urbanisation massive, multinationales défiant les États etc.
Le tout avec un constat de l’impact irréversible des technologies nées du numérique par le Huffington Post :
L’irruption du numérique ne sera surtout pas cantonnée à la phase électorale de la vie politique. En accélérant la propagation de l’information, les technologies digitales incitent les citoyens à exiger d’avantage de transparence et d’efficacité de la part de leur administration. « La technologie avance très vite là où la démocratie avance très lentement. C’est pourquoi nous devons repenser nos institutions. Nous devons avoir une mentalité de hacker à leur égard », prévenait l’entrepreneur Jorge Soto au forum mondial de Davos…
Ce « hacking citoyen » ouvrira la voie à la « gouvernance ouverte », doctrine visant à favoriser la transparence et la participation directe des populations dans le processus de décision politique… 
Longtemps, les partis politiques se sont octroyé le monopole de la fabrique des candidats. Encore aujourd’hui, il est quasiment impossible de se faire élire sans le soutien d’un appareil politique. La démocratisation des réseaux sociaux et l’émergence des primaires ouvertes signent toutefois la fin de ce monopole.
Plus que l’espace dans lequel chaque individu sera appelé à évoluer, c’est aussi le choix d’un régime et d’une politique qui se devra d’être tranchée dans un avenir proche.
Ce qui ne devrait cependant pas se dérouler sans bouleverser les rentes de situation de partis politiques voire de certaines personnalités. Ni sans prendre en considération l’évolution sociodémographique des villes d’importance : la migration de populations vers la ville et l’émigration d’autres en dehors.
Lien vers le site du Forum de Davos (en anglais) : http://www.weforum.org/content/pages/future-government