Nouvelles technologies : les doléances des juges antiterroristes

Source : http://www.nextinpact.com/news/97874-nouvelles-technologies-doleances-juges-antiterroristes.htm

30 Dec 2015

Après les attentats du 13 novembre, une mission de suivi de l’état d’urgence a été lancée au Sénat. À cette occasion, plusieurs juges antiterroristes ont fait état des problèmes rencontrés dans leur quotidien face aux évolutions technologiques.

Dans cet échange organisé le 9 décembre dernier, et désormais retranscrit sur le site du Sénat, Laurence Le Vert, première vice-présidente chargée de l’instruction à la section antiterroriste et atteintes à la sûreté de l’État au tribunal de grande instance de Paris, et David Bénichou, vice-président chargé de l’instruction à la section antiterroriste et atteintes à la sureté de l’État au TGI de Paris ont ainsi fait part de leur doléance.

« L’évolution des technologies pose problème, expose la magistrate. Pour les djihadistes, c’est une arme de guerre. Pour nous, c’est un risque de destruction de nos procédures ». Pourquoi ? Tout simplement parce que « la majeure partie des preuves est issue de supports divers, téléphones, tablettes, disques durs, DVD, clefs USB et cartes SD ainsi que des interceptions de flux internet et téléphoniques ». Or, le Code de procédure pénal oblige « la mise à disposition de l’intégralité du contenu du dossier à la défense des parties », le dossier d’instruction devant être « à tout moment complet, lisible et accessible. »

LIRE LA SUITE

Publicités

Singapour les secrets de la réussite

Un Oeil Sur La Planète : Présenté par Etienne Leenhardt

Diffusé le 12/10/2015 , Durée : 01h40

Source : http://www.francetvinfo.fr

En un demi-siècle, Singapour a réalisé la plus incroyable ascension économique de l’histoire moderne, avec une multiplication par cinquante de sa richesse. Ce pays confetti de 5,5 millions d’habitants, composé de soixante-quatre îles représentant une surface d’un peu plus de 700 kilomètres carrés, affiche la plus forte concentration de millionnaires de la planète.

La cité-Etat est aujourd’hui en tête de très nombreux classements internationaux. Troisième pays au monde pour le revenu par habitant, elle est numéro 1 mondial pour le climat des affaires, l’éducation, la sécurité ou la qualité de sa fonction publique, qui paie particulièrement bien ses hauts fonctionnaires, notamment pour lutter contre la corruption.

Les deux faces de la cité-Etat

Le magazine « Un Œil sur la planète » (Facebook, Twitter, #UOSLP) diffusé sur France 2 s’est rendu dans ce pays enclavé entre l’Indonésie et la Malaisie qui accueille 15 millions de touristes par an. Une architecture verticale et souvent très originale, une hôtellerie haut de gamme, la qualité de l’air de l’une des villes les moins polluées du globe et la sécurité des personnes et des biens, véritable obsession du gouvernement, constituent des attraits indéniables.

La cité-jardin brille aussi avec son port classé au deuxième rang mondial, sa place financière juste au pied du podium, ses chantiers navals performants et le dynamisme de son industrie électronique. Singapour a aussi une face sombre : une population sous vidéosurveillance quasi totale, une presse contrôlée, des libertés sociales réduites à la portion congrue…

Au sommaire du magazine « Un Œil sur la planète »

Le paradis du business ?

Singapour attire les investisseurs du monde entier, et notamment les Français. Plus de 700 entreprises françaises et 15 000 compatriotes ont choisi de s’installer dans la ville-Etat, qui est devenue notre troisième partenaire commercial en Asie, derrière la Chine et le Japon. Un reportage de Jenny Briffa et Vincent Reynaud.

Le laboratoire du futur ?

Pour pallier le manque d’espace, Singapour expérimente les idées les plus originales : HLM géants devenus de véritables villes, fermes verticales pour cultiver sur une surface réduite, terrains gagnés sur la mer ou dans le sous-sol, c’est la ville où demain se fabrique. Un reportage de Stéphane Nicolopoulos et Beng Seng.

Etat protecteur ou Big Brother ?

Singapour est, pour beaucoup, la ville la plus sûre du monde. Des milliers de caméras traquent la moindre incivilité, qui peut coûter cher aux contrevenants dont les visages sont affichés sur internet. Plus de 40% des interpellations sont réalisées avec le concours des citoyens. Un reportage de Negar Zoka et Olivier Raffet.

 


ALTERNATIVE PLAYER

Le jour où l’espace a cessé d’être un bien commun…

Par Calimaq

Source : http://scinfolex.com

Plusieurs sites de presse comme Rue89 ou Slate se sont faits aujourd’hui l’écho d’une nouvelle que j’ai trouvée particulièrement glaçante : Barack Obama a promulgué la semaine dernière une loi (HR 2262) qui va autoriser des compagnies privées à s’approprier les ressources naturelles figurant dans l’espace extra-atmosphérique.

La portée de ce texte est potentiellement énorme et peut-être que dans un siècle, on citera encore la date de son adoption comme un des événements majeurs de l’histoire de l’Humanité. Car on peut considérer ce 25 novembre 2015 comme le jour où l’espace cessa d’être un bien commun, par l’effet d’une décision unilatérale des Etats-Unis d’Amérique.

rocky_ring_of_debris_around_vega

Image par NASA/JPL-Caltech. Domaine Public. Source : Wikimedia Commons

L’espace comme bien commun

En effet jusqu’à présent, le droit international tendait à faire de l’espace extra-atmosphérique une « res communis » (chose commune) au sens où l’entendait déjà les romains, c’est-à-dire une ressource ne pouvant faire l’objet d’une appropriation à titre exclusif par personne, mais librement utilisable par tous. Un traité de l’espace adopté en 1967 suite à une résolution des Nations Unies fixait jusqu’alors le statut juridique de cette ressource à partir de ces deux traits caractérisant les biens communs.

Le texte commence par consacrer dans son premier article un droit d’usage ouvert à tous sur les ressources que constituent l’espace extra-atmosphérique et les corps s’y trouvant :

Art. I

L’exploration et l’utilisation de l’espace extra-atmosphérique, y compris la lune et les autres corps célestes, doivent se faire pour le bien et dans l’intérêt de tous les pays, quel que soit le stade de leur développement économique ou scientifique ; elles sont l’apanage de l’humanité tout entière.

L’espace extra-atmosphérique, y compris la lune et les autres corps célestes, peut être exploré et utilisé librement par tous les États sans aucune discrimination, dans des conditions d’égalité et conformément au droit international, toutes les régions des corps célestes devant être librement accessibles.

Les recherches scientifiques sont libres dans l’espace extra-atmosphérique, y compris la lune et les autres corps célestes, et les États doivent faciliter et encourager la coopération internationale dans ces recherches.

Le traité se poursuit en proclamant que l’espace et les corps célestes doivent rester inappropriables :

Art. II

L’espace extra-atmosphérique, y compris la lune et les autres corps célestes, ne peut faire l’objet d’appropriation nationale par proclamation de souveraineté, ni par voie d’utilisation ou d’occupation, ni par aucun autre moyen.

Vers un droit d’appropriation privée

La loi promulguée la semaine dernière par Barack Obama, dénommé Competitiveness Act, introduit une faille dans cette « sanctuarisation » juridique de l’espace, en prévoyant une possibilité d’appropriation à titre exclusif des ressources s’y trouvant par les citoyens américains souhaitant les exploiter commercialement. L’article pertinent de la loi dit précisément ceci :

A United States citizen engaged in commercial recovery of an asteroid resource or a space resource under this chapter shall be entitled to any asteroid resource or space resource obtained, including to possess, own, transport, use, and sell the asteroid resource or space resource obtained in accordance with applicable law, including the international obligations of the United States.

[Traduction] Un citoyen des Etats-Unis engagé dans la récupération à titre commercial d’une ressource se trouvant sur un astéroïde ou dans l’espace aura droit à toute ressource obtenue, incluant le droit de détenir, de posséder, de transporter, d’utiliser et de vendre la ressource obtenue conformément à la législation applicable, y compris les obligations internationales des Etats-Unis.

Cela signifie que cette loi crée au bénéfice des citoyens US (mais surtout des sociétés commerciales américaines) un droit de prélèvement des ressources situées dans l’espace débouchant, lorsque ce prélèvement est effectué dans le cadre d’une entreprise commerciale, sur un droit de propriété complet (usus, fructus et absus comme disent les juristes).

pic187633

Cette loi américaine transforme l’espace en un jeu de Monopoly géant…

Des Res Communes aux Res Nullius

A première vue, ce droit exclusif instituée par la loi américaine paraît incompatible avec les engagements internationaux auxquels les Etats-Unis ont souscrit et notamment le Traité de l’espace de 1967 cité ci-dessus. Mais le texte adopté la semaine dernière introduit une nuance subtile qui risque de peser lourd :

DISCLAIMER OF EXTRATERRITORIAL SOVEREIGNTY.

It is the sense of Congress that by the enactment of this Act, the United States does not thereby assert sovereignty or sovereign or exclusive rights or jurisdiction over, or the ownership of, any celestial body.

[Traduction] EXCLUSION DE SOUVERAINETE EXTRATERRITORIALE

Le Congrès déclare que par le biais de cette loi, Les Etats-Unis ne revendiquent pas de souveraineté, de droits souverains, de droits exclusifs, de droits de juridiction ou de droit de propriété sur aucun corps céleste.

Le traité de 1967 interdit en effet « l’appropriation nationale par proclamation de souveraineté« , ce qui renvoie au fait pour un Etat de revendiquer une portion de l’espace ou des corps y figurant comme une partie de son territoire. Mais ici la loi américaine fait une chose différente : l’Etat ne se saisit pas lui-même de la propriété sur les ressources de l’espace, mais il délègue à ses citoyens un titre juridique pour en faire leur propriété privée, qui sera ensuite reconnue et garantie par l’Etat. La nuance est certes mince, mais elle est importante.

Planter un drapeau américain sur un astéroïde n’en fera pas un territoire américain, mais les entreprises qui s’y rendront pourront s’approprier les ressources qu’elles trouveront (Image NASA. Domaine Public. Source : Wikimedia Commons).

D’une certaine manière, les Etats-Unis ont pris l’initiative de transformer le statut des ressources de l’espace extra-atmosphérique, en les faisant passer de celui de res communes à res nullius : des « choses sans maître » n’appartenant à personne, mais dont le premier à s’en saisir peut se proclamer légitimement le propriétaire. Les ressources de l’espace appartenaient à tous ; elles n’appartiennent aujourd’hui à personne… du moins jusqu’à ce qu’un américain s’en empare !

Colonisation et enclosures

Il n’est à vrai dire pas très surprenant que la nation de la Conquête de l’Ouest et de la Nouvelle Frontière ait procédé de cette manière. Le statut de Res Nullius est celui qui fut attribué par exemple aux bisons des grandes plaines, ce qui conduisit à leur massacre systématique par les colons jusqu’à leur quasi-extinction au 19ème siècle.

1280px-bison_skull_pile_edit

Une pile de crânes de bisons dans les années 1870. Domaine public. Source : Wikimedia Commons.

Plus loin encore en arrière dans l’histoire, c’est aussi le statut de Res Nullius que les terres américaines se virent attribuées pour permettre aux premiers explorateurs, tel Christophe Colomb, de s’en saisir au nom des puissances souveraines d’Europe.

L’indienne Vandana Shiva explique d’ailleurs dans un texte très fort paru en 2004 dans la revue Ecorev’ comment dès l’origine, la colonisation a constitué une forme d’enclosure des Communs ayant conduit à leur destruction dans les pays du Sud :

Les chartes et patentes accordées aux aventuriers marchands étaient des autorisations pour « découvrir, trouver, rechercher et inspecter de telles terres païennes et barbares encore non possédées par des peuples ou des rois chrétiens » […]

Le traité sur la propriété de Locke légitime ce même processus de vol durant le mouvement des enclosures en Europe. Locke articule clairement la liberté du capital à cette liberté de voler ; il affirme que la propriété est créée par l’arrachement des ressources à la nature et leur association au travail, sous la forme intellectuelle qui se manifeste dans le contrôle capitaliste. […]

La construction coloniale d’une terre passive et sa définition conséquente comme « terra nullius » avait deux objectifs : dénier l’existence et l’antériorité des droits des habitants originels et nier la capacité régénérative et les processus de la vie.

1920px-landing_of_columbus_28229

Christophe Colomb prenant possession du Nouveau Monde au nom de la Reine d’Espagne. Domaine public. Source : Wikimedia Commons.

Le parallèle avec la création par cette loi américaine d’une possibilité d’appropriation des ressources de l’espace par des sociétés commerciales est saisissant.

Rue89 et Slate rapportent que l’adoption de ce texte a été largement saluée par des sociétés minières désireuses de se lancer dans l’exploitation minière des astéroïdes. Le dirigeant de l’une d’entre elles, dénommée Planetary Ressources, a ainsi déclaré :

C’est la plus grande reconnaissance unitaire de droits de propriété de l’histoire. Ce projet de loi établit le même cadre légal qui a créé les grandes économies de l’histoire, et encourage le développement durable de l’espace.

Cet individu a sans doute raison de relever l’importance historique de cette évolution, car peut-être cette loi marque-t-elle le point de départ d’un nouveau « mouvement des enclosures » à l’image de celui qui a démantelé les terres communes en Angleterre du 12ème au 18ème siècle. La loi promulguée par Barack Obama la semaine dernière ressemble d’ailleurs beaucoup aux « Enclosures Acts » adoptés en masse par le Parlement anglais pour autoriser la privatisation des terres.

coverx

Un acte d’enclosure adopté par le Parlement anglais en 1796.

Mais là où ce dirigeant a tort, c’est lorsqu’il affirme que cette « nouvelle frontière » ouverte à l’extension des droits de propriété va « encourager le développement durable de l’espace« . On sait au contraire que l’idéologie qui a érigé le droit de propriété comme un principe absolu de gestion des ressources est en grande partie responsable de la situation environnementale dramatique à laquelle nous sommes confrontés.

La vraie « Tragédie des Communs » ne réside pas dans l’incapacité des hommes à gérer durablement des ressources naturelles en commun, comme pensait l’avoir démontré Garret Hardin. La tragédie consiste au contraire à avoir livré pendant des siècles  la régulation de ressources essentielles à des marchés aveugles, guidés par la seule logique de la maximisation des profits et de l’exploitation débridée des droits de propriété.

***

L’histoire retiendra peut-être qu’une semaine avant le début de la COP21, rassemblement de la dernière chance où les gouvernements du monde tentent de trouver des solutions à une crise environnementale largement provoquée par les errances de l’idéologie propriétaire, les Etats-Unis auront fait passer une loi pour projeter jusque dans l’espace cette logique délétère, alors que celui-ci aurait pu rester un bien commun de l’Humanité…

 [Mise à jour du 01/12/2015 : On me signale sur Facebook un parallèle intéressant avec une autre loi américaine : le Guano Islands Act de 1856, par lequel le Congrès a autorisé tout citoyen américain à prendre possession d’une île contenant un gisement de guano, où qu’elle soit située sur la planète, du moment qu’elle ne soit pas soumise à la juridiction d’un autre gouvernement :

N’importe quand que n’importe quel citoyen américain découvre un gisement de guano sur n’importe quelle île, rocher ou îlot, qui n’est pas sous la juridiction légale de n’importe quel autre gouvernement et pas occupé par des citoyens de n’importe quel autre gouvernement, et prend possession pacifiquement de celle-ci, et l’occupe de la même façon, cette île, rocher ou îlot peut, à la discrétion du président, être considérée comme appartenant aux États-Unis.

La différence avec la loi votée par Obama cette semaine à propos de l’espace est que les Etats-Unis en tant qu’Etat ne deviendront pas propriétaire, même à titre provisoire des corps célestes. Seuls les citoyens US pourront s’approprier les ressources qu’ils y trouveront.]

A propos calimaq

Ce blog est tenu par : Calimaq – aka Lionel Maurel Juriste & Bibliothécaire. Contact : calimaq at gmail point com

Le choc du présent selon Douglas Rushkoff

Par

03/06/2015

Source : http://echoradar.eu

Selon l’auteur de Present Shock : When Everything Happens Now, la surinformation chronique enferme les gouvernements et les sociétés dans une obsession du présent, assombrit leurs visions globales et dégrade leurs projections à long terme. Ce constat peut paraître évident mais Douglas Rushkoff, essayiste cyberpunk et théoricien des médias, dépeint audacieusement une évolution inquiétante et propose des solutions qui valent largement un doigté glissant sur Android/iOS…

douglas_rushkoff

Present Shock est un clin d’oeil au cultissime Future Shock écrit par le futurologue Alvin Toffler en 1970. L’ouvrage a tout l’air d’un blog couché sur papier et sa densité thématique n’est pas nécessairement prometteuse pour le rédacteur d’une synopsis. Mettons tout de même le pied à l’étrier…

Dans le sillage de ses homologues Nicholas Carr et Sherry Turkle, respectivement auteurs de The Shallows et de Alone Together, Rushkoff blâme la perfusion informationnelle qui confine les décideurs politiques et économiques à la gestion de crise permanente et à ses impératifs de communication instantanée, au détriment d’une vision globale, d’une articulation cohérente d’objectifs et donc de solutions à long terme. Noyée dans ce torrent d’informations réactualisées et amplifiées minute par minute, la société entière est en quête du « méta-moment ultime » et s’agite de facto dans un « présentisme » forcené.

Cas d’école en vrac : les révoltes arabes, l’affaire Snowden, la tragédie du vol MH17, l’épidémie du virus Ebola, les attentats de Charlie Hebdo, les sinistres succès de l’Etat Islamique…

Les technologies de l’information (Internet, smartphones, tablettes, télévision numérique, médias/réseaux sociaux) constituent le coupable idéal de cette détresse aussi addictive que contre-productive. Partageant son temps de cerveau disponible entre Youtube, Twitter, Facebook et la replay TV, le « médianaute » est de moins en moins influencé par des narrations paraboliques avec leurs débuts, milieux et fins, et se nourrit de plus en plus d’un mix d’informations et de récits échantillonnés et rééchantillonnés par ses soins.

Note de service : le lecteur, l’auditeur, le téléspectateur et l’internaute sont morts. Vive le médianaute !

D’une certaine façon, nous sommes nos propres « DJ Media » mais aussi nos propres trolls recherchant désespérement une partition audible… à l’instar des marques commerciales et des institutions politiques, les unes pataugeant dans la communication publicitaire et les autres dans la communication stratégique et l’influence; toutes confrontées à l’âpre concurrence des médias/réseaux sociaux. Rushkoff insiste : cette perfusion informationnelle ne fait qu’accroître l’entropie généralisée.

Le slogan « don’t believe the hype » (1) a littéralement acquis ces lettres de noblesse avec la prolifération des réseaux sociaux, des blogs et des pure players (Huffington Post, Slate, Medium, The Daily Beast, Politico, Mediapart, Rue89, Causeur, etc)… qui ne facilitent pas la tâche aux médias de masse – notamment la presse écrite – constamment tenus de déployer des trésors d’ingéniosité pour augmenter leurs abonnements/ventes et assurer leur survie.

Les technologies de l’information ont également consacré la dictature de la transparence : les marques commerciales doivent tout dire et tout révéler sur la réalité de leurs processus de fabrication. Toute firme prétendant jouer la carte écologique ou éthique (développement durable, énergies vertes, produits bio, normes du travail, commerce équitable, etc) doit être en mesure de le prouver à tout moment à la face du monde, et intégrer cette dimension dans son marketing. Tôt ou tard, un intrus ou un salarié filmera et diffusera les conditions de travail dans ses locaux en quelques clics. Craignant pour leur réputation, Apple a du en finir avec ses « esclaves » en Chine et Pepsi-Cola investir dans les usines à faible émission de carbone et de déchets.

present_shock_douglas_rushk

Les voraces consommations de contenus online et on air ont engendré de nouvelles formes de récits.

Oublions les monotones séries Star Trek, Dallas, Beverly Hills, Sex in The City, X-files et consort aux narrations un peu trop linéaires, paraboliques ou manichéennes. Désormais, le mal triomphe ou marque de gros points, le bien ne sait plus à quel saint se vouer et les vainqueurs se contentent d’un dangereux statu quo entre deux victoires à la Pyrrhus. Malheur à quiconque dormira sur ses maigres lauriers : « anyone can be killed » (2), avait froidement déclaré la petite Arya Stark à Lord Lannister.

Aujourd’hui, les narrations efficaces empruntent aux univers du fantasy et du jeu vidéo en ligne dans lesquels tout le monde est à la fois un héros et un vilain au coeur d’une bataille ou d’une quête perpétuelle. Les faramineux succès de The Wired, Game of Thrones, The Walking Dead, Mad Men et Breaking Bad – pour ne citer que ces séries TV – doivent énormément à leurs épiques narrations multiples sans cesse recommencées et reflètent à merveille les aspirations du médianaute et les évolutions des sociétés surinformées.

Le choc du présent affecte considérablement la conduite des mouvements politiques et sociaux alors noyés dans un environnement hautement défavorable. Les leaders d’opinion parviennent difficilement à cristalliser et à entraîner durablement les foules connectées vers un objectif clair et précis, pour peu qu’ils réussissent à le définir. La preuve par l’échec cuisant du mouvement Occupy Wall Street… qui aurait du prendre de la graine auprès du Tea Party ? Le premier recherchait un consensus révolutionnaire contre Wall Street (qui spécule à court terme avec ses traders algorithmiques plutôt qu’investir dans l’avenir) tandis que le second a lentement mais sûrement pesé sur l’échiquier politique américain et a provoqué la fermeture administrative du gouvernement fédéral pendant plusieurs semaines.

À l’ère de la surinformation chronique, Martin Luther King ne ferait qu’engranger des abonnés sur Twitter/Facebook plutôt que marcher avec les foules afro-américaines sur Washington, et le voyage sur la Lune selon JFK ne serait qu’un superbe blog plutôt qu’une aventure technologique d’une décennie.

Cette probabilité typique d’un esprit cyberpunk m’a soudainement fait réfléchir sur les actualités internationales.

Le cynisme ou le laxisme de Washington et de Bruxelles en matières de politique étrangère et de sécurité/défense est souvent invoqué par leurs fervents détracteurs. Qu’en est-il de la surinformation chronique et de la paralysie du présent face aux avancées du djihad au Moyen-orient et en Afrique, de la négociation d’un accord nucléaire avec l’Iran, de la redistribution des cartes stratégiques dans le monde arabe/musulman, de la guerre froide 2.0 contre une Russie résurgente et une Chine émergente et les interminables déboires de l’Euroland ?

Ces « nouilles de crises » produisent aléatoirement des à-coups qui soumettent les décideurs politiques au feu des critiques et au poids de l’émotion. Dans de telles conditions, la sensiblerie, la susceptibilité, la frustration, la maladresse, la colère, l’hyper-réactivité et la terreur ne laissent qu’une petite marge aux approches pondérées et aux visions globales. Ne surestimons pas les chancelleries quand Twitter et Youtube deviennent une arène politique et diplomatique…

En résumé, Alvin Toffler décrivait la désorientation croissante de nos sociétés dans un futur en accélération constante, Douglas Rushkoff décrit la paralysie progressive du futur dans nos sociétés surinformées.

Victimes directes du choc du présent, les citoyens exigent des résultats rapides de leurs élus et n’ont plus aucune idée de l’échelle de temps historique nécessaire à l’action économique, sociale ou stratégique, et aux fonctions régaliennes. Notre vision du temps se réduira-t-elle à celle d’une session de jeu vidéo ou d’un fil de discussion sur un réseau social ? Que faire contre cette dérive qui semble aussi généralisée qu’irréversible ?

L’essayiste cyberpunk suggère aux décideurs politiques, aux marketeurs et aux médias de s’intéresser de plus près aux usages courants dans les univers de la technologie, du jeu vidéo et du fantasy.

Lors de son lancement en « grande pompe », Healthcare.gov ou le site Web de l’Obamacare, accusa de nombreux bugs qui firent les choux gras du Tea Party et des médias. L’administration Obama aurait peut-être du s’inspirer des versions bêta d’applications ou de services en ligne qui sont améliorées par itérations successives, parfois annoncées dans des keynotes très attendues par les utilisateurs. Ainsi, l’Obamacare impliquerait ses souscripteurs dans son évolution permanente.

Dans la même veine, les grandes puissances devraient forger des stratégies de défense/sécurité, de communication et d’influence qui ne soient point assorties d’options pour des victoires finales et définitives a fortiori lorsqu’il s’agit de « franchises » terroristes et résilientes comme l’Etat islamique et Al-Qaïda. Toute initiative militaire contre un groupe terroriste serait considérée non pas comme une solution générique mais comme la « version d’essai » d’une solution parmi tant d’autres, à l’image de la combinaison d’infanterie légère kurde et d’aviation alliée qui fit mouche contre l’Etat islamique à Kobané.

Le réchauffement climatique, les virus mutants, le chômage, la pauvreté, la faim, la spéculation financière, l’insécurité urbaine, le trafic de drogue, le (cyber)crime organisé, les extrémismes politiques, les revendications / tensions identitaires et le terrorisme sont des risques endémiques et des menaces résilientes qui ne seront jamais annihilés une bonne fois pour toutes… et perdureront d’autant plus que la surinformation augmente l’entropie généralisée dans un cercle vicieux.

On ne peut planter de drapeau flottant sur leurs décombres et crier victoire mais on peut probablement « contenir le mal ou limiter la casse » avec des solutions à moyen/long terme qui soient à la fois novatrices, expérimentales, ouvertes et évolutives; et de surcroît « vendues et communiquées » comme telles dans la mesure du possible. Vaste programme.

Un malheur ne venant jamais seul, Douglas Rushkoff avoue une addiction aux technologies et un déficit récurrent d’attention qui a perturbé la rédaction de son ouvrage. Il en de même pour le blogueur qui a grandement apprécié l’approche novatrice et le style accrocheur de son choc du présent et doit immédiatement savoir pourquoi son smartphone a vibré trois fois en moins d’une minute…

(1) Ne croyez pas la publicité / la version officielle

(2) N’importe qui peut être tué

Electrosphère

Ni complotisme, ni conformisme

Par Romain MIELCAREK

12/06/2015

Source : http://www.guerres-influences.com

Depuis quelques mois, un certain nombre de travaux ont permis de mieux comprendre le phénomène du complotisme. Ou plutôt de comment Internet démultiplie les effets, la visibilité et surtout la viralité de thèses plus ou moins farfelues. Gérald Bronner explique très bien ces problématiques dans sa Démocratie des Crédules où il confronte un marché cognitif devenu totalement marchand (je te vend ce que tu veux acheter) et des biais intellectuels assez classiques (théorie des jeux par exemple).

Et il est effectivement catastrophique de voir comment une multitude de citoyens tombent dans la machine à désinformer. Il peut s’agir de se laisser tenter par des théories confuses qui, au prétexte d’une accumulation d’incompréhensions et de doutes, laissent entendre qu’il y a un mystère à résoudre (11 septembre: plus il y a de doutes, plus on peut imaginer qu’on nous ment). Ou, encore plus problématique, il peut s’agir de s’abreuver auprès d’un média clairement propagandiste et de le prendre pour une vérité alternative qu’on nous cacherait (CF Sputnik et autres FoxNews qui sélectionnent précautionneusement leurs informations pour vous donner une version parfaitement orientée du monde).

Le problème, c’est que cette chasse généralisée au complotisme, déclarée par une multitude de médias, risque de donner un crédit renouvelé à une autre déformation informationnelle et cognitive: le suivisme du pouvoir en place. Les structures de puissance (Etats, armées, institutions, entreprises…) ont en effet d’imposants moyens de communication qui ont tendance à largement dépasser les capacités des journalistes à déconstruire et vérifier leur discours. Les journalistes du Monde Diplomatique et les observateurs d’Acrimed tirent régulièrement la sonnette d’alarme en notant, notamment dans le cas des interventions militaires, comme la presse a tendance à valider un peu facilement le discours du pouvoir en place (L’Opinion, ça se travaille). Un exercice d’influence qui parvient bien souvent à convaincre une majorité de l’opinion publique lors des premiers mois des crises, comme le confirment régulièrement différents instituts de sondage.

C’est aussi l’inquiétude d’Oliver Boyd-Barrett, directeur de recherche en communication: « Les chercheurs en media studies, ainsi que les journalistes, sous-estiment trop souvent dans quelle mesure les médias d’actualité sont structurés de manière parfaitement favorables à des projets de propagande. » Dans un chapitre de l’ouvrage collectif Communicating War, il note que malgré une multitude de mensonges d’Etat et d’opérations de déception (false flag), les journalistes continuent d’avoir une trop lourde tendance à accorder le bénéfice du doute aux administrations: « Les médias mainstream semblent accorder une confiance déraisonnée aux institutions et aux sources officielles, comme si leur responsabilité en de telles circonstances, était d’assurer une forme de contrôle social. »

Boyd-Barrett donne plusieurs exemples, à travers l’histoire plus ou moins récente des Etats-Unis, de manipulations qui auraient pu alerter les observateurs lors de la préparation de l’invasion de l’Irak en 2003. Il prend surtout un exemple d’autant plus emblématique qu’il est l’objet de l’un des plus gros volumes de théories du complot: le 11 septembre. Alors que les débats et les enquêtes sur les attaques se poursuivaient, certaines questions étaient largement sous-médiatisées. Ainsi, de nombreux médias ont évoqué la question de l’erreur de coordination des services de renseignement, ou d’une lutte entre services concurrents ayant abouti à une erreur d’appréciation. Pourtant, un sujet soulevait des questions: le maintien au même moment de plusieurs exercices militaires (Northern Vigilance, Vigilant Guardian, Northern Guardian et un exercice mineur du National Reconnaissance Office), métant en péril la capacité à protéger le ciel américain, a été presque tabou dans la presse. Il ne s’agit surtout pas de supputer sur de possibles réponses, mais bien de ne s’interdire aucune question… et si l’on ne trouve pas de réponses satisfaisantes, cela ne veut pas dire qu’il y a un secret, mais simplement… qu’on n’a rien trouvé!

Il ne faut pas de partir du principe qu’un gouvernement ment par défaut (complotisme), mais il ne faut pas non plus de croire qu’un gouvernement est fondamentalement honnête (conformisme). Chaque acteur a, dans une crise, des intérêts à défendre et une stratégie d’influence à mettre en place pour atteindre ses objectifs. Notre travail de journaliste est bien de savoir relayer la parole de chacun tout en ayant à l’esprit quel peut être son agenda. Comment faire pour trouver le juste milieu et ne pas tomber dans l’un ou l’autre des deux travers décrits ici? C’est à la fois très simple et très compliqué: il faut une méthodologie carrée un professionnalisme sans failles.

– Une bonne connaissance des enjeux, qui passe par une veille et un apprentissage continus des problématiques liées à un secteur spécifique, qu’il soit géographique, thématique ou professionnel. On peut être un journaliste généraliste, mais chacun doit à son niveau bâtir sa propre capacité à déjouer les manipulations.

– Un réseau de sources opérationnel, indispensable à la vérification d’une information. Il ne s’agit pas tant d’assurer à 100% qu’elle est vraie (une manipulation est toujours possible) mais au moins qu’elle est plausible.

– Une bonne méthodologie de vérification des informations. Le journalisme, accompagné de connaissances de bases en sciences sociales, permets normalement de le faire. Attention pourtant aux sautes logiques dans un raisonnement et à la confusion entre ce que l’on sait et ce que l’on croit savoir.

– La modestie est indispensable pour admettre la limite de ses connaissances à un moment donné, voire de ses erreurs à posteriori. Certains journaux ont su le faire, comme le New York Times qui a étudié en détail les raisons de sa défaillance en 2003. D’autres, notamment en France, ont beaucoup de mal à le faire et ont une tendance régulière à l’amnésie.

– Ayons le courage d’affirmer nos lacunes, surtout lorsque l’on est un junior. Nous avons trop facilement tendance à vouloir répondre aux attentes de chefs qui, pris dans la machinerie de l’urgence et du stress, tombent eux-aussi dans des pièges. Céder à cette pression est un pas immense en direction de l’erreur.

Il convient de rappeler, encore une fois, que le contexte actuel des médias ne favorise pas une pratique sécurisée du métier de l’information. L’urgence des deadlines, la multiplication des sources et la difficulté croissante à vérifier certaines données, la montée en puissance des organes d’influence, ainsi que la fragilité du tissu des journalistes de terrains… autant de facteurs qui contribuent à laisser des boulevards grands ouverts pour ceux qui cherchent à faire passer des messages vers leurs cibles. Il appartient à chacun, dans cette profession, de s’armer pour pouvoir désamorcer au mieux toutes ces faiblesses.

Il est également important que chaque citoyen interroge ses propres pratiques. S’il n’est pas toujours facile de prendre le temps de recouper ses informations, comme on peut le faire dans les milieux où l’information est stratégique, une bonne hygiène informationnelle est assez facile à mettre en oeuvre. Certains médias ont fait plus ou moins leurs preuves. Le New York Times, Radio France Internationale, France 24 ou encore Le Monde, ont tous commis des erreurs à un moment ou à un autre. Mais sur la globalité, ces rédactions trainent beaucoup moins de casseroles qu’un Fox News ou un Sputnik. N’oublions jamais non plus qu’un éditorialiste n’informe pas, il argumente (à quelles fins?) et qu’une tribune n’est pas une enquête. Apprenons, enfin, à identifier les journalistes qui font un travail approfondi, sérieux, tendant vers l’objectivité. Pas parce qu’ils confirment nos propres convictions, mais justement parce qu’il nous propose les outils pour les affiner ou les confronter.

L’État plate-forme, vraie source de services publics innovants ou cache-misère ?

Par Sabine Blanc

09/02/2015

Source : http://www.lagazettedescommunes.com

La Direction interministérielle des systèmes d’information et de communication (DISIC) déploie une stratégie d’État plate-forme. Empruntée à l’éditeur américain Tim O’Reilly, très libéral et techno-enthousiaste, cette notion recouvre un dispositif technique qui traduit une reconfiguration de la façon dont l’Etat délivre des services publics.

Jacques Marzin a l’aspect sévère des hauts fonctionnaires, mais quand il parle, un enthousiasme de jeune recrue perce sa carapace austère. À une poignée d’années de la retraite, celui qui dirige la Direction interministérielle des systèmes d’information et de communication (DISIC) aurait pu gérer les affaires courantes en attendant de prendre la tangente. Il a préféré partir en beauté, du moins l’espère-t-il, pour mettre en place “l’État plate-forme”, un concept dont la philosophie puise chez les géants tant enviés du Web, les Amazon, Apple, etc.

L’État plate-forme doit permettre de capter la valeur dans l’écosystème actuel bouleversé par le numérique. La Disic en a emprunté l’idée à l’ouvrage d’Henri Verdier et Nicolas Colin, L’âge de la multitude. Le premier est le directeur d’Etalab, la mission de l’Etat en charge de l’ouverture des données publiques, et récent administrateur général des données. Il a plutôt l’oreille de Thierry Mandon, le secrétaire d’État en charge de la Simplification et de la Réforme de l’État, très porté sur le numérique.

Le second, ancien inspecteur des finances, co-auteur du fameux rapport Collin Colin sur la fiscalité des données, s’occupe désormais de The Family, un accélérateur de start-ups.

Leur ouvrage se réfère directement à un texte de Tim O’Reilly, un éditeur américain spécialisé dans l’informatique influent dans le petit monde du numérique : “Open governement, Government as a platform”.

Dans l’ouvrage de Verdier et Colin, cette thématique est l’objet de la partie “Vers un Etat plate-forme ?” du dernier chapitre “La politique du nouveau monde industriel”.

Capter la valeur de la “multitude”

Leur thèse est que la puissance – et donc la richesse, dans tous les sens du terme – d’un acteur tient à sa capacité à capter la valeur de la “multitude”, autrement dit les internautes, via une interface ouverte – la fameuse plate-forme – qui leur permet techniquement d’y contribuer, dans un deal en théorie gagnant-gagnant.

Parmi les exemples cités :

  • l’iPhone d’Apple qui tire une grande partie de son succès des applications développées par des acteurs externes, qui peuvent les soumettre à la plate-forme iOS.
  • Wikipedia, l’encyclopédie à la richesse sans précédent car il est très facile d’y déposer son savoir, etc.

L’API, pour Application Programming Interface, en est le concept-clé : il s’agit de fournir aux acteurs extérieurs un moyen documenté d’utiliser les services d’une application. Ces services permettent de lire et de modifier les données de l’application et suivent généralement des normes qui permettent de développer facilement ces interconnections.

Appliqué à un Etat, qu’est-ce que cela donne ? “Que se passerait-il si, au lieu de la voir comme un distributeur de canettes, nous imaginions l’administration comme le manager d’une place de marché ?”, résume Tim O’Reilly, repris par Colin et Verdier. A elle de s’organiser pour devenir un bazar “dynamique”, en référence au célèbre texte de l’Américain libertarien Eric S. Raymond, père du logiciel open source, “La cathédrale et le bazar”.

Les deux auteurs n’ignorent pas la spécificité de l’administration “qui exerce la plupart de ses missions en situation de monopole. Il est impossible pour les citoyens d’échapper à tout contact avec l’administration.”

S’il sera “difficile, pour l’administration, d’atteindre le niveau d’excellence des services proposés par l’économie numérique”, estiment-ils, “cet objectif est pour elle un devoir.” Et la meilleure façon selon eux d’y parvenir est donc de se penser comme une plate-forme suscitant la créativité des innovateurs.

Colin et Verdier rêvent tout haut dans leur livre :

Nous verrons alors s’inventer sous nos yeux des services publics sans administration, auto-organisés par des communautés de citoyens prenant leur part de leur opération par leurs contributions et leurs interactions.

abeille

“Fournisseurs de service contextualisés”

Voilà pour la vision, l’utopie, portée politiquement par Henri Verdier et Thierry Mandon. Au discret Jacques Marzin et celui qu’il présente comme le futur CTO (Chief Technology Officer) de l’Etat, Guillaume Blot, d’en assurer la mise en œuvre technique, selon une répartition des rôles naturellement trouvée.

Ils ont donc engagé la mise en place de cette “architecture ouverte” grâce à laquelle des « fournisseurs de service contextualisés », acteurs de l’écosystème, peuvent appeler des données des systèmes d’informations des acteurs publics via des API. Ces “fournisseurs de service contextualisés” utiliseront ces services de premier niveau pour, en fonction des utilisations pressenties, produire des services de second niveau à destination du public : entreprises, collectivités territoriales et grand public.

La suite est encore un peu floue : “Nous sommes dans une proposition d’architecture très high level (sic) et nous descendrons progressivement sur l’opérationnel, indique Jacques Marzin. Il y aura plusieurs fournisseurs d’API contextualisées, certains sont déjà connus, on ne sait pas comment on va les fédérer, dans le cadre de quelle démarche industrielle. Il y aura une partie État, une partie collectivités territoriales, autour notamment des grandes structures mutualisées existantes, dans le privé, mais on s’interdit d’avoir une idée a priori d’affectation.”

Ces fournisseurs de services contextualisés constitueront une sorte de tampon de sécurité, à deux titres : “leur but est d’éviter que les administrations centrales ou les autres grands pourvoyeurs de données gèrent la relation avec les milliers de fournisseurs potentiels de services publics numériques, notamment dans les écosystèmes avec les collectivités territoriales ou d’autres prestataires privés, détaille Guillaume Blot. L’aspect confidentialité motive aussi cette option : “Les fournisseurs de services contextualisés donneront uniquement les informations que le fournisseur de service a le droit de savoir.”

API de modernité

La tâche des prochains mois consiste donc à habiller d’API les SI de l’État, une enveloppe de modernité pour les adapter aux canons actuels de l’écosystème numérique.

Une autre tâche consiste à “allumer” l’écosystème : une API n’a de valeur que si l’on s’en empare. “Pour montrer que cela peut marcher, le SGMAP a imaginé ex nihilo des fournisseurs de services contextualisés pour des premières expériences en mode start-up comme Marchés publics simplifiés. Derrière se cache en fait la fabrication ‘d’API entreprise’. Ces places de marché, pour aller vérifier la situation fiscale, sociale ou juridique de l’entreprise ne demanderont pas en direct à la DGFIP, à l’ACOSS ou à Infogreffe mais passeront par ‘API entreprise’”, poursuit Guillaume Blot.

Interrogé sur le délai de mise en branle de cet écosystème, Guillaume Blot répond : “C’est une échéance à plusieurs années”, aussitôt coupé par Jacques Marzin :

Je ne partage pas ton point de vue, il faut trouver la pépite qui suscite un tel retour positif des citoyens et des entreprises que tout le monde est embarqué dedans. Va-t-on faire quelque chose autour de la rentrée scolaire  2016-2017 ? Nous cherchons avec les collectivités territoriales ce genre de sujet qui dépasse nos marronniers habituels, ACTES, COMEDEC, HELIOS (1)…, dont se moquent éperdument le citoyen et l’entreprise.

Agenda néo-libéral

Cette stratégie s’inscrit bien sûr dans une contexte budgétaire restreint. À l’heure où l’Etat s’interroge sur ses missions régaliennes, l’État plate-forme sera-t-il une façon douce de réduire la voilure sur les services publics, en en déléguant d’emblée une partie de la création de la version numérique à des acteurs extérieurs, et en n’assurant que le strict minimum au niveau de l’État ?

Le texte originel de Tim O’Reilly s’inscrit en effet dans une vision de l’État très libérale. L’auteur déplore que “l’action collective signifie maintenant plainte collective.” Il invite les citoyens à se prendre en main (“Everyone has something to offer), en donnant en exemple des Hawaïens qui ont réparé eux-mêmes une route car la puissance publique tardait à dégager les fonds pour le faire, menaçant leur moyen de subsistance.

Tim O’Reilly souscrit à la philosophie de l’open gov (et sa sous branche open data) qui, sous ses aspects consensuels – qui est contre la transparence et la participation citoyenne ? – a pu se traduire par un agenda néo-libéral d’où le public ne ressort par plus efficace pour moins de dépenses, mais simplement diminué par report sur le privé.

Parier en partie sur un écosystème privé pour développer des services non pas publics mais au public, c’est prendre le risque de fracture, entre ceux qui susciteront l’attention de “la multitude” et les autres. Sauf à ce que l’Etat ne conserve que ceux des services publics qui n’intéressent pas cette multitude, laissant les autres (les plus rentables, ou rentabilisables) aux acteurs privés.

La puissance publique française retiendra-t-elle uniquement les aspects positifs de cette vision ? Colin et Verdier sont confiants : « Ces forces de l’économie de la contribution sont plus faciles à mobiliser lorsqu’on travaille au service de l’intérêt général”, sans étayer l’assertion. Ils soulignent aussi que la fourniture “des services publics s’appuie déjà sur de nombreux intermédiaires privés”, mais sans évoquer les cas où c’est un échec : rail, autoroutes, prisons

Si la Disic indique rester maître de tous les services d’ordre régalien, encore faut-il que la notion de service régalien reste immuable.

“Pourquoi dire systématiquement que l’on va être autonome en interne ?”

Aujourd’hui, le choix, clairement assumé, est de concentrer l’action de l’Etat sur la création des API. Interrogé sur l’absence de recrutement de designer d’application, Jacques Marzin répond, un peu agacé :

Si on avait les postes et le flux de recrutement permettant de le faire, on n’hésiterait pas, mais ce n’est pas le cas. Les gens qui savent designer des app Android et iOS, je ne peux pas en recruter. Pourquoi dire systématiquement que l’on va être autonome en interne sur cette partie ? Je préférerais avoir des gens capables de produire de l’API à très haut niveau plutôt que de l’interface de très haut niveau, car on ne sous-traitera certainement pas la sécurité des données du citoyen à l’intérieur des blockhaus numériques de l’administration. Beaucoup d’organisations de haut niveau comme les nôtres ont tendance à ne pas importer les très bons créatifs, car ils ne sont pas intéressés par le statut de fonctionnaires.

De toute façon, selon lui, ce choix est justifié : “Prenons France connect (un système d’authentification unique pour les citoyens et les administrations, en cours de développement, NDLR). Les 36600 communes en France s’appuient sur des logiciels marchands. Elles vont demander à leurs fournisseurs d’ajouter le bouton France Connect dans leur solution logicielle, ce qui est plus simple pour nous. Quand ces entreprises le déploieront – c’est leur choix car c’est leur business -, cela donnera accès aux API et leur permettra donc de proposer des services aux collectivités.”

Service public centré sur l’usager

Moins lyrique que ses inspirateurs, Jacques Marzin y voit plutôt une façon de passer d’un service public centré sur l’administration à un service public centré sur l’usager : “cette architecture vise à rendre le design des services publics possibles quels que soient les choix effectués. Aujourd’hui, les choix sont calés sur l’organisation administrative. On ne peut pas la modifier, car les SI sont calés dessus. Avec une architecture de plate-forme, on se fiche de savoir d’où viennent les données, c’est service public as a platform (2) : éducation as a platform par exemple, mélangeant l’Education nationale, les grandes écoles de commerce, et le privé subventionné ou non, pourquoi pas. L’administration restera complexe, son organisation n’est pas immuable, il faut qu’elle soit évolutive sans casser le service rendu, et il faut masquer cette complexité au citoyen qui n’en a rien à faire.”

L’âge de la multitude ou âge de la prédation ?

Paru en 2012, L’âge de la multitude avait reçu un bon accueil critique, à l’exception d’une critique au cordeau de Dominique Boullier, publié sur InternetActu sous le titre éloquent de “l’âge de la prédation”. Virulent, ce compte-rendu soulevait néanmoins plusieurs points pertinents : la fascination pour l’innovation comme fin en soi, sans considération de ses coûts sociaux, moraux ; la mise sur un pied d’égalité d’organisations qui n’ont, politiquement ou socialement pas du tout le même projet : quel point commun entre un Facebook et un Wikipedia ?

Epuisé, l’ouvrage va être réédité.

Les Banksters: Voyage chez mes amis capitalistes

Les Banksters

Biographie, Document, Essai

Les Banksters: Voyage chez mes amis capitalistes

  • Auteur : Marc Roche
  • Editeur : Albin Michel
  • Édition : 27 Août 2014
  • Longueur : 240 Pages
  • ISBN : 2226248587
  • EAN : 978-2226248589

 

Résumé :

Je suis un libéral qui a toujours admiré le monde financier et ses opérateurs. Je n’aurais pas, sinon, choisi de couvrir pour Le Monde depuis 25 ans l’univers de Wall Street et de la City.
Mais depuis la crise, je suis un libéral qui doute, un déçu du capitalisme, un angoissé de l’avenir. J’ai cherché à comprendre les racines profondes de cette transformation personnelle.
Ce carnet de route sans complaisance est à la fois un voyage intérieur et une enquête sur un monde très fermé, celui des Banksters, dominé par l’opacité et… l’impunité.
Car tout a changé le 15 septembre 2008.

Ce livre est, avant tout, un coming-out : celui d un prosélyte du capitalisme en pleine crise de foi.

Installé au coeur de la City, dont il connaît parfaitement les rouages depuis 25 ans, Marc Roche n’en a pas moins, à l’instar de tous les autres « spécialistes », sous-estimé les tensions du système. Comment tant de signaux d’alarme ont-ils pu à ce point passer inaperçus ? La raison est simple : c’est que les « maîtres du monde » hedge funds, traders, politiques, banquiers et gestionnaires ont tout fait pour minimiser leur responsabilité. Pourtant, c’est leur prise de risques inconsidérés qui a provoqué la plus grande crise économique depuis 1929.

En identifiant les principaux acteurs et leurs motivations, les faits marquants, les choix et surtout les erreurs commises, Marc Roche met des visages sur les évènements et les moments décisifs. Il nous raconte aussi l’instabilité croissante qui domine les marchés et décrypte le casino qu’est devenue la planète financière. Un casino où les joueurs peuvent faire sauter la banque à tout moment !

Document très renseigné sur les ficelles du capitalisme, ce témoignage très personnel est là pour rappeler que, contrairement aux apparences, rien ou presque n’a changé depuis le krach de 2008.

Biographie de l’auteur
Après avoir couvert Wall Street, Marc Roche est aujourd’hui correspondant du Monde à Londres. Il est l’auteur de plusieurs ouvrages remarqués, parus chez Albin Michel, dont Le capitalisme hors la loi (2011) et l enquête sur Goldman Sachs, La Banque (2010).

CONNEX :

DL : EPUB

Guerre de l’ombre au Sahara

Documentaire de Bob Coen et Éric Nadler

2015

Source : http://info.arte.tv

 

La guerre pour contrôler les ressources du XXIe siècle a déjà commencé. Et l’Afrique, comme à l’accoutumée, est aux premières loges. Depuis des décennies, la France n’est plus la seule à avoir des vues sur le continent. Dès les années 1960, la découverte d’immenses gisements de pétrole dans le golfe de Guinée attire un nouvel acteur aux besoins inextinguibles, les États-Unis. Peu à peu, la première puissance mondiale s’implante en Afrique. Le 11 septembre 2001 marque un tournant. Pris de vitesse par la Chine sur le continent, Washington met un pied au Sahara dans le cadre officiel de sa « lutte contre le terrorisme ». En 2007, l’administration Bush renforce son instrument politico-militaire, à travers Africom, visant notamment à quadriller la région. Mais derrière ce combat se cachent d’autres batailles : la zone saharienne contient les plus grandes réserves pétrolières d’Afrique, mais aussi de l’uranium, du fer, de l’or… Parallèlement, la France renforce sa présence militaire sur le continent.

Une militarisation croissante de l’Afrique

Passionnant, ce documentaire inscrit les dernières opérations militaires dirigées par les États-Unis et la France dans ce contexte de contrôle des ressources africaines : la Libye est un producteur majeur de pétrole, le Mali abrite d’importantes quantités d’uranium, alors que le Centrafrique occupe une place stratégique dans la région. Les réalisateurs Bob Coen et Éric Nadler donnent la parole à de nombreux intervenants pour montrer comment les grandes puissances industrielles se positionnent. Cent trente ans après la conférence de Berlin, qui vit les pays occidentaux se partager le « gâteau » africain, l’histoire se répète, invariablement.

  Coproduction : ARTE France, Crescendo Films (France, 2013, 54 mn)

CONNEX :

ALTERNATIVE PLAYER STREAM

Cols blancs, mains sales et casier vierge

Par Jean Bérard

23/01/2015

Source : http://www.laviedesidees.fr

Comment les élites parviennent-elles à commettre des délits sans être considérées et sans se considérer comme délinquantes ? Dans un ouvrage de synthèse, P. Lascoumes et C. Nagels montrent les moyens que les puissants mettent en œuvre pour définir, utiliser, contourner ou éviter la loi pénale selon leur intérêt.

Un parti politique doit élire son président. Depuis des années, ses dirigeants répètent que la lutte contre la délinquance est une priorité. Lorsqu’ils sont au pouvoir, ils votent de nombreuses lois pour rendre la répression plus sévère et systématique. Les prisons se remplissent. Lorsqu’ils n’y sont pas et que des orientations (un peu) différentes sont prises, ils crient au laxisme. Or, parmi les candidats à la présidence, se trouve une personnalité qui fait l’objet d’un grand nombre d’enquêtes, y compris au sujet du financement de sa dernière campagne électorale, au point que des commentateurs – et lui-même – expliquent que ces affaires sont une des motivations de sa candidature ! A-t-il la moindre chance ? En fait, non seulement il l’emporte largement mais sa victoire n’a jamais fait aucun doute. Comment expliquer cette « situation sociologiquement énigmatique » (p. 8) ? Les électeurs de ce parti considèrent-ils que les soupçons qui pèsent sur leur favori et ceux qui concernent d’autres auteurs de délits n’ont rien à voir ? Quelle est la différence entre eux ? Serait-ce simplement la classe sociale des personnes soupçonnées ?

De nombreux travaux de sciences sociales ont réfléchi à la question de la « gestion différentielle des illégalismes », pour le dire dans les termes de Foucault. La sociologie de la déviance a montré pourquoi les infractions des classes populaires sont celles dont les auteurs finissent le plus souvent en prison. Elle analyse l’organisation de la justice pénale en « sous-systèmes distincts dont chacun ne s’adresse finalement qu’à certaines classes sociales au travers du cumul de classements dont l’autonomie n’est qu’apparente » [1] : du travail de la police à celui des juges, les étapes de la chaîne pénale orientent, de différentes manières selon les périodes mais avec une certaine stabilité dans les résultats, les infractions visibles commises dans l’espace public par les jeunes hommes des classes populaires vers des arrestations et des jugements rapides dans lesquels le casier judiciaire pèse lourdement.

Un enjeu politique et académique

La Sociologie des élites délinquantes que publient Carla Nagels et Pierre Lascoumes dresse un bilan des recherches qui se penchent sur l’autre versant de la question. Quelles infractions sont commises par les élites ? Comment sont-elles traitées, ou non, par l’ensemble des institutions répressives ? La notion d’élite n’est pas aisée à définir : des délits liés à la fiscalité, ou au droit des entreprises peuvent également être commis par des membres de classes moyennes ou des petits entrepreneurs. Ce qui est plus décisif est la relation du délit avec une fonction de direction, dans les sphères économiques ou politiques. Les auteurs définissent ainsi leur objet comme « les transgressions de normes spécifiques liées à l’exercice d’une fonction de responsabilité publique ou privée et commise à titre individuel ou collectif par une instance dirigeante » (p. 15). La parution de ce manuel en forme de manifeste est particulièrement bienvenue pour, au moins, deux raisons.

La première raison est politique : la multiplication des scandales et affaires liées aux pratiques financières des entreprises et des paradis fiscaux, à la corruption et au clientélisme des élus manifeste sans doute, dans un contexte de crise, l’action de militants, de journalistes et de juges pour remettre sur le devant de la scène la délinquance en col blanc. Le livre décrit d’ailleurs l’action de leurs prédécesseurs proches et lointains, comme Lincoln Steffens, journaliste muckracker qui a dénoncé la corruption aux États-Unis au début du XXe siècle ou Isidore Glard, magistrat qui se définissait comme le « corsaire malouin » de l’instruction des affaires financières dans l’entre-deux-guerres. Leurs continuateurs sont souvent associés aux scandales et aux controverses qu’ils ont provoqués. Pourtant, expliquent les auteurs, avec le recul, leur bilan est mince : les « multiples « affaires » et « scandales » ne sont jamais suivis « d’effets réels » (p. 7). Ils le sont d’autant moins que les scandales se concluent par des « lois de panique » qui, faute de se donner les moyens de comprendre les ressorts de ces pratiques, ratent leur cible. C’est l’analyse que font les auteurs de la réforme qui a suivi l’affaire Cahuzac. Mais c’est également le cas de la politique pénale de Robert Badinter, menée après l’alternance de 1981, qui, malgré « une priorité affichée pour la lutte contre la délinquance économique et financière, ne clarifia pas davantage ce pan de l’action publique » (p. 82). Au delà de l’indignation ponctuelle, les sciences sociales invitent à dépasser la « découverte » répétée des pratiques délinquantes des élites et à se pencher sur la manière habituelle dont celles-ci sont appréhendées par la justice mais aussi par les citoyens. Par exemple, pour revenir à notre premier exemple, une enquête menée aux États-Unis dans les années 1970 décrit la « réaction des électeurs à un candidat mis en cause pour corruption : « une grande partie de l’électorat maintient sa confiance au candidat qui incarne le mieux ses valeurs fondamentales, même s’il est accusé de corruption. L’affiliation partisane jour de façon forte, en particulier pour les républicains » (p. 249).

Il ne suffit pas de faire émerger une affaire pour faire disparaître ces forces politiques et sociales. L’histoire des élites délinquantes décrit le contraste entre des périodes dans lesquelles ces enjeux sont saisis par des mouvements médiatiques et militants, et d’autres dans lesquelles rien n’émerge publiquement de ces pratiques. Mais elle permet aussi de mesurer le caractère régulier et finalement impuissant de cette alternance de silences et de scandales et invite à chercher d’autres manières de comprendre ces pratiques délictueuses, pour cesser, selon la belle formule qui conclut l’ouvrage, de permettre « aux élites de jouer avec les règles qu’elles imposent aux autres » (p. 271).

Une seconde raison est liée à la structure du champ des recherches académiques sur ces questions. Des travaux sont menés dans le monde francophone depuis plusieurs décennies, dont témoignent notamment les écrits de Pierre Lascoumes, qui interroge depuis les années 1980 la « gestion discrète du droit des affaires » [2]. Mais des travaux plus nombreux sont menés dans le monde anglo-saxon, qui demeurent moins connus en France. La Sociologie des élites délinquantes est, pour cette raison, un formidable passeur vers un ensemble de recherches dont la méconnaissance nourrit l’idée erronée que ce champ de recherche est toujours balbutiant. Le livre montre comment un ensemble de travaux s’est constitué en prenant appui sur le travail d’E. Sutherland, père fondateur de la sociologie de la délinquance en col blanc et dont l’ouvrage fut, à sa sortie en 1949, censuré par son éditeur. « Son analyse [estiment les auteurs] demeure aujourd’hui valide dans toutes ses grandes lignes » (p. 135-137). Le livre offre un outil précieux pour que des recherches initiées aujourd’hui dans le contexte français – des pistes en ce sens sont esquissées dans la conclusion – s’appuient sur cet ensemble de résultats.

Criminalité économique et corruption

Le livre est structuré par deux champs de recherche qui correspondent à deux faces de la domination des élites : l’analyse de la délinquance économique des entreprises et l’analyse de la corruption. Ces parties suivent une progression comparable. Elles présentent les contributions les plus importantes en distinguant les approches qui se penchent sur la commission des infractions (qu’est-ce qui détermine le passage à l’acte ?) et celles qui analysent les conséquences sociales, pénales et politiques de ces infractions (quelle est la réaction sociale à ces actes ?).

Ces deux parties sont précédées de deux chapitres transversaux. Le premier, « Lignes de controverses autour de la définition de l’objet », a le défaut de la qualité d’un manuel : il présente de façon pédagogique des options théoriques qui opposent des chercheurs du champ. Il permet ainsi un utile repérage des positions en présence sans toujours convaincre qu’elles recouvrent des antagonismes théoriques féconds. Les auteurs finissent d’ailleurs parfois par expliquer que certaines controverses sont « largement factices » (p. 32). Le second chapitre est consacré aux « ambiguïtés de la réaction sociale ». Il ne nous semble pas évident qu’il traite réellement, selon le titre de la partie dans laquelle il s’inscrit, de « débats et controverses », car son intérêt est d’exposer clairement des lignes de force qui seront ensuite développées de manière plus spécifique dans les deux grandes parties thématiques.

Des délits sans délinquants

Il n’est pas possible de rendre compte de tous les aspects d’un ouvrage qui a justement pour objectif de rendre compte de travaux nombreux. Chacun y trouvera analyses, exemples et références selon son intérêt. Notre lecture suit une question intriguante [3] : comment des gens parviennent-ils à commettre des délits sans être considérés et sans se considérer comme des délinquants ?

Un ressort de l’invisibilité de la délinquance des élites est lié à l’histoire de la constitution des savoirs sur le crime. À la fin du XIXe siècle, Enrico Ferri, un des fondateurs de l’école de criminologie positiviste italienne, divise la société en considérant que tout en haut se trouve une classe « qui ne commet pas de crimes, organiquement honnête » alors que tout en bas se trouvent des personnes « réfractaires à tout sentiment d’honnêteté » (p. 34). L’étude de la criminalité a longuement « rationalisé ce déni », « en ignorant totalement les transgressions commises par les élites » (p. 33). Des justifications de la différence entre les catégories de crimes se sont appuyées sur une distinction entre les mala in se et les mala prohibita, entre des vrais crimes et des crimes crées par la loi. Une telle différence recouvre bien ce qui serait du ressort éternel de la délinquance – le vol des pauvres – et ce qui serait le fruit de la création de normes variables moins importantes et dont la transgression n’aurait pas la même gravité – le contournement des règles comptables et fiscales des riches.

Cela étant, la délinquance des élites n’est pas seulement moins visible parce que les chercheurs ne veulent pas la voir. La difficulté de la recherche est aussi liée aux propriétés sociales de ses auteurs. Si « la majorité des recherches en sciences sociales est menée sur des acteurs dominés » (p. 121), c’est aussi parce qu’il est moins aisé d’accéder au bureau d’un directeur qu’à un jeune pris en charge par des institutions sociales. Travailler sur des acteurs dominants est d’autant plus difficile s’il s’agit d’enquêter sur leurs pratiques les moins avouables. Et si, comme on va le voir, une caractéristique majeure de ces transgressions est de finir rarement devant un tribunal, les sources officielles, comme les statistiques judiciaires, sont aussi de peu d’aide pour prendre la mesure du phénomène. Il arrive ainsi fréquemment que des affaires conservent leur part de mystère, notamment sur la destination de l’argent détourné, malgré des scandales et des poursuites.

Pour autant, les connaissances existent, construites par les chercheurs mais aussi par les lanceurs d’alerte qui rendent publics des documents secrets, sur lesquelles le livre s’appuie pour démonter le mythe de la classe « organiquement honnête ». Des études montrent par exemple que « les personnes qui approuvent le plus les moyens illégitimes de s’enrichir (frauder le fisc, cumuler des emplois, employer du personnel au noir, et utiliser des combines) sont surtout les jeunes (18-24 ans), les personne de qualification supérieure (bac et +), les chefs d’entreprise et les professions libérales » (p. 32). La question est dès lors de comprendre pourquoi ces moyens illégitimes sont si peu poursuivis. L’analyse de la réaction sociale à la délinquance économique permet de reconstituer la manière dont celle-ci fait l’objet d’un traitement spécifique à chaque étape de la procédure qui mène de la commission d’une infraction à sa condamnation. On peut les décrire en reprenant trois résultats de la recherche pionnière de Sutherland.

D’abord, expliquait Sutherland, les pratiques transgressives des entreprises reposent sur des mécanismes discrets : manipulation comptable, rapports d’activité mensongers, accords clandestins, dissimulation d’expertises et dangerosité de produits. Un ressort de cette invisibilité est l’absence de contact direct entre les auteurs et ceux qui en sont, en dernière instance, les victimes. Contrairement aux atteintes physiques aux personnes et aux biens, « peu d’enquêtés se définissent comme victimes de fraude économiques ou de clientélisme » (p. 57). Or, expliquent les auteurs, « les recherches sur le système pénal nous apprennent que celui-ci est majoritairement alimenté par les victimes » (p. 56). Plus encore, la distance entre les infractions et les victimes nourrit une « situation de déni collectif » : non dénoncée, les transgressions des cols blancs sont peu poursuivies et n’apparaissent pas comme une priorité pour les citoyens. Entre l’idéologie de la classe « organiquement honnête » et la rareté des poursuites se construit « un apprentissage social, voire une inculcation idéologique qui a fait, depuis au moins deux siècles, échapper à la réprobation sociale un vaste ensemble de comportements objectivement transgressifs mais cognitivement ignorés » (p. 63).

Un second résultat dégagé par Sutherland est que les agences publiques communiquent très peu sur les transgressions de ce type qu’elles ont constatées et qu’elles sont censées sanctionner. Là encore, le livre montre la fécondité d’une telle idée pour l’analyse des illégalismes des élites. Un point fondamental est que ces « agences publiques » sont la plupart du temps distinctes de l’agence publique normale de traitement des infractions qu’est la justice pénale. Des organismes spécialisés, comme feu la Commission des opérations de bourse, devenue Autorité des marchés financiers, forment un filtre puissant en amont de la police et de la justice. Ils déterminent en particulier les cas qui se règlent dans la discrétion et ceux qui doivent parvenir jusqu’à la sphère pénale. Or, ce pouvoir de classement est dévolu à des organismes dans lesquels « les régulés font partie des instances de régulation » (p. 70). Pour cette raison, ils conçoivent leur action bien davantage dans une optique disciplinaire (avertir, expliquer, négocier) que de sanction. Le recours au pénal est lourd d’incertitudes mais aussi de coûts : par exemple, les instances de contrôle peuvent mettre en balance la répression d’une irrégularité et la préservation des emplois dans l’entreprise concernée. Un enjeu central dans le traitement de la délinquance des élites repose sur la levée des verrous constitués par les organismes intermédiaires. L’absence d’une telle levée est ce qui explique que les auteurs jugent sévèrement la loi qui a suivi l’affaire Cahuzac : malgré des demandes pressantes en ce sens, la réforme n’a pas mis fin au monopole du ministère des Finances en matière de saisie de la justice pénale concernant des infractions fiscales.

L’étude de la réaction sociale en matière fiscale illustre les conséquences d’un tel fonctionnement. D’abord, la « voie pénale est l’exception et la règle est l’arrangement par transaction » (p. 75). Ensuite, l’action répressive reproduit des inégalités : « les contribuables aux revenus les plus élevés ou à la situation fiscale complexe sont moins contrôlés que les autres » (p. 76). Les petits entrepreneurs du bâtiment sont des cibles fréquentes. À l’inverse, « plus les mis en cause exercent des responsabilités importantes dans l’entreprise, plus ils échappent aux poursuites pénales » (p. 202). Les acteurs économiques mis en cause par la justice sont « les moins puissants » (p. 185). In fine, « les contentieux financiers et fiscaux ne constituent qu’une partie minime du travail de la justice » (p. 101).

Pour ces raisons, les élites font rarement l’objet de condamnations pénales, ce qui manifeste « autant une difficulté des agences de contrôle à leur apposer des stigmates qu’une capacité des acteurs à y échapper » (p. 186). Lorsque les élites font tout de même l’objet de poursuites, elles ne se laissent pas démonter : « les recherches menées auprès de personnes condamnées pour des faits de délinquance en col blanc sont unanimes : la condamnation pénale n’entraîne pas sur eux d’effet dévalorisant, ces personnes rejettent même l’étiquette de « délinquant » » (p. 182). Elles résistent à la stigmatisation par un ensemble de « rituels de restauration » qui mobilisent leur capital social, culturel et économique » (p. 65). En particulier, l’usage de toutes les possibilités de la procédure judiciaire pour contester les actions des juges permet de donner aux débats un tour technique et une durée qui affaiblit l’attention publique et favorise la minimisation de la gravité des faits. De telles stratégies nécessitent « l’existence et l’appui de puissants réseaux, une maîtrise optimale du droit, de ses passes et de ses méandres, ainsi qu’une capacité imposer une lecture alternative crédible de la situation discutée » (p. 189).

Un autre résultat des travaux de Sutherland que des études ultérieures permettent d’approfondir est le fait que « les entreprises frauduleuses mènent souvent des stratégies préventives vis-à-vis des contrôles ». En particulier elles interviennent pour éviter l’adoption de réglementations trop rigoureuses. Une étude empirique a ainsi montré, aux États-Unis que, « plus une entreprise exerce du lobbying, plus elle a de chances d’échapper au législateur » (p. 45). En d’autres termes, « le prestige social des élites, la crainte révérencielle qu’elles suscitent, les réseaux d’influence et de protection dont elles disposent sont autant d’obstacles à la catégorisation de leurs transgressions dans un registre punitif » (p. 65). Les élites ne sont pas seulement en capacité d’influer sur le traitement des infractions mais aussi sur leur définition même.

La nécessité d’être au-dessus des règles

L’ouvrage discute les tentatives pour intégrer les enjeux de la délinquance des élites dans des ensembles théoriques plus généraux. Il présente ainsi les analyses d’auteurs qui se réclament de grands courants de l’analyse de la criminalité, comme les adeptes de la « théorie du choix rationnel » (p. 158-168). Sur ces points, il montre bien que « l’idée d’une théorie générale susceptible d’expliquer de manière cohérente l’ensemble des faits transgressifs n’a jamais été démontrée » (p. 168). Les auteurs montrent que parfois « les chercheurs en matière de déviance et de délinquance des élites économiques et politiques ont tendance à schématiser leur sujet, à le simplifier pour le faire entrer à toute force dans un cadre théorique préétabli, de préférence l’un des modèles théoriques criminologiques classiques » (p. 54). L’intérêt d’une approche sociologique spécifique est précisément de toujours analyser la singularité de la délinquance des élites comme un ensemble de transgressions commises par des groupes sociaux qui, par ailleurs, ont des moyens importants pour lutter contre la qualification pénale de leurs actes.

Une dimension qui traverse le livre sans être thématisée comme telle – ce qui correspond logiquement à une structure de présentation des théories sociologiques – est celle des liens entre la délinquance des élites et la conjoncture historique actuelle. Les auteurs montrent que l’attention portée à la délinquance en col blanc est liée à des fluctuations du contexte et de l’intérêt de l’État : elle est par exemple forte après la crise de 1929 et dans les années de contestation qui suivent mai 68. La séquence qui s’ouvre à partir des années 1980, notamment avec Thatcher et Reagan, est marquée par une orientation inverse : « la droite néolibérale (…) a prôné et fait progresser le mouvement de dépénalisation des activités économiques et mis en œuvre une dérégulation concrète par la diminution drastique des budgets des agences de contrôle et une diminution de leurs pouvoirs » (p. 205). De même, estiment les auteurs, en France un mouvement général de « dépénalisation de la vie des affaires » est initié « depuis au moins une décennie » (p. 83).

Ces transformations ne sont pas sans effets sur les pratiques transgressives des élites elles-mêmes. Ainsi, « plusieurs recherches montrent que la dérégulation opérée, entre autres, durant les périodes « Reagan » aux États-Unis ou « Thatcher » en Angleterre, a offert un ensemble d’opportunités transgressives nouvelles au monde des affaires » (p. 142). Ces opportunités sont saisies de manières différentes par les acteurs économiques : « plus les salaires sont répartis inégalement dans une entreprise, plus cette entreprise semble mettre en œuvre des stratégies transgressives » (p. 143). Il existe parfois de « véritables sous-cultures délinquantes où des activités perçues comme illégales par le monde extérieur sont, à l’intérieur de la sous-culture, totalement banalisées (l’organisation de l’évasion fiscale dans certains cabinets d’avocats, l’entente entre concurrents dans les travaux publics et la grande distribution » (p. 152). En ce sens, la sociologie actuelle des élites délinquantes est moins l’analyse de déviants au sein des élites que celle des normes d’action affirmées dans des segments spécifiques du capitalisme, qui gère des flux financiers dérégulés, place le capital des puissants à l’abri des administrations fiscales et fournit des salaires exorbitants aux nouveaux working rich. Entre ces élites hors d’atteinte et les salariés se trouvent des managers, pris entre les régulations imposées par la puissance publique et les objectifs économiques dictés par leurs patrons (p. 198).

Les auteurs citent en exergue un entretien de Luc Boltanski dans Libération, invitant les sociologues à étudier ceux « qui occupent les positions de pouvoir, et [les] dispositifs qui leur permettent à la fois de mettre en œuvre ce pouvoir et de le dissimuler ». Dans De la critique, le même Boltanski explique que vouloir la « reprise d’une sociologie des classes sociales », c’est retrouver la question des illégalismes des classes dominantes : « Ce que partagent implicitement les membres d’une classe dominante, sous la forme d’un savoir commun qu’ils ne peuvent pas avouer aux autres – qu’ils peuvent à peine s’avouer à eux-mêmes – est que, d’un côté, il est indispensable qu’il y ait des règles, c’est-à-dire du droit, des procédures, des normes, des standards, des règlements, etc., et, de l’autre, que l’on ne peut rien faire de vraiment profitable […], que l’on ne peut pas simplement agir, dans un monde incertain, si on suit ces règles » [4]. Les défis politiques posés par la Sociologie des élites délinquantes ne sont rien moins que ceux qui émergent du renouveau d’une sociologie critique de la domination.

Géopolitique de l’espionnage : Les ramifications de l’affaire Snowden

Par Dan Schiller

11/2014

Source : http://www.monde-diplomatique.fr

En dévoilant il y a un an et demi la machine de surveillance mise en place par les services de renseignement américains, l’affaire Snowden a démontré le peu de respect de l’administration de M. Barack Obama pour la vie privée. Mais sa portée est bien plus vaste : elle révèle les rapports de pouvoir à l’échelle mondiale et les mutations du capitalisme numérique.

Les révélations sur les programmes d’espionnage menés par l’Agence nationale pour la sécurité (National Security Agency, NSA) ont entraîné « des changements fondamentaux et irréversibles dans beaucoup de pays et quantité de domaines (1) », souligne Glenn Greenwald, le journaliste du Guardian qui a rendu publiques les informations confidentielles que lui a fournies M. Edward Snowden. A l’automne 2013, la chancelière allemande Angela Merkel et la présidente du Brésil Dilma Rousseff se sont opposées à M. Barack Obama en condamnant les atteintes à la vie privée dont les Etats-Unis s’étaient rendus coupables — et dont elles avaient personnellement été victimes. L’Assemblée générale de l’Organisation des Nations unies (ONU) a adopté à l’unanimité une résolution reconnaissant comme un droit humain la protection des données privées sur Internet. Et, en juin 2014, le ministère de la justice américain, répondant à l’Union européenne, a promis de soumettre au Congrès une proposition de loi élargissant aux citoyens européens certains dispositifs de protection de la vie privée dont bénéficient les citoyens américains.

Mais, pour pleinement apprécier l’étendue du retentissement international de l’affaire Snowden, il faut élargir la focale au-delà des infractions commises contre le droit, et examiner l’impact que ces révélations ont sur les forces économiques et politiques mondiales, structurées autour des Etats-Unis.

Tout d’abord, l’espionnage — l’une des fonctions de la NSA — fait partie intégrante du pouvoir militaire américain. Depuis 2010, le directeur de la NSA est également chargé des opérations numériques offensives, en tant que commandant du Cyber Command de l’armée : les deux organismes relèvent du ministère de la défense. « Les Etats-Unis pourraient utiliser des cyberarmes (…) dans le cadre d’opérations militaires ordinaires, au même titre que des missiles de croisière ou des drones », explique dans le New York Times (20 juin 2014) l’amiral Michael S. Rogers, récemment nommé à ce double poste.

Ensuite, ce dispositif militaire s’inscrit dans un cadre bien plus large, celui des alliances stratégiques nouées par les Etats-Unis. Depuis 1948, l’accord United Kingdom-United States Communications Intelligence Agreement (Ukusa) constitue le cœur des programmes de surveillance des communications mondiales. Dans ce traité, les Etats-Unis sont nommés « partie première » (first party) et la NSA est spécifiquement reconnue comme la « partie principale » (dominant party). Le Royaume-Uni, le Canada, l’Australie et la Nouvelle-Zélande représentent les « parties secondaires » (second parties). Chacun de ces pays, outre qu’il s’engage à assurer la surveillance des communications dans une région donnée, à partager ses infrastructures avec les Etats-Unis et à mener des opérations communes avec eux, peut accéder aux renseignements collectés selon des modalités fixées par Washington (2).

Les pays de l’Ukusa — les five eyes cinq yeux »), comme on les appelle parfois — collaboraient dans le cadre de la guerre froide. L’Union soviétique représentait le principal adversaire. Mais, face aux avancées des mouvements anticoloniaux, anti-impérialistes et même anticapitalistes en Asie, en Afrique et en Amérique latine, les Etats-Unis ont étendu leurs capacités de collecte de renseignement à l’échelle mondiale. Les alliances ayant fondé ce système dépassent donc largement le cercle des premiers signataires. Par exemple, à l’est et à l’ouest de l’Union soviétique, le Japon et l’Allemagne comptent parmi les « parties tierces » (third parties) du traité. On notera que, à la suite des révélations de M. Snowden, Mme Merkel a demandé aux Etats-Unis de partager les renseignements dont ils disposent avec l’Allemagne, selon des conditions similaires à celles dont bénéficient les « parties secondaires ». L’administration Obama lui a opposé une fin de non-recevoir.

L’industrie privée du renseignement public

Au fil du temps, les membres ayant le statut de « parties tierces » ont évolué ; mais tous disposent d’un accès restreint aux renseignements collectés. Ce fut, pendant un temps, le cas de l’Iran, bien situé pour observer le sud de l’Union soviétique. Après la révolution de 1979, les Etats-Unis durent trouver une solution de remplacement. Ils institutionnalisèrent alors leurs liens avec la République populaire de Chine, avec laquelle les relations s’étaient améliorées depuis la visite secrète de M.Henry Kissinger en avril 1970. La province du Xinjiang apparaissait comme un endroit commode pour espionner les Russes : Deng Xiaoping, le grand artisan de l’ouverture de la Chine à l’économie de marché, autorisa la Central Intelligence Agency (CIA) à construire deux postes de surveillance, à condition qu’ils soient tenus par des techniciens chinois. Opérationnels à partir de 1981, ils fonctionnèrent au moins jusqu’au milieu des années 1990.

Puisque aucun Etat ne possède de réseau d’espionnage aussi étendu que celui des Etats-Unis, l’argument selon lequel « tous les pays font la même chose » ne tient pas la route. Des satellites, dans les années 1950, jusqu’aux infrastructures numériques, les Etats-Unis ont modernisé leurs systèmes de surveillance globale à plusieurs reprises. Toutefois, depuis le début des années 1990 et la chute des régimes communistes, la surveillance a aussi changé de fonction. Elle vise toujours à combattre les menaces, actuelles ou futures, qui pèsent sur une économie mondiale construite autour des intérêts américains. Mais ces menaces se sont diversifiées : acteurs non étatiques, pays moins développés bien déterminés à se faire une meilleure place dans l’économie mondiale ou, au contraire, pays désireux de s’engager sur d’autres voies de développement ; et — c’est essentiel — autres pays capitalistes développés.

Pour clarifier ce déplacement stratégique, il faut souligner un aspect économique du système de renseignement américain directement lié au capitalisme numérique. Ces dernières décennies ont vu se développer une industrie de la cyberguerre, de la collecte et de l’analyse de données, qui n’a de comptes à rendre à personne et dont fait partie l’ancien employeur de M. Snowden, l’entreprise Booz Allen Hamilton. En d’autres termes, avec les privatisations massives, l’« externalisation du renseignement » s’est banalisée. Ainsi, ce qui était de longue date une fonction régalienne est devenu une vaste entreprise menée conjointement par l’Etat et les milieux d’affaires. Comme l’a démontré M. Snowden, le complexe de surveillance américain est désormais rattaché au cœur de l’industrie du Net.

Il y a de solides raisons de penser que des entreprises de la Silicon Valley ont participé de façon systématique, et pour la plupart sur un mode confraternel, à certains volets d’une opération top secret de la NSA baptisée « Enduring Security Framework », ou Cadre de sécurité durable (3). En 1989 déjà, un expert des communications militaires se félicitait des « liens étroits entretenus par les compagnies américaines (…) avec les hautes instances de la sécurité nationale américaine », parce que les compagnies en question « facilitaient l’accès de la NSA au trafic international » (4). Vingt-cinq ans plus tard, cette relation structurelle demeure. Bien que les intérêts de ces entreprises ne se confondent vraisemblablement pas avec ceux du gouvernement américain, les principales compagnies informatiques constituent des partenaires indispensables pour Washington. « La majorité des entreprises qui permettent depuis longtemps à l’Agence d’être à la pointe de la technologie et d’avoir une portée globale travaillent encore avec elle », a ainsi reconnu le directeur de la NSA en juin 2014 dans le New York Times.

Contre toute évidence, Google, Facebook et consorts nient leur implication et feignent l’indignation. Une réaction logique : ces entreprises ont bâti leur fortune sur l’espionnage à grande échelle dans un but commercial — pour leur propre compte comme pour celui de leurs soutiens financiers, les grandes agences de publicité et de marketing.

La collecte, massive et concertée, de données par les grandes entreprises n’est pas un fait naturel. Il a fallu la rendre possible, notamment en transformant l’architecture initiale d’Internet. Dans les années 1990, alors que le World Wide Web commençait tout juste à s’immiscer dans la vie sociale et culturelle, les entreprises informatiques et les publicitaires ont fait du lobbying auprès de l’administration Clinton pour réduire la protection de la vie privée au strict minimum. Ainsi, ils ont pu modifier le Net de façon à surveiller ses utilisateurs à des fins commerciales. Rejetant les initiatives de protection des données, fussent-elles timides, réseaux sociaux, moteurs de recherche, fournisseurs d’accès et publicitaires continuent d’exiger une intégration plus poussée de la surveillance commerciale à Internet — c’est la raison pour laquelle ils promeuvent le passage à l’informatique « en nuage » (cloud service computing). Quelques milliers d’entreprises géantes ont acquis le pouvoir d’accaparer les informations de la population du monde entier, du berceau à la tombe, à toute heure de la journée. Comme l’explique le chercheur Evgeny Morozov, les stratégies de profit de ces entreprises reposent explicitement sur les données de leurs utilisateurs. Elles constituent, selon les mots du fondateur de WikiLeaks, M. Julian Assange, des « moteurs de surveillance (5) ».

Ces stratégies de profit deviennent la base du développement du capitalisme numérique. La dynamique d’appropriation des données personnelles électroniques se renforce puissamment sous l’effet d’une double pression, économique et politique. Pour cette raison même, elle s’expose à une double vulnérabilité, mise en lumière par les révélations de M. Snowden.

En mai 2014, la Cour européenne de justice a estimé que les individus avaient le droit de demander le retrait des résultats de recherches renvoyant à des données personnelles « inadéquates, dénuées de pertinence ou obsolètes ». Dans les quatre jours qui ont suivi ce jugement, Google a reçu quarante et une mille requêtes fondées sur ce « droit à l’oubli ». Plus révélateur encore, en juin 2014, 87 % des quinze mille personnes interrogées dans quinze pays par le cabinet de relations publiques Edelman Berland se sont accordées à dire que la loi devrait « interdire aux entreprises d’acheter et de vendre des données sans le consentement » des personnes concernées. Les mêmes sondés considéraient que la principale menace pesant sur la protection de la vie privée sur Internet résidait dans le fait que les entreprises pouvaient « utiliser, échanger ou vendre à [leur] insu [leurs] données personnelles pour en retirer un gain financier ». Pour endiguer le mécontentement, la Maison Blanche a publié un rapport recommandant aux entreprises de limiter l’usage qu’elles font des données de leurs clients. Malgré cela, l’administration Obama demeure inébranlable dans son soutien aux multinationales : « Les big data seront un moteur historique du progrès (6) », a martelé un communiqué officiel en juin 2014.

Revivifier la contestation

Le rejet de la domination des intérêts économiques et étatiques américains sur le capitalisme numérique n’est pas seulement perceptible dans les sondages d’opinion. Pour ceux qui cherchent depuis longtemps à croiser le fer avec les compagnies américaines, les révélations de M.Snowden constituent une aubaine inespérée. En témoigne l’extraordinaire « Lettre ouverte à Eric Schmidt » (président-directeur général de Google) écrite par l’un des plus gros éditeurs européens, M. Mathias Döpfner, du groupe Axel Springer. Il y accuse Google, qui détient 60 % du marché de la publicité en ligne en Allemagne, de vouloir devenir un « super-Etat numérique » n’ayant plus de comptes à rendre à personne. En expliquant que l’Europe reste une force « sclérosée » dans ce domaine essentiel, M. Döpfner cherche bien sûr à promouvoir les intérêts des entreprises allemandes (Frankfurter Allgemeine Feuilleton, 17 avril 2014).

La stagnation chronique de l’économie mondiale exacerbe encore la bataille menée par les grandes entreprises et l’Etat pour accaparer les profits. D’un côté, les fournisseurs d’accès à Internet et les grandes entreprises forment la garde prétorienne d’un capitalisme numérique centré sur les Etats-Unis. A elle seule, la société Microsoft utilise plus d’un million d’ordinateurs dans plus de quarante pays pour fournir ses services à partir d’une centaine de centres de données. Android et IOS, les systèmes d’exploitation respectifs de Google et d’Apple, équipaient à eux deux 96 % des smartphones vendus dans le monde au deuxième trimestre 2014. De l’autre côté, l’Europe affiche de piètres performances : elle ne domine plus le marché des téléphones portables, et Galileo, son projet de géolocalisation par satellite, connaît de nombreux déboires et retards.

Le capitalisme numérique fondé sur Internet impressionne par son ampleur, son dynamisme et ses perspectives de profit, comme le montrent non pas seulement l’industrie directement liée à Internet, mais des domaines aussi différents que la construction automobile, les services médicaux, l’éducation et la finance. Quelles entreprises, implantées dans quelles régions, accapareront les profits afférents ?

Sur ce plan, l’affaire Snowden agit comme un élément perturbateur, puisqu’elle revivifie la contestation de la cyberdomination américaine. Dans les semaines qui ont suivi les premières révélations, les spéculations sont allées bon train quant à l’influence qu’auraient les documents publiés par M. Snowden sur les ventes internationales des compagnies américaines de nouvelles technologies. En mai 2014, le président-directeur général de l’équipementier informatique Cisco a par exemple écrit au président Obama pour l’avertir du fait que le scandale de la NSA minait « la confiance dans notre industrie et dans la capacité des sociétés technologiques à vendre leurs produits dans le monde » (Financial Times, 19 mai 2014).

Pour les entreprises informatiques, la menace provenant du monde politique se précise. Certains Etats, invoquant les révélations de M. Snowden, réorientent leur politique économique. Le Brésil et l’Allemagne envisagent la possibilité de n’autoriser que les fournisseurs nationaux à conserver les données de leurs citoyens — une mesure déjà en vigueur en Russie. En juin dernier, le gouvernement allemand a mis un terme au contrat qui l’unissait de longue date à la compagnie américaine Verizon, au profit de Deutsche Telekom. Un dirigeant chrétien-démocrate a déclaré pour sa part que le personnel politique et diplomatique allemand ferait mieux de revenir à la machine à écrire pour tous les documents sensibles. Le Brésil et l’Union européenne, qui prévoient de construire un nouveau réseau de télécommunications sous-marin pour que leurs communications intercontinentales n’aient plus à dépendre des infrastructures américaines, ont confié cette tâche à des entreprises brésilienne et espagnole. De la même façon, Brasília a évoqué l’abandon d’Outlook, le service de messagerie de Microsoft, au profit d’un système utilisant des centres de données implantés sur son territoire.

Bataille pour la régulation d’Internet

Cet automne, les représailles économiques contre les entreprises informatiques américaines se poursuivent. L’Allemagne a interdit l’application de partage de taxis Uber ; en Chine, le gouvernement a expliqué que les équipements et services informatiques américains représentaient une menace pour la sécurité nationale et demandé aux entreprises d’Etat de ne plus y recourir.

Pris à contre-pied, les géants américains du numérique ne se contentent pas d’une offensive de relations publiques. Ils réorganisent leurs activités pour montrer à leurs clients qu’ils respectent les législations locales en matière de protection des données. IBM prévoit ainsi d’investir 1 milliard de dollars pour bâtir des centres de données à l’étranger, dans l’espoir de rassurer ses clients inquiets de l’espionnage américain. Il n’est pas certain que cela suffise à apaiser les craintes, alors que Washington demande à Microsoft de transmettre les courriers électroniques stockés sur ses serveurs installés en Irlande…

Mais que l’on ne s’y trompe pas : le but des autorités américaines demeure l’élargissement des avantages offerts à leurs multinationales informatiques. En mai 2014, le ministre de la justice américain a porté plainte contre cinq officiers de l’armée chinoise pour cyberespionnage commercial, en arguant que la Chine se livrait à des tactiques de concurrence ouvertement illégales. Toutefois, et de manière significative, le Financial Times a révélé que cette plainte déposée par les champions de l’espionnage suscitait l’émoi dans l’industrie allemande, « où l’on s’inquiète de vols de la propriété intellectuelle » (22 mai 2014). Etait-ce l’effet que les responsables américains cherchaient à produire ?

Pourquoi les Etats-Unis ont-ils attendu ce moment précis pour passer à l’action ? Depuis des années, ils accusent la Chine de lancer des cyberattaques contre leurs entreprises — alors qu’eux-mêmes piratent les routeurs et l’équipement Internet d’une compagnie chinoise concurrente, Huawei… Une motivation, d’ordre politique, transparaît : en cette année d’élections de mi-mandat, l’exécutif démocrate entend faire de la Chine un prédateur qui détruit les emplois américains en pillant la propriété intellectuelle. Et, dans le même temps, cette mise en cause publique de Pékin souligne subtilement qu’entre alliés le statu quo — un capitalisme numérique dominé par les Etats-Unis — reste la meilleure option.

Nous touchons là au cœur du problème. Selon ses dires, M. Snowden espérait que ses révélations « seraient un appui nécessaire pour bâtir un Internet plus égalitaire (7) ». Il voulait non seulement déclencher un débat sur la surveillance et le droit à la vie privée, mais aussi influencer la controverse sur les déséquilibres inhérents à l’infrastructure d’Internet.

Dans sa construction même, Internet a toujours avantagé les Etats-Unis. Une opposition, internationale mais sporadique, s’est fait entendre dès les années 1990. Elle s’est intensifiée entre 2003 et 2005, lors des sommets mondiaux sur la société de l’information, puis de nouveau en 2012, lors d’une rencontre multilatérale organisée par l’Union internationale des télécommunications. Les révélations de M.Snowden exacerbent ce conflit sur la « gouvernance mondiale d’Internet » (8). Elles affaiblissent la « capacité de Washington à orienter le débat sur l’avenir d’Internet », explique le Financial Times, citant un ancien responsable du gouvernement américain pour qui « les Etats-Unis n’ont plus l’autorité morale leur permettant de parler d’un Internet libre et ouvert » (21 avril 2014).

Après que la présidente Rousseff eut condamné les infractions commises par la NSA devant l’Assemblée générale de l’ONU en septembre 2013, le Brésil a annoncé la tenue d’une rencontre internationale pour examiner les politiques institutionnelles définies par les Etats-Unis concernant Internet : le « NETmundial, réunion multipartite mondiale sur la gouvernance d’Internet », s’est tenu à São Palo en avril 2014 et a réuni pas moins de cent quatre-vingts participants, des représentants de gouvernements, des entreprises et des associations.

Les Etats-Unis ont tenté de contrecarrer cette initiative : quelques semaines avant le rassemblement, ils ont promis, non sans poser plusieurs conditions importantes, d’abandonner leur rôle de supervision formelle de l’Internet Corporation for Assigned Names and Numbers (Icann), l’organisme qui administre certaines des fonctions vitales du réseau. L’opération a réussi. A l’issue du NETmundial, la Software and Information Industry Association (SIIA), établie aux Etats-Unis, s’est félicitée : « Les propos tenus sur la surveillance sont restés mesurés », et « cette rencontre n’a pas donné la part belle à ceux qui privilégient un contrôle intergouvernemental d’Internet, c’est-à-dire placé sous l’égide des Nations unies (9) ».

En dernière analyse, ce sont les conflits économico-géopolitiques et les réalignements naissants qui ont déterminé l’issue de la rencontre de São Paulo. Si le Brésil a rejoint le giron américain, la Russie ainsi que Cuba ont refusé de signer la résolution finale et souligné que le discours des Etats-Unis sur la « liberté d’Internet » sonnait désormais creux ; la délégation indienne s’est déclarée insatisfaite, ajoutant qu’elle ne donnerait son accord qu’après consultation de son gouvernement ; et la Chine est revenue à la charge, dénonçant la « cyberhégémonie » américaine (China Daily, 21 mai 2014). Cette opinion gagne du terrain. A la suite du NETmundial, le groupe des 77 plus la Chine a appelé les entités intergouvernementales à « discuter et examiner l’usage des technologies de l’information et de la communication pour s’assurer de leur entière conformité au droit international (10) », et exigé que soit mis un terme à la surveillance de masse extraterritoriale.

Ainsi, le conflit structurel sur la forme et la domination du capitalisme numérique s’accentue. Bien que la coalition disparate liguée contre le pouvoir et les grandes entreprises de la Silicon Valley ait pris une certaine ampleur, ces derniers restent déterminés à préserver leur hégémonie mondiale. Selon M. Kissinger, avocat notoire de la suprématie des Etats-Unis, les Américains doivent se demander : que cherchons-nous à empêcher, quel qu’en soit le prix, et tout seuls si nécessaire ? Que devons-nous chercher à accomplir, fût-ce en dehors de tout cadre multilatéral ? Fort heureusement, les Etats, les multinationales et leurs zélateurs ne constituent pas les seuls acteurs politiques. Soyons reconnaissants à M. Snowden de nous l’avoir rappelé.

Dan Schiller

Auteur de Digital Depression. Information Technology and Economic Crisis, University of Illinois Press, Urbana, 2014.

(1) Glenn Greenwald, Nulle part où se cacher, JC Lattès, Paris, 2014.

(2) Cf. Jeffrey T. Richelson et Desmond Ball, The Ties That Bind : Intelligence Cooperation Between the Ukusa Countries, Allen & Unwin, Boston, 1985, et Jeffrey T. Richelson, The US Intelligence Community, Westview, Boulder, 2008. Lire Philippe Rivière, « Le système Echelon », Le Monde diplomatique, juillet 1999.

(3) Cf. Barton Gellman et Laura Poitras, « Codename Prism : Secret government program mines data from nine US Internet companies, including photographs, emails and more », The Washington Post, 6 juin 2013 ; Jason Leopold, « Emails reveal close Google relationship with NSA », Al Jazeera America, 6 mai 2014 ; et Andrew Clement, « NSA surveillance : Exploring the geographies of Internet interception » (PDF), conférence à l’université Humboldt, Berlin, 6 mars 2014.

(4) Ashton B. Carter, « Telecommunications policy and US national security », dans Robert W. Crandall et Kenneth Flamm (sous la dir. de), Changing the Rules, Brookings, Washington, DC, 1989.

(5) Lire Evgeny Morozov, « De l’utopie numérique au choc social », Le Monde diplomatique, août 2014. Cf. Julian Assange, Cypherpunks : Freedom and the Future of the Internet, OR Books, New York, 2012.

(6) « Big data : Seizing opportunities, preserving values » (PDF), Maison Blanche, Washington, DC, mai 2014.

(7) Cité par Glenn Greenwald, op. cit.

(8) Lire « Qui gouvernera Internet ? », Le Monde diplomatique, février 2013.

(10) « Declaration of Santa Cruz : For a new world order for living well », 17 juin 2014. Créé en 1964, le groupe des 77 réunit au sein de l’Organisation des Nations unies des pays en développement soucieux de promouvoir des intérêts économico-diplomatiques communs.

Ne laissons pas Internet devenir une « zone de non-droit »

Par Yoann Spicher

20/12/2014

Source : http://www.nextinpact.com

Yoann Spicher, doctorant en Sciences de l’information et de la communication, signe dans nos colonnes une tribune sur « l’Internet, zone de non-droit ». Une critique si souvent adressée par les politiques que cet ancien permanent de la Quadrature du Net retourne savamment.

Au milieu des années 1990, Le Grand Secret, le livre de Claude Gubler – docteur de François Mitterrand – dans lequel il expose l’état de santé de l’ancien président, est diffusé sur Internet malgré son interdiction en France. En réaction, le mythe d’un « Internet zone de non-droit » (par exemple l’Expansion, 8 février 1996, ou l’Humanité 25 janvier 1996) apparaît comme élément de langage dans les discours médiatique et politique pour ne plus jamais le quitter, de « l’amendement Fillon » de 1996 (Libération 13 septembre 1996), qui tentait – en vain – d’imposer un filtrage administratif des contenus, à la loi « terrorisme » de Bernard Cazeneuve fraîchement adoptée qui valide leur blocage extra-judiciaire, en passant par « l’Internet civilisé » cher à Nicolas Sarkozy.

Indépendamment des couleurs politiques des pouvoirs exécutif et législatif, l’expression accompagne toutes les mesures de restriction, de contrôle et de surveillance des activités en ligne, justifiées cycliquement par l’un ou l’autre des cavaliers de l’infocalypse – terrorisme, blanchiment d’argent, pédo-pornographie, drogue, etc. Et chaque fois, experts et défenseurs des libertés rappellent inlassablement le principe de territorialité du droit, les lois permettant déjà de répondre au nouveau fait pers invoqué et les exemples démontrant leur application réelle, les censures du Conseil Constitutionnel lors des précédentes tentatives législatives avortées, l’inefficacité des dispositifs proposés, les propositions alternatives et positives, etc. [1]

Un mythe qui s’est progressivement réalisé

Malheureusement, le mythe s’est progressivement réalisé. L’accumulation de mesures législatives et pseudo-contractuelles imposées par le pouvoir politique pour les premières et par des entreprises privées pour les secondes a réussi à transformer Internet en « zone de non-droit ». Non pas que le citoyen y court un risque accru d’être victime de diffamation, de propos haineux ou de n’importe quel autre crime perpétué en toute impunité par des anonymes, mais que sa capacité à opposer ses droits à des atteintes à ses libertés diminue de manière progressive et persistante.

Sur le terrain de la liberté d’expression, les mécanismes de censure reposant sur des intermédiaires techniques plutôt que sur des juges ne cessent d’être élargis à des catégories de contenus toujours plus nombreuses. Depuis 2004, elles ont ainsi été étendues des crimes considérés comme les plus graves (apologie de crime contre l’humanité, pédo-pornographie, incitation à la haine raciale…) à des infractions secondaires (homophobie, sexisme, handiphobie…), provoquant la censure arbitraire de toujours plus de contenus [2]. En parallèle, les mesures de blocage et de filtrage administratifs se sont elles aussi développées – sans faire l’objet d’application réelle à ce jour, faute de publication des décrets – permettant théoriquement au pouvoir exécutif de censurer des contenus, là aussi sans contrôle du juge malgré la gravité de ces décisions.

Sur le terrain du droit à accéder et prendre part librement à la vie culturelle de la communauté [3], la numérisation des œuvres s’accompagne elle aussi de la restriction progressive des libertés du public. Le droit de propriété sur les œuvres, qui prévaut encore pour celles analogiques et autorise le public à les partager et à créer à son tour (remix, mashup…), est peu à peu limité au seul droit d’usage, au travers de processus contournant le judiciaire pour laisser aux entreprises privées le soin de réprimer ce que des ayants droit leur signalent comme attentatoire à leurs intérêts. En parallèle, ces limitations sont accompagnées de  mesures de contrôle restreignant la simple utilisation des œuvres (généralisation des DRM, seul droit de lecture des œuvres pour une période donnée…).

Enfin, le recul de nos droits en matière de vie privée est également frappant. Qu’ils soient remis en question par des États déployant des dispositifs de surveillance généralisés et permanents, ou par des entreprises s’engouffrant dans des vides juridiques leur permettant de commercialiser nos données personnelles et celles de nos proches sans nos consentements, la numérisation des échanges et activités quotidiennes s’accompagne d’un recul – voire de la disparition – du contrôle de l’autorité judiciaire sur ces pratiques. Pire encore, les évolutions législatives récentes (Loi de programmation militaire de 2013, LOPPSI 2 de 2011, Loi relative à la lutte contre le terrorisme de 2006, Loi Perben 2 de 2004, LOPSI de 2002, etc.)tendent à légaliser des pratiques jusque-là alégales ou illégales, sous l’influence des services de renseignement et des pouvoirs exécutifs et/ou de grandes entreprises imposant peu à peu leurs propres règles, dans une collusion d’intérêts mise en lumière par les révélations d’Edward Snowden.

Internet, zone d’arbitraire

Alors que, par essence, Internet pourrait être le lieu privilégié et concret de l’application réelle de nos droits fondamentaux, nous assistons peu à peu à leur émiettement et à l’apparition de la « zone de non-droit ». Ironiquement, alors que cette menace était agitée par une puissance publique prétendant défendre l’intérêt général pour justifier ses tentatives de reprise de contrôle sur un outil lui échappant, c’est finalement sous la forme d’un recul de la capacité des citoyens à faire valoir leurs droits face à l’exercice arbitraire du pouvoir qu’elle se réalise. Si ces évolutions vers le contournement systématique du pouvoir judiciaire et la privation de libertés imposées par le pouvoir législatif ou par des acteurs privés n’empêchent pas la création et la diffusion grandissantes d’outils permettant l’émancipation de tous (des licences libres aux outils de chiffrement, en passant par les monnaies virtuelles), elles les ralentissent, sont facteurs d’incertitudes, et pourraient à terme soit les étouffer, soit finir de briser l’idée que la loi est au service de l’intérêt public.

Les récentes mobilisations en Europe et aux États-Unis en réaction à de tels projets politiques et législatifs (ACTA, SOPA, PIPA, neutralité du Net, etc.) démontrent le niveau d’appropriation et de consensus citoyen autour de ces questions. Il est urgent de réduire le fossé qui sépare les gouvernants des gouvernés, particulièrement palpable sur ces questions, afin de permettre un développement des cadres juridiques favorables à tous. Nous ne pouvons plus nous contenter de ne repousser que les plus dangereux de ces projets tout en assistant à la disparition progressive de nos droits fondamentaux : nous nous devons d’agir pour leur application réelle dans les pratiques numériques, d’une part à travers leur consécration législative, mais surtout par le maintien du pouvoir judiciaire au centre de ces dispositifs.

Chacun de nous peut agir. Chacun peut choisir d’utiliser des outils respectueux de nos droits et libertés et participer à leur création s’ils n’existent pas encore. Chacun peut s’informer et informer ses proches et ses représentants sur les enjeux liés à ces questions. Chacun peut contribuer humainement et financièrement aux organisations qui agissent sur ces terrains (Comme l’April,  l’EDRi,  la Fédération FDN, Framasoft,  la Free Software Foundation Europe,  La Quadrature du NetTelecomix…). Chacun peut participer à inventer de nouvelles manières de faire respecter ses droits et défendre ses libertés. Si la crise de représentativité actuelle et l’évolution législative sont bel et bien désespérantes, le nombre de voix s’élevant pour les dénoncer démontre paradoxalement la vitalité de la démocratie. Ensemble, faisons comprendre à nos élus que nous ne laisserons pas le contrôle de la loi nous échapper d’avantage, et qu’Internet doit redevenir une « zone de droit », avec ou sans eux.

Yoann Spicher.

[1] Internet et les réseaux numériques : étude adoptée par l’Assemblée générale du Conseil d’Etat le 2 juillet 1998 ( […] Tout d’abord, contrairement à ce l’on entend parfois, l’ensemble de la législation existante s’applique aux acteurs d’Internet, notamment les règles de protection du consommateur et celles qui garantissent le respect de l’ordre public. Il n’existe pas et il n’est nul besoin d’un droit spécifique de l’Internet et des réseaux : ceux-ci sont des espaces dans lesquels tout type d’activité peut être pratiqué et toutes les règles régissant un domaine particulier (publicité, fiscalité, propriété intellectuelle…) ont vocation à s’appliquer. […] ).Quelques exemples concrets : Internet, zone de non droit : de la lumière pour Jean-Jacques Candelier, Next INpact, 15 avril 2014.

[2] La loi pour la confiance dans l’économie numérique (LCEN) adoptée le 21 juin 2004 visait à exonérer les intermédiaires techniques du Net de la responsabilité des contenus diffusés par leurs utilisateurs, hormis pour ceux « manifestement illicites ». Au terme de l’examen de la loi, le Conseil constitutionnel considère qu’un hébergeur n’est pas responsable en raison d’une information qu’il stocke si celle-ci ne présente pas manifestement un tel caractère ou si son retrait n’a pas été ordonné par un juge. Le Conseil a expliqué que la caractérisation d’un message illicite peut se révéler délicate, même pour un juriste et que les hébergeurs, ne disposant pas des moyens suffisants pour les caractériser, censureraient ainsi tout contenu leur étant signalé, portant atteinte à la liberté de communication. Depuis, les dérives  jurisprudentielles confortées par des extensions législatives ont conduit à la situation que le Conseil Constitutionnel tentait justement d’éviter. La décision du Conseil Constitutionnel du 10 juin 2004 (Le commentaire de la décision ).

[3] Selon la formule de l’article 27 de la Déclaration des droits de l’Homme : « Toute personne a le droit de prendre part librement à la vie culturelle de la communauté, de jouir des arts et de participer au progrès scientifique et aux bienfaits qui en résultent. »

Le cerveau ne pense pas tout seul

Par Evelyne Clément, Fabrice Guillaume, Guy Tiberghien et Bruno Vivicorsi

09/2014

Source : http://www.monde-diplomatique.fr

Les progrès de l’imagerie cérébrale ont réactivé un vieux fantasme : celui de pouvoir tout expliquer par l’observation du cerveau — la pauvreté, la délinquance, l’échec scolaire… Lourde de dérives potentielles, cette illusion repose sur de fausses évidences.

A la fin des années 1980, la convergence des progrès en physique nucléaire et en informatique a permis l’avènement de l’imagerie par résonance magnétique fonctionnelle (IRMf) et le développement spectaculaire des neurosciences cognitives, c’est-à-dire l’étude des mécanismes neurobiologiques de la cognition et de ses dysfonctionnements, le terme de cognition étant ici entendu comme quasi synonyme de pensée. Entre cinq et huit articles se référant à l’IRMf paraissent désormais chaque jour dans les revues scientifiques internationales. Certains auteurs bénéficiant de relais médiatiques importants laissent entendre que l’imagerie cérébrale permettrait de lire dans nos pensées, de deviner nos préférences politiques, de prédire nos compétences sociales et de dévoiler notre personnalité (1).

Près de trois siècles après que le célèbre anatomiste de la Renaissance André Vésale eut situé l’esprit dans le cerveau, Franz Joseph Gall (1758-1828) proposa de le décomposer en facultés localisées dans des régions cérébrales spécifiques. Cette doctrine, la phrénologie, se propagea en Europe et aux Etats-Unis tout au long du XIXe siècle. Elle joua un rôle déterminant dans la psychotechnique, la science de l’application pratique de la psychologie, dans les débuts de la criminologie et de la police scientifique. Cesare Lombroso (1835-1909), fondateur de l’école italienne de criminologie, défendra ainsi sa thèse du « criminel né » (1876), et Alphonse Bertillon (1853-1914) inventera l’anthropométrie judiciaire.

La croyance en l’association d’une région cérébrale propre à chaque faculté psychologique et d’une « bosse » correspondante sur la boîte crânienne (dont la célèbre « bosse des maths ») a bien été invalidée. En revanche, l’hypothèse d’une dissociation possible de l’esprit en composants élémentaires correspondant à des substrats cérébraux spécifiques persiste. Là où l’indispensable neuro-imagerie médicale identifie les anomalies anatomiques du cerveau, permettant de diagnostiquer une lésion ou une tumeur, la neuro-imagerie cognitive, née de la rencontre avec la psychologie cognitive, s’efforce d’associer l’activité des régions cérébrales aux processus mentaux. Au lieu de palper les crânes, on localise maintenant les variations d’activité métabolique — généralement, la consommation d’oxygène — dans les diverses régions du cerveau.

Si à toute activité humaine correspond une activité cérébrale, alors toutes les disciplines pourront bénéficier des images du cerveau, grâce à la « neuro-quelque chose » : neurosciences sociales, neuro-économie, neuromarketing, neurodroit, neuroéthique, neuroéducation, etc. Scanner les cerveaux permettrait d’évaluer les risques, de mieux comprendre les choix du citoyen, la personnalité du délinquant, les difficultés de l’élève et les décisions de l’agent économique, perspective qui ne manque pas d’inspirer chefs d’entreprise et pouvoirs publics.

Le débat scientifique est loin d’être clos sur ce que l’on peut faire dire, ou non, à une neuro-image. Pourtant, les recherches mettant directement en relation les compétences ou les catégories sociales et l’activité du cerveau se multiplient. Certaines montrent par exemple, chez des sujets issus de milieux défavorisés, une activité cérébrale similaire à celle observée chez des patients souffrant de lésions localisées dans le lobe frontal (2). D’autres soutiennent que le fonctionnement cérébral à l’âge adulte varie selon le type d’éducation parentale reçu pendant l’enfance (3). On lit aussi que l’activité de l’amygdale, une région impliquée dans la reconnaissance et l’expression des émotions, est plus importante chez les enfants ayant grandi dans un milieu défavorisé que chez les autres (4). Même la géopolitique pourrait se lire dans les scanners. Une équipe de Haïfa, en Israël, a ainsi étudié les différences d’activité cérébrale entre les membres des communautés juive et arabe face à des images évoquant la douleur (5). L’imagerie peut ainsi naturaliser les causes et l’interprétation du conflit israélo-palestinien en évitant l’analyse politique…

La fréquence des applications de l’imagerie cérébrale, « preuves scientifiques » d’un nouveau genre, a également connu une forte augmentation dans le domaine de la justice au cours de ces dix dernières années. La création de la Fondation MacArthur, porteuse du projet de recherche américain Loi et neurosciences (2007), ou encore l’initiative de la London School of Economics and Social Research, financée par l’Economic and Social Research Council (ESRC) au Royaume-Uni, en témoignent. Neuroscientifiques, philosophes et juristes examinent l’adéquation entre le droit et les connaissances obtenues à l’aide de ces techniques. Le libre arbitre ne serait donc qu’une croyance populaire archaïque déconnectée des progrès de la science… En France, la loi de bioéthique du 7 juillet 2011 autorise la production de neuro-images devant les tribunaux, déjà utilisée dans de nombreux procès à travers le monde. Il serait même envisagé de détecter les récidivistes potentiels (6).

Les investissements financiers dont bénéficie la neuro-imagerie n’ont cessé de progresser depuis les années 1990, déclarées « décennie du cerveau » par le Congrès des Etats-Unis. Lors du récent lancement du projet BRAIN (Brain Research Through Advancing Innovative Neurotechnologies), M. Barack Obama annonçait que l’on pouvait attendre un retour sur investissement conséquent pour le « décryptage du cerveau », du même ordre de grandeur que pour la cartographie du génome humain. Le programme Human Brain Project, doté de 1 milliard d’euros de budget entre 2010 et 2020, peut être considéré comme la réponse européenne à cette course hautement compétitive.

Plusieurs raisons expliquent cet engouement. L’intérêt intellectuel et scientifique est évident pour la compréhension du rapport entre le corps et l’esprit, vieil objet de questionnement philosophique. L’apparente évidence de la preuve fournie concourt d’ailleurs au succès. Pourtant, une neuro-image n’est qu’une représentation visuelle d’un ensemble de mesures complexes issues de nombreuses transformations mathématiques et reposant sur des postulats qui font encore débat parmi les spécialistes.

La neuro-imagerie repose sur un marché mondial que se partagent trois constructeurs : General Electric (Etats-Unis), Philips (Pays-Bas) et Siemens (Allemagne). Le prix moyen d’un système IRM s’établit autour de 1,5 million d’euros, et le chiffre d’affaires global à l’horizon 2015, autour de 7 milliards. Une part croissante des fonds alloués à la recherche fondamentale dans le domaine des sciences de la cognition échoit à la neuro-imagerie. En 2006, le centre d’imagerie cognitive NeuroSpin, qui a coûté 200 millions d’euros, a été inauguré à Saclay, près de Paris.

Bien que le sujet soit tabou, un tel contexte augmente le risque de petits arrangements avec la rigueur scientifique, de sélection des données, de soumission à la science-spectacle, voire de tricherie (7). Proposer des solutions simples fondées sur ces technologies complexes permet de trouver une oreille attentive auprès des pouvoirs publics ; mais affirmer que les images du cerveau démontrent la validité d’une méthode pédagogique (8), d’un modèle économique ou d’une décision de justice présente un risque de dérives idéologiques, scientifiques, politiques et sociétales. Si la délinquance, l’échec scolaire ou la pauvreté peuvent se diagnostiquer à partir de neuro-images, à quoi bon continuer, par exemple, à investir dans de coûteuses politiques d’éducation, de prévention et d’insertion sociale ?

La « preuve par le cerveau » reproduit l’illusion individualiste, c’est-à-dire la croyance selon laquelle les individus ont d’abord une existence biologiquement déterminée sur laquelle vient se greffer un historique relativement accessoire. Elle naturalise l’esprit, le faisant apparaître comme une donnée intangible sur un écran plutôt que comme le produit d’une histoire et de circonstances ; elle gomme ainsi la contribution du contexte culturel et socio-historique au développement de la pensée et des sociétés. Elle neutralise enfin la dimension subjective et autonome de la construction de l’expérience humaine, reformulée dans les termes des sciences naturelles.

Car le cerveau est le substrat matériel de notre activité mentale, mais il ne pense pas ; seule la personne pense. Et le contenu de ses pensées trouve son origine à l’extérieur du cerveau, dans son environnement interne et externe. L’image ne donne pas à voir des pensées, mais des corrélats biologiques de ce que fait un être humain quand nous disons qu’il pense : activité électrique, variation du flux sanguin, etc. Le cerveau est la condition objective de la réalité mentale, mais c’est cette réalité mentale qui le façonne. Oublier ces deux faits relève de la neuromythologie scientiste.

Evelyne Clément, Fabrice Guillaume, Guy Tiberghien et Bruno Vivicorsi

Respectivement maître de conférences à l’université de Rouen, maître de conférences à l’université d’Aix-Marseille (Laboratoire de psychologie cognitive), professeur honoraire à l’Institut universitaire de France et à l’université de Grenoble, maître de conférences à l’université de Rouen. Fabrice Guillaume et Guy Tiberghien ont publié, avec Jean-Yves Baudouin, Le cerveau n’est pas ce que vous pensez. Images et mirages du cerveau, Presses universitaires de Grenoble, 2013.

(1) Cf. par exemple Michel Alberganti, « Les neurosciences viennent à la rencontre de la psychiatrie », Le Monde, 19 septembre 2003.

(2) Rajeev D. S. Raizada et Mark M. Kishiyama, « Effects of socioeconomic status on brain development, and how cognitive neuroscience may contribute to levelling the playing field » (PDF), Frontiers in Human Neuroscience, vol. 4, no 3, Lausanne, 2010.

(3) Peter J. Gianaros (sous la dir. de), « Parental education predicts corticostriatal functionality in adulthood » (PDF), Cerebral Cortex, vol. 21, no 4, New York, 2011.

(4) Pilyoung Kim (sous la dir. de), « Effects of childhood poverty and chronic stress on emotion regulatory brain function in adulthood » (PDF), Proceedings of the National Academy of Sciences of the United States of America, vol. 110, no 46, Washington, DC, 2013.

(5) David Brooks, « The young and the neuro », The New York Times, 9 octobre 2009.

(6) Eyal Aharoni (sous la dir. de), « Neuroprediction of future rearrest » (PDF), Proceedings of the National Academy of Sciences of the United States of America, vol. 110, no 15, 2013.

(7) Cf. Pierre Barthélémy, « Doutes sur la fiabilité des neurosciences », 14 avril 2013, http://passeurdesciences.blog.lemonde.fr

(8) Gilles de Robien, « Conférence de presse sur la lecture », 5 janvier 2006, www.education.gouv.fr

 

Nanotechnologies : ces redoutables particules toxiques qui envahissent notre quotidien

Par Sophie Chapelle

17/12/2014

Source : http://www.bastamag.net

Invisibles à l’œil nu, les nanoparticules envahissent le quotidien, depuis nos vêtements jusqu’à nos assiettes, sans aucun étiquetage ni traçabilité. Malgré les nombreuses études attestant de la toxicité de certaines de ces particules, les gouvernements refusent d’appliquer le principe de précaution et investissent des milliards d’euros en recherche et développement dans les nanotechnologies. Comment repérer et se protéger de ces nouvelles molécules high-tech ? Entretien avec le journaliste Roger Lenglet, qui décrypte dans son ouvrage Nanotoxiques les dessous de cette menace pour la santé publique.

Basta ! : Les nanomatériaux sont entrés en catimini dans nos vies, dans les objets du quotidien ou de consommation courante. Pourquoi dites-vous qu’il s’agit d’une « bombe sanitaire » ?

Roger Lenglet [1] : Ces particules de dimension nanométrique posent des problèmes toxicologiques. Leur taille minuscule permet à une grande partie d’entre elles de traverser l’organisme, de se loger dans les cellules et de pénétrer dans les noyaux cellulaires contenant l’ADN. Elles peuvent avoir des effets mutagènes, cytotoxiques, cancérigènes… Certaines sont même neurotoxiques : elles traversent la barrière encéphalique qui protège le cerveau et s’attaquent aux neurones, contribuant au développement de pathologies neurologiques comme la maladie d’Alzheimer ou de Parkinson. Notre organisme n’est pas fait pour résister à ces nouvelles particules aux propriétés stupéfiantes.

Certaines d’entre elles, les nanotubes de carbone, qui comptent parmi les plus utilisées (dans les textiles, le BTP), entraînent chez les animaux, en laboratoire, le même type de pathologies que l’amiante – des cancers broncho-pulmonaires et des cancers de la plèvre. Et la réaction des nanos au contact de notre organisme est beaucoup plus grande que les particules classiques. Pour couronner le tout, leur toxicité change avec le temps, selon les milieux qu’elles traversent, ce qui ne permet même pas de se rassurer sur les types de nanos qui pourraient actuellement être jugés acceptables.

De quelles manières ces particules envahissent-elles le quotidien ?

Tous les secteurs industriels en utilisent aujourd’hui : agroalimentaire, cosmétiques, textiles, produits d’entretien, médicaments, pesticides, métallurgie, plasturgie, informatique, construction… En 2013, la France a été le premier pays à mettre en place une obligation de déclaration de production et d’importation de nanos. Mais cette déclaration exclut un certain nombre de nanos parmi les plus diffusées. Et beaucoup d’industriels se disent incapables d’identifier si leurs matières premières contiennent ou non des nanos.

Cette opacité et l’absence d’étiquetage des produits conduit à une absence de traçabilité redoutable. L’exposition de la population aux nanos est très supérieure à celle de l’amiante [2], et il est encore plus difficile de les identifier. Depuis 2008, en France, des centaines de milliers de tonnes de chaque grand type de nanos sont mises sur le marché annuellement. Et cela n’a fait qu’empirer. Avec une traçabilité proche de zéro !

Est-il possible de repérer les aliments qui contiennent des nanos dans les magasins ?

Non, pas de façon certaine, car dans les grandes surfaces, de nombreux produits contiennent des nanos sans qu’on puisse les distinguer. Mais il est possible de réduire le risque d’en manger. Par exemple en privilégiant les circuits courts, les produits bio. Car les nanos concernent avant tout les produits industrialisés : les industriels cherchent à donner à leurs aliments des saveurs et des textures nouvelles, des blancheurs plus accentuées, des effets plus colorés… Les nanotechnologies permettent d’accroître toutes sortes de propriétés, comme la fluidité des yaourts ou les anti-agglomérants dans les poudres de chocolat, de sucre ou de lait, dans les sels de table… Il faut se méfier des conservateurs alimentaires qui contiennent souvent des nanos, ainsi que des emballages. Quand vous achetez par exemple un steak ou un poulet en grande surface, il y a souvent une lingette blanche un peu cotonneuse entre la barquette et la viande. Celle-ci est imbibée de nano-argent pour éviter à la viande de devenir grisâtre et pour lui conserver une apparence de fraîcheur.

Plus on s’éloigne des produits industriels, moins on a de nanos. Mais quelques produits contenant des nanos sont déjà inclus depuis longtemps dans les circuits bio. C’est le cas notamment d’un « médicament », l’argent colloïdal, qui n’est rien d’autre que du nano-argent, généralement vendu en solution liquide. Comme c’est un bactéricide puissant, les gens sont épatés par ses effets cicatrisants quand ils en mettent sur une plaie. Certains pensent se faire du bien en buvant ces solutions. Mais la flore bactérienne est nécessaire pour notre santé, il ne faut surtout pas la détruire ! Les consommateurs doivent être plus vigilants.

Vous montrez aussi dans votre ouvrage le poids des lobbies industriels qui veulent limiter le plus possible la définition des nanoparticules…

Plus la définition sera restrictive ou tronquée, plus l’encadrement réglementaire et législatif sera limité. Et plus de nanos échapperont à tout contrôle. Au niveau européen, selon les secteurs et les rapports de force, la définition n’est pas la même. Aujourd’hui, de façon générale, ces lobbies ont réussi à obtenir que les nanos soient définies comme « toute particule de 1 à 100 nanomètres produite intentionnellement » [3]. C’est scandaleux, car la dimension nano va de 1 à 999 nanomètres. Les lobbies dans les commissions ont donc réussi à exclure 90 % des nanos, alors que certaines particules très toxiques mesurent plus de 100 nanomètres !

Mais personne ne vient contester cette définition, sauf quelques associations. Des commissions ont par ailleurs décidé de ne considérer que les nanomatériaux contenant au moins 50 % de nanoparticules. Autrement dit, les produits doivent être au moins composés pour moitié de nanos pour entrer dans le champ réglementaire. Comme s’il n’y avait pas de problème en dessous de ce seuil ! Cela est totalement absurde d’un point de vue toxicologique. Les lobbies manipulent complètement le débat pour exclure du contrôle un maximum de nanos.

Où en est-on dans la bataille de l’étiquetage ?

Sur les cosmétiques, l’obligation d’étiquetage est officielle depuis 2013. Dans les faits, il suffit d’aller dans les magasins pour constater que ce n’est pas du tout respecté. Dans l’alimentation, il devrait y avoir un étiquetage depuis des années. La promesse a été faite de le rendre obligatoire ce mois-ci, en décembre 2014. J’ai bien peur que le lobby agroalimentaire parvienne encore à repousser l’échéance. Toute la question est de savoir ce qu’il y aura sur cet étiquetage. Les politiques, français et européens, avancent que les protagonistes ne sont pas tombés d’accord et qu’ils ne peuvent donc pas légiférer. Les industriels continuent de gagner du temps. Le lobby agro-alimentaire demande même que les nanos mises sur le marché depuis plus de dix ans ne soient pas inclues dans l’étiquetage obligatoire, au prétexte de « ne pas inquiéter inutilement les personnes qui en ont consommés »

L’enjeu sur l’étiquetage est d’exiger que soit également indiquée la toxicité des nanos. Que le consommateur sache si le produit risque de réduire la fertilité, d’entraîner des cancers, des mutations génétiques… Comme sur les paquets de tabac et les pesticides. Sans cette indication-là, les gens s’en fichent. Le danger doit être annoncé.

Comment réagissez-vous à l’annonce de la ministre de l’Écologie, Ségolène Royal, de demander à l’Union européenne le 17 décembre une stratégie d’étiquetage des produits de consommation courante contenant des nanomatériaux ?

Le gouvernement français, depuis l’arrivée massive des nanos sur le marché, se positionne avant tout en soutien des nanos. Les budgets publics accordés en témoignent : plus d’un milliard d’euros par an de soutien aux producteurs, rien qu’en France… Alors même que la recherche sur la toxicité des nanos représente à peine 1 à 2 % du budget, et que les connaissances toxicologiques acquises ne sont même pas prises en compte !

Malgré la multiplication des rapports alarmants sur les dangers des nanos, rien ne se passe en matière de prévention, et les gouvernements continuent de subventionner massivement les nanos. Comment expliquez-vous ce décalage ?

Chaque gouvernement prend prétexte de la crainte d’être dépassé par les pays concurrents. Le même argument que sur le nucléaire à une époque, ou sur les pesticides dont on voulait nous persuader qu’ils rendaient notre agriculture plus performante ! Tous les pays sont aujourd’hui lancés dans la course aux nanotechnologies, présentées comme un progrès scientifique incontournable. L’enjeu financier est dément. L’important retour sur investissement des nanos sur les marchés est doublé d’un effet d’aubaine lié aux généreuses subventions publiques. Tout cela en pleine période de restriction budgétaire…

In fine ce sont les plus grandes multinationales qui bénéficient de cet argent public, par le jeu de leurs filiales et des laboratoires de recherche avec lesquelles elles travaillent. Mc Donalds, Danone, Kellog’s, Nestlé, Mars, pour ne citer que les groupes les plus connus, profitent de cette course folle dans laquelle les États et les collectivités locales sont devenus eux-mêmes investisseurs. Les lobbies industriels obtiennent ce qu’ils veulent en faisant croire que ce sont les nanotechnologies qui vont assurer notre compétitivité internationale et les emplois de demain.

Les décideurs politiques décident très vite avec très peu de recul sur les dossiers. Leur ignorance en santé publique leur fait négliger toute prévention. Lorsque vous leur parlez d’épidémiologie ou de toxicologie, ils sont largués. Le principe de précaution, mis à part chez certains élus écologistes, n’est absolument pas intégré dans leur culture. Ils sont sous l’effet permanent de lobbyistes et de think tanks qui leur font croire que si l’on applique le principe de précaution, l’économie française sera paralysée… Les décideurs politiques croient que les craintes sanitaires relèvent du domaine de l’irrationnel et des émotions populaires. Le niveau de culture en santé publique de la plupart d’entre eux est nul et ils ne voient donc dans la prévention qu’une source de dépenses inutiles.

La course aux nanos recèle un aspect moins connu : les enjeux militaires… Avec quelles visées ?

Je le décris précisément dans mon ouvrage : tous les pays riches – États-Unis, Japon, Chine, Europe, y compris la France… – sont impliqués dans la course aux nano-armements. Outre l’exemple de la nano-libellule, dont l’armée française veut équiper les fantassins pour pister les ennemis, les nanotechnologies permettent de perfectionner les armes, d’accroitre leur légèreté, leur robustesse, leur puissance de destruction, etc. L’armée renforce aussi les alliages des avions, des tanks, les vêtements des soldats.

Les armes chimiques désormais interdites par un traité international sont en passe d’être remplacées par les diffuseurs de nanotoxiques. C’est de la chimie sauf qu’ils ont changé le mot… C’est d’une hypocrisie totale ! D’autant que ces armes, tels que les brouillards nano-chimiques, sont infiniment plus redoutables que les armes chimiques « conventionnelles ». Elles sont déjà expérimentées en laboratoire mais il est très difficile de savoir si l’on en est au stade de la production massive. L’opacité est complète sur les stocks. Les spécialistes militaires que j’ai interrogés sont eux-mêmes très inquiets, notamment sur les usages que des terroristes pourront en faire. Les nanos mettent à la portée de n’importe quel groupe des armes redoutables avec des possibilités de contamination inouïes. Le contenu d’une cuillère à café peut suffire à empoisonner des millions de gens d’un coup.

Que retirez-vous de cette enquête ?

Au début, de la sidération. Puis la certitude que nous devons tous agir pour stopper cette folie. Nous allons laisser à nos enfants ce que l’on peut imaginer de pire. Je n’ai jamais vu un tel abandon devant des produits aussi documentés sur le plan toxicologique. Ce que l’on connaissait dans les années 90 en toxicologie des nanoparticules non produites intentionnellement – les nanoparticules de diesel ou des fumées industrielles par exemple – aurait dû entrainer l’interdiction de la mise sur le marché de nanos non testées. On ne l’a pas fait. Les producteurs affirment que si la substance classique équivalente (non nano) est autorisée, il n’y a pas de raison de refaire des tests. Or, la dimension nano change tout. Nous sommes revenus à la préhistoire de la prévention. Jamais on aurait pu imaginer un tel retour en arrière.

La politique d’évaluation est paralysée face aux nouvelles particules qui continuent d’arriver chaque semaine sur le marché. On voit à quel point les lobbyistes industriels sont capables de neutraliser l’action politique. Ils continuent à dire qu’il n’y a aucune certitude que ce qui se passe en laboratoire se passera dans la réalité. Or, la réalité est plus redoutable : il y a une accumulation d’expositions, de synergies entre les produits, d’effets des petites doses à moyen et long terme. Les gouvernements n’ont tiré aucune leçon des scandales sanitaires précédents, ils n’ont fait qu’apprendre à mieux fuir leur responsabilité au nom de la mondialisation et de la performance.

Comment agir pour que la santé publique ne soit plus une variable d’ajustement ?

Ce qui a été possible pour d’autres substances l’est aussi pour les nanos. Il serait stupide de partir perdant. Parmi les armes à notre disposition, il y a le choix de ce que nous consommons. Si une petite partie seulement des consommateurs refuse des produits contenant des nanos, vous verrez tous les industriels reculer. Il suffit de 5 à 10 % de consommateurs qui évitent des produits pour réduire assez la marge sur laquelle les grands groupes réalisent leurs profits. Au point de rendre les nanos moins rentables que d’autres investissements. Le pouvoir du consommateur est énorme.

Et puisqu’il s’agit d’une compétition internationale, il faut une convention internationale. Nous l’avons obtenue sur le mercure en 2013 grâce à la mobilisation des ONG : environ 150 pays ont signé la convention de Minamata interdisant tous les usages du mercure d’ici 2020. Ce rapport de force sur une substance aussi utilisée était inimaginable il y a quelques années. On peut obtenir une convention sur les nanos et interdire les plus dangereuses. Il faut agir vite. Comme l’a dit récemment le directeur de l’Agence française de sécurité sanitaire de l’environnement et du travail (Afsset), « dans dix ans il sera trop tard ». Réveillons-nous ! Plus je prends conscience de l’énormité du problème, plus je vois la nécessité de refuser ces nanos en bloc. C’est ce que préconise d’ailleurs l’association Pièces et Main d’œuvre, qui rappelle que les nanos sont un marché imposé par des géants économiques au mépris de la démocratie et du vivant.

Propos recueillis par Sophie Chapelle
@Sophie_Chapelle sur twitter

- Voir tous les articles de Basta ! sur les nanotechnologies

Roger Lenglet, Nanotoxiques, Éditions Actes Sud, 2014. Pour le commander dans la librairie la plus proche de chez vous, rendez-vous sur lalibrairie.com


Photo de une : laboratoire stérile du Centre pour les nanotechnologies à Londres / CC UCL Mathematical and Physical Sciences

Photo de spirales de nanofibres de dioxyde de titane : CC / Kunal Mukherjee

Photo d’un drone papillon. Source

Notes

[1Roger Lenglet, philosophe et journaliste d’investigation, est l’auteur de nombreux livres d’enquête sur la santé, l’environnement, la corruption et le lobbying. Il est notamment auteur avec Marie Grosman de Menaces sur nos neurones. Alzheimer, Parkinson… et ceux qui en profitent (lire notre entretien). Il est membre de la Société française d’histoire de la médecine.

[2L’amiante était surtout placée dans des matériaux de construction et de protection anti-incendie, certains textiles, des joints de fours, les freins des véhicules et des systèmes de chauffage.

[3La production intentionnelle relève de l’ingénierie industrielle.

Guy Dreux : « L’école est au service du capitalisme »

Par Sonia

14/05/2014

Source : http://www.lutopik.com/article/ecole-au-service-du-capitalisme-guy-dreux

guydreux.gifGuy Dreux est enseignant de sciences économiques, membre de l’Institut de recherches de la FSU (Fédération syndicale unitaire de l’enseignement, de la recherche et de la culture) et co-auteur de La nouvelle école capitaliste sortie en 2011 aux éditions de La Découverte. Il nous explique comment l’école est devenue un outil au service du capitalisme, encourageant l’enseignement de « savoirs utiles » aux détriments d’un bagage culturel commun.

Qu’appelez-vous la nouvelle école capitaliste ? Qu’est-ce qui la caractérise ?

La nouvelle économie capitaliste fait référence au livre de Beaudelot et Establet publié en 1971 : L’école capitaliste en France. Dans cet ouvrage, les deux sociologues expliquaient que l’école de leur époque fonctionnait à la sélection et que cette sélection reposait sur la division du travail. Pour schématiser, le capitalisme avait besoin de 25 % de cadres et 75 % d’ouvriers et l’école y répondait en instituant deux filières : le primaire/professionnel et le secondaire/supérieur. Leurs travaux interrogeaient le fonctionnement de l’école dans le cadre d’une sociologie générale. C’est cette méthodologie que nous avons choisie de reprendre pour étudier l’école d’aujourd’hui.

La nouvelle école capitaliste s’inscrit aussi dans la continuité des travaux de l’institut de la FSU qui avait publié en 2002 Le nouvel ordre éducatif mondial avec une ambition simple : interroger quatre grandes institutions (OCDE, OMC, Banque mondiale et Commission européenne) sur l’école. Nous avions été relativement surpris de constater que toutes portaient un regard très attentif sur l’école, et adoptaient les mêmes modes d’interrogation pour conclure sur des prescriptions communes. Les quatre proposaient toutes des analyses néolibérales. On a donc voulu comprendre plus précisément comment cela se manifestait en France. Or, les années 2000 ont été une période très prolixe en réformes de l’école, que ce soit au niveau des programmes, du recrutement des enseignants, de l’introduction du management, en primaire comme à l’université. Notre ouvrage décrit la manière dont on peut rendre compte de ces réformes inspirées par une même philosophie politique : il apparait de plus en plus explicitement l’idée que l’école doit devenir un facteur de croissance et de compétitivité économique ! C’est écrit noir sur blanc dans les textes européens. La Stratégie de Lisbonne, définie en 2000, donnait ainsi à l’Europe l’ambition de devenir en 2010 « l’économie de la connaissance la plus compétitive du monde ». On entre ainsi dans le capitalisme de la connaissance c’est-à-dire un capitalisme qui ne considère la connaissance que comme support et moyen de profits. C’est là le cœur du problème. Evidemment cette tendance générale est rarement assumée, exprimée clairement par les gouvernements qui la mettent en œuvre ; mais elle est la ligne directrice de toutes les réformes depuis vingt ans. Le capitalisme tente de plus en plus d’ordonner l’école.

Vous écrivez que « l’école est désormais sommée de se rendre économiquement utile ». Mais est-ce vraiment nouveau ?

En partie. Dans les années 60/70, Bourdieu avait montré que l’école reproduisait déjà les inégalités sociales. Mais il parlait alors des résultats ou destinées scolaires des élèves, et l’école, selon lui, cherchait encore à dispenser un savoir universel et surtout autonome. Ce qui est nouveau, ce n’est donc pas qu’elle soit reproductrice des inégalités sociales, comme le montre bien le rapport PISA (voir encadré) mais que, comme d’autres grandes institutions publiques, elle soit sommée de devenir rentable, de se soumettre aux exigences de compétitivité et de rentabilité. Pour que le système éducatif soit efficace, on considère désormais que tous les établissements doivent être en concurrence, et ce à tous les niveaux. En témoigne le fait qu’on s’est habitué à ce que l’administration centrale dresse des palmarès entre établissements scolaires. L’idée qu’il existe une obligation de résultats, et non plus « seulement » une obligation de moyens s’est répandue dans l’ensemble des services publics.

L’autre nouveauté concerne les contenus qui sont, pour partie, revisités à l’aune des exigences du marché du travail. De plus en plus, ce qui est enseigné doit être défini non pas comme un bagage culturel que devrait avoir un individu pour vivre pleinement dans notre société, mais comme des savoirs utiles. Et, in fine, c’est le marché du travail qui fixe l’utilité ou l’inutilité des savoirs. Ce n’est plus une communauté savante autonome qui s’accorde sur ce qui devrait être enseigné ; les programmes scolaires doivent intégrer ce qui semble aujourd’hui utile pour l’avenir professionnel des élèves. Notre rapport à l’école se transforme : on ne fréquente plus une institution scolaire pour acquérir une culture commune mais pour constituer, chacun pour soi, notre capital humain utile sur le marché du travail. L’école a perdu une partie de son autonomie, c’est-à-dire de sa capacité à faire vivre en son sein des valeurs qu’elle a elle-même choisies. C’est là, une transformation majeure.

L’expression de Nouvelle école capitaliste désigne cette évolution, cette tendance lourde. Si l’intégralité de l’école ne fonctionne pas exactement ou pas encore comme cela, les réformes successives ne cessent de nous rapprocher de cet « idéal-type ». Par exemple, quand Mme Fioraso, ministre de l’enseignement supérieur, dit qu’il faut diffuser l’esprit d’entreprise dès la maternelle et qu’elle vante l’autonomie des universités, cela correspond parfaitement à ce que nous décrivons.

Vous dénoncez l’instauration d’une logique de compétences aux dépends d’une logique de connaissances. Pourtant, n’est-ce pas un facteur de réduction des inégalités sociales ?

Cela dépend de quoi on parle. Qui parle de logique de compétences ? Pendant longtemps, les courants pédagogiques de gauche considéraient que le travail scolaire relevait trop de l’implicite, ce qui lésait les catégories sociales défavorisées. Ils ont donc développé l’idée qu’il fallait expliciter le travail scolaire et pour cela adopté de nouvelles logiques, qu’ils ont développées en usant du terme de compétences.

Mais dans les années 90, une autre acception du terme a été développée par les institutions patronales qui critiquaient les conventions collectives imposant un niveau de salaire associé au niveau de diplôme. Pour le patronat, le salaire vient récompenser, certes, une qualification certifiée par un diplôme mais, aussi, un comportement, un savoir-faire ou savoir-être, bref des « compétences » qui ne sont pas repérables par les diplômes. Il a donc fait pression pour que les diplômes reflètent plus directement les compétences attendues sur le marché du travail.  C’est dans ce sens que l’on a demandé aux programmes scolaires d’expliciter les compétences mises en œuvre pour chaque enseignement.

Comment mettre un terme à cette évolution ?

Mettre des mots sur ces transformations est déjà important mais ça ne peut pas être suffisant. Il faut faire le contraire de ce que l’on fait. La nouvelle école capitaliste instaure un rapport de plus en plus privatisé à l’obtention du savoir. Or, plutôt que de travailler à la privatisation, il faut réintroduire du commun dans l’école et créer une « nouvelle école démocratique », qui doit être basée sur la constitution d’une culture commune qui relie les individus les uns aux autres. Les voies alternatives reposent sur le fait qu’une communauté scolaire ou scientifique reprenne la main sur les programmes, et sur le fait que les institutions scolaires devraient être plus démocratiques. Il faut arrêter de penser que toute notre existence doit être orientée vers l’activité économique. Notre espoir, c’est qu’il y ait de plus en plus de personnes qui acceptent d’appréhender la question scolaire dans un cadre plus général donc de réorganiser notre système entier. Autrement dit, il faut que l’école redevienne une question politique et sociale à part entière. Enfin, il faudrait cesser d’en demander autant à l’école.

Quelles sont les freins à un changement radical ?

Les difficultés sont de plusieurs ordres. Les inégalités sociales sont une réalité désespérante et le monde des enseignants est maltraité. Beaucoup d’enseignants doutent de leurs capacités à être entendus y compris par un gouvernement de gauche. De plus, les nouveaux dispositifs n’ont pas fait leurs preuves. Par exemple les livrets de compétence ont nécessité beaucoup de travail pour peu de résultats pédagogiques. Les réalités sont cruelles et il y a un doute profond sur le modèle qu’on nous vend. Il existe aujourd’hui un paradoxe qui n’est d’ailleurs pas propre à la France : beaucoup d’enseignants doutent de l’évolution actuelle de l’école mais ne réussissent pas à retrouver les voies d’une véritable « refondation ». Il faut dire que la tâche est immense.


Le rapport PISA

Tous les trois ans, l’OCDE publie le rapport PISA qui classe les systèmes éducatifs de chaque pays. Le dernier rapport est sorti en 2013 ; la France se retrouve à la 25ème position sur 65 pays pour l’apprentissage des mathématiques, considéré comme la matière clé en ce qui concerne la faculté des jeunes adultes « à suivre des études post-secondaires et sur leurs perspectives financières une fois dans la vie active ». Surtout, PISA montre que la France a l’une des écoles les plus inégalitaires qui soient. Bien qu’elle n’apporte pas d’informations nouvelles, cette étude a été largement commentée par le gouvernement et les médias. Mais « personne ne s’est posé la question de savoir pourquoi l’OCDE s’intéressait à l’éducation », note Guy Dreux. « Pourtant, ce qui est intéressant avec cette étude et son utilisation politique, c’est qu’elle contribue à la diffusion d’un modèle d’école qui est de plus en plus au service des besoins du marché du travail. Au-delà de statistiques recevables, le palmarès n’a pas lieu d’être. On se donne les outils statistiques dont on a envie », estime-t-il.

Propos recueillis par Sonia

Dessin : Stouff

Cet article est tiré du dossier « Pour une école émancipatrice« , paru dans le magazine papier numéro 3 sorti en mars 2014. Pour commander ce numéro, c’est ici

Réputation et transhumanisme : Google devient-il sans le dire un « Dr Jekyll et Mr Hyde » ?

Par Olivier Cimelière

09/05/2014

Source : http://www.leblogducommunicant2-0.com

Depuis quelques années, Google effectue des acquisitions très ciblées aux antipodes de ce qui constitue son ADN initial, à savoir l’indexation des contenus du Web et sa mise à disposition à travers diverses plateformes de diffusion comme YouTube, Android et Google +. Ces incursions d’un autre genre au croisement de la biotechnologie, de l’intelligence artificielle et de la robotique sont motivées notamment par la philosophie transhumaniste dont les deux fondateurs de Google sont proches. Pourtant, rien ou presque dans la communication corporate de l’entreprise ne s’attarde vraiment sur ces chantiers loin d’être superfétatoires. A ne rien laisser filtrer sur ses intentions exactes, Google risque-t-il un jour d’affronter un renversement d’image encore plus problématique que les controverses actuelles qui lui collent aux basques sur la protection des données persos et l’optimisation fiscale à tout crin ? Réflexions sur des signaux faibles dont il faudrait tenir compte.

Pour le quidam moyen, Google est un puissant et très pratique moteur de recherche sur Internet. Pour le technophile plus averti, Google est un prolifique incubateur de nouvelles technologies d’où sont sortis par exemple le système d’exploitation mobile Android, le navigateur Web Chrome mais aussi des projets plus fantasques comme la Google Car qui se conduit toute seule ou le projet Loon qui vise à fournir une connectivité ultra haut-débit pour les zones rurales grâce à des ballons stratosphériques. Pour les consommateurs, Google est aussi la ludique plateforme vidéo YouTube, l’incomparable cartographie visuelle StreetView et Earth ou encore la messagerie électronique Gmail. La liste est loin d’être exhaustive. Pour tous, c’est un champion hors catégorie à la trésorerie illimitée grâce à la manne publicitaire en ligne encaissée par le géant de Mountain View.

Google aujourd’hui : quelle perception ?

Transhumanisme - Google ecosystemCette vision est précisément celle qui forge et alimente aujourd’hui la réputation de Google. Une entreprise qui fascine indubitablement par son insondable capacité à multiplier les innovations numériques tout en élargissant sa présence dans de multiples secteurs économiques de manière plutôt disruptive. Mois après mois, le géant de Mountain View devient le poumon incontournable de divers écosystèmes. Il y a les marques vedettes comme YouTube, Chrome, Android mais aussi une cohorte de services toujours plus pointus comme par exemple Wallet, un système de paiement électronique sur mobile adopté actuellement par 10 millions d’utilisateurs (1). En janvier 2014, Google a ainsi posé le pied dans un nouvel univers en rachetant le fabricant de thermostats connectés Nest Labs pour 3,2 milliards de dollars (2). Spécialisée dans les produits intelligents pour la maison, cette start-up permet à Google d’entrer puissamment dans l’univers prometteur de la domotique.

Evidemment, cette ubiquité qui ne cesse de proliférer, ne manque pas de faire grincer des dents. Les acteurs traditionnels des secteurs pénétrés par Google se rebiffent et accusent ce dernier de position dominante et de tuer la concurrence à petit feu, notamment en manipulant l’algorithme du moteur de recherche qui favoriserait selon eux les produits et les services concoctés à Mountain View et dans les autres centres R&D de Google. D’autres s’agacent du non-respect des droits intellectuels comme dans le secteur de l’édition, de la télévision, de la culture et du manque à gagner induit par ces pratiques. Quant aux autorités politiques, elles ferraillent sans relâche contre la vision cavalière de Google au sujet de la collecte des données personnelles mais également sur l’astucieuse tuyauterie d’optimisation fiscale de Google d’où s’évaporent (en toute légalité) des montants dont les caisses des Etats seraient bien preneuses en ces temps d’économie troublée.

Une communication soigneusement pesée et séductrice

Face à ces multiples herses que les médias ne manquent pas de relayer à intervalles réguliers, Google ne reste pas sans réaction. Les dirigeants de Mountain View ont bien compris que le bras-de-fer peut temporairement aider à poser les jalons et gagner du terrain mais aussi qu’à un moment donné, le registre doit cultiver d’autres cordes thématiques. La première d’entre elles est la corde historique de la magie des produits Google et le discours enchanteur qui va de pair à l’intention des utilisateurs. Chez Google, toutes les énergies sont officiellement mobilisées vers la praticité, l’efficacité et le plaisir des expériences avec les services du géant du Web. Pour s’en convaincre, il suffit de regarder l’actuelle campagne de publicité pour Chromecast diffusée sur les chaînes de télévision française. Force est de reconnaître que les outils mis à disposition sont incroyablement géniaux et d’une puissance rarement égalée.

Transhumanisme - GoogleplexEnsuite, Google sait cultiver et adoucir son image lorsque le contexte d’un pays l’exige. La deuxième corde activée est celles des partenariats technologiques avec des pépinières et des initiatives à but non lucratif pour apaiser les tensions et montrer au final que l’entreprise sait aussi se montrer citoyenne dans ses contrées d’adoption. Un emblématique exemple de cette approche est le Google Art Project avec des musées un peu partout dans le monde. Ces derniers disposent gracieusement des technologies de Google pour numériser des œuvres issues de leurs collections et permettre ensuite des visites virtuelles en haute définition sur Internet. Une recette que Google a déclinée à nouveau en 2013 pour la presse française avec laquelle elle était en conflit financier. Un fonds doté de 60 millions d’euros sur trois ans a ainsi vu le jour pour « trouver de nouveaux modèles d’affaire par l’innovation » (3) pour les sites d’info en ligne.

Autre atout d’image largement exhibé par Google : les conditions de travail « fun » en vigueur dans les bureaux et les Googleplexs. On ne compte effectivement plus les reportages sur l’ambiance « cool » des bâtiments aux couleurs vives où chaque employé peut se relaxer quand il veut en allant disputer une partie de Playstation, méditer au calme devant un aquarium reposant, se faire masser, jouer de la guitare électrique ou se sustenter dans les cantines et kitchenettes regorgeant de victuailles pour tous les goûts. Un pari payant puisque Google truste les distinctions RH et reste plébiscité par les moins de 40 ans. Tout récemment, Google a réactivé le filon en médiatisant largement celui qu’on surnomme « le chic type de Google » (4), Chade-Meng Tan. Auteur d’un programme de méditation best-seller, l’ex-programmeur donne des conférences itinérantes dans les locaux de Google sur la nécessaire empathie managériale !

Pendant ce temps-là, un autre agenda …

L'un des fameux robots de guerre de Boston Dynamics

Aujourd’hui, c’est véritablement ce fond d’image qui prévaut largement dans le traitement médiatique de Google et dans sa perception par l’opinion publique. La tonalité n’y est certes pas toujours sympathique et la polémique constamment en train d’affleurer. Néanmoins, les débats se cristallisent avant tout autour de la domination de Google et l’empire sans cesse en expansion que ce dernier tisse sur la Toile. Pourtant, en parallèle de cette profusion d’innovations technologiques et de partenariats divers, Google pousse également ses pions dans des domaines moins connexes au pur code informatique. Depuis deux ans, l’entreprise a en effet accru significativement son implication dans trois marchés bien spécifiques : l’intelligence artificielle, la robotique et la biotechnologie avec pour cette dernière un objectif de repousser la mort et les maladies !

Assez étonnamment, les médias ne s’en sont globalement que peu fait l’écho hormis quelques entrefilets çà et là. De même, il est bien ardu de trouver des informations détaillées sur les sites et blogs officiels de Google au sujet de ces chantiers d’un genre nouveau mais loin d’être négligeables. Pourtant, dans le domaine de l’intelligence artificielle, Google a fait un sacré bond en à peine un an en mettant successivement la main sur la start-up canadienne DNNresearch qui travaille dans les neurosciences et la start-up britannique DeepMind acquise pour 500 millions de dollars (5). En vue d’améliorer la puissance de son moteur de recherche, Google s’intéresse effectivement depuis un certain temps à la compréhension des schémas neuronaux humains et à leur réplication informatique dans une machine capable d’apprendre par elle-même.

Or, l’histoire ne s’arrête pas à l’amélioration scientifique du célèbre algorithme Google. Dans le même temps, Mountain View a mis le paquet pour racheter neuf sociétés de robotique (6) dont Boston Dynamics, connu pour les robots mis au point pour l’armée américaine, et Atlas pour son humanoïde bipède utilisable dans les situations de catastrophes naturelles. Enfin, troisième pan de l’agenda : l’accélération dans les biotechnologies et notamment le séquençage de l’ADN humain. En 2007, Google avait déjà investi 3,9 millions de dollars (7) dans 23andMe, une start-up dirigée par l’ex-femme d’un des deux fondateurs et visant à analyser le code génétique pour dépister les risques de maladies. En septembre 2013, le géant du Web frappe fort en annonçant la création de Calico. Financée par Google et dirigée par Arthur D. Levinson (actuel CEO de Genentech, un leader mondial en biotechnologies), la start-up vise ni plus ni moins à repousser la mort grâce à une connaissance encore plus fine de l’ADN.

Une autre image corporate se dessine

Transhumanisme - tableauLoin d’être un scénario farfelu d’amateurs de science-fiction, les avancées de Google se sont également traduites par l’arrivée d’experts aux profils suffisamment explicites pour comprendre que Google devient autre chose qu’un simple géant numérique. Fin 2012, c’est d’abord Ray Kurzweil qui rejoint Google pour travailler sur « l’apprentissage automatisé et le traitement du langage » (8). En avril 2014, c’est Cynthia Kenyon, une autre ponte de la science qui est venue renforcer les projets de Google en rejoignant Calico avec son immense bagage sur les mutations génétiques étudiées à l’Université de Californie à San Francisco.

La figure de Ray Kurzweil est particulièrement symbolique de ce virage amorcé par Google. L’homme est en effet considéré comme le gourou du transhumanisme. Ce terme s’est répandu dans les années 90 à mesure que les nanotechnologies, la biologie génétique, l’informatique et les sciences cognitives ont commencé à converger sur des recherches communes et le concept d’« homme augmenté ». Chirurgien et président de DNA Vision, Laurent Alexandre résume cette philosophie (9) : « Les transhumanistes soutiennent une vision radicale des droits de l’humain (…) Selon eux, l’humanité ne devrait avoir aucun scrupule à utiliser toutes les possibilités de transformation offertes par la science (…). L’homme du futur serait ainsi comme un site Web, à tout jamais une « version béta », c’est-à-dire un organisme-prototype voué à se perfectionner en continu. Cette vision pourrait sembler naïve. En réalité, un lobby transhumaniste est déjà à l’œuvre des NBIC pour changer l’humanité ».

Ce courant de pensée touche de surcroît particulièrement les deux fondateurs de Google, Larry Page et Sergey Brin. En 2013, le premier a expliqué sur sa page Google + qu’il souffrait d’une paralysie partielle des cordes vocales. Quant au second, il est connu pour être génétiquement prédisposé à la maladie de Parkinson. Or, Google est précisément un des gros soutiens financiers de la Singularity University de Ray Kurzweil qui promeut cette vision futuriste d’un homme aux capacités décuplées par la technologie.

Quelles conséquences sur la réputation de Google ?

Transhumanisme - Time coverPour l’instant, peu de personnes ont réellement conscience de ce visage un peu science-fictionnesque de Google. Pourtant, il n’a rien de délirant. En janvier 2014, Google a d’ailleurs annoncé une avancée très concrète sous la forme d’une lentille oculaire intelligente. Celle-ci permettra de surveiller certains aspects du corps humain comme le niveau de glucose pour les diabétiques et d’envoyer instantanément l’information à un ordinateur. L’hybridation entre l’ordinateur et l’humain n’est donc pas une lubie mais véritablement un nouveau terrain de développement technologique dont Google a finement perçu les perspectives et les enjeux.

Là où la problématique pourrait dans un proche avenir se corser, c’est que Google n’est pas pour autant d’une grande prolixité sur le sujet. Sur ses sites Web et ses blogs, il est quasiment impossible de trouver trace de contenus évoquant ouvertement ces projets transhumanistes. Excepté quelques concessions ponctuelles comme le récent reportage inédit du magazine américain Fast Company dans les locaux du très secret Google X Lab, le géant de Mountain View ne se montre guère bavard sur ce puzzle qu’il assemble à travers ses récents investissements financiers en intelligence artificielle, robotique et biotechnologie.

C’est là un piège potentiellement très crisique pour la réputation de Google. Dans une société contemporaine dominée par la défiance et un certain sentiment conspirationniste plutôt florissant, continuer à œuvrer à l’abri des regards revient à s’exposer au soupçon et in fine au rejet radical. Pour Google, l’équation est d’autant plus cruciale que son image est déjà quelque peu écornée en matière de respect de la vie privée et des données personnelles depuis l’affaire Snowden. Or, on le voit actuellement avec les Google Glass. Si les thuriféraires inconditionnels de gadgets technos sont volubiles et enthousiastes, les réticences se font jour de manière croissante devant ces bésicles plutôt intrusives. Pour le moment, Google poursuit sur sa ligne corporate du « monde meilleur grâce à Google » pour se justifier. Pas sûr que cela suffise à lever les doutes, vaincre les peurs et faire accepter les changements. Surtout lorsqu’on parle d’un être humain qui pourrait bientôt être capable de fonctionner comme un algorithme !

Sources

(1) – Gilles Fontaine – « Google sans limites » – Challenges – 30 avril 2014
(2) – Sarah Belouezzane – « Google fait la troisième grosse acquisition de son histoire » – Le Monde – 15 janvier 2014
(3) – Amaury de Rochegonde – « Dix-neuf titres bénéficiaires » – Stratégies – 9 janvier 2014
(4) – Chrys Ayres – « Le gourou de Google » – Le Parisien Magazine – 18 avril 2014
(5) – Rishona Campbell – « Google’s acquisition of DeepMind hints to more intelligent web searches » – Dashburst – 13 février 2014
(6) – Ash K ; Casson – « Step inside the incredible world of Google’s semi-secret Californian facility » – Herald Scotland – 2 mai 2014
(7) – Paul Loubière – « Et Google refait le monde à son image … sans limites » – Challenges – 30 avril 2014
(8) – « Kurzweil joins Google to work on new projects involving machine learning and language processing» – Kurzweil Accelerating Intelligence – 14 décembre 2012
(9) – Laurent Alexandre – « Google et les transhumanistes » – Le Monde – 24 avril 2014