Les scientifiques japonais étudient la faune et la flore des forêts contaminées.

Source : http://www.vivre-apres-fukushima.fr/les-scientifiques-japonais-etudient-la-faune-et-la-flore-des-forets-contaminees/

10 Janv 2016

Mais ils se refusent à conclure avant encore 5 ou 6 ans.

Traduction (par vivre-après-fukushima) d’un article de l’Asahi Shimbun daté du 22 Décembre 2015.

Plus de 90% des sapins proches du site de la catastrophe nucléaire de 2011 présentent des anomalies; et des spéciments de pucerons collectés dans une ville distante de plus de 30 km de la centrale détruite ont des pattes tordues ou absentes.

Mais il reste difficile de savoir si les mutations des plantes et animaux sont effectivement en relation avec la catastrophe de la centrale nucléaire Fukushima N°1.

Tout ce que les scientifiques japonais acceptent de dire c’est qu’ils essaient de comprendre les effets du césium radioactif libéré avec d’énormes quantités de matières radioactives par la triple fusion à la centrale de Fukushima, déclenchée par le tremblement de terre et le tsunami du grand Est japonais.

Ils cherchent à savoir comment le césium radioactif s’est diffusé dans les forêts et le sol des zones proches de la centrale accidentée, accompagné de signes de mutations chez les plantes et les animaux.
Comprendre comment le césium et d’autres particules radioactives se sont propagés après la catastrophe est une clef pour comprendre les conséquences du pire accident nucléaire survenu au Japon.

Ces recherches concernent fortement ce à quoi les autorités et les habitants peuvent s’attendre en cas de nouvel accident.
Elles fournissent également des informations précieuses aux évacués lorsqu’ils pèsent le choix de refaire leur vie près de la centrale détruite.

LIRE LA SUITE

Terres nucléaires : Une histoire du plutonium

Réalisation : Kenichi Watanabe

 

  • Origine : ARTE F
  • Pays : France
  • Année : 2015

Source : http://www.arte.tv

À travers trois lieux dominés par des sites nucléaires, Hanford aux États-Unis, La Hague en France et Rokkasho au Japon, une histoire édifiante du plutonium et de ses usages, à la croisée d’intérêts économiques et militaires.


ALTERNATIVE PLAYER

Le cerveau ne pense pas tout seul

Par Evelyne Clément, Fabrice Guillaume, Guy Tiberghien et Bruno Vivicorsi

09/2014

Source : http://www.monde-diplomatique.fr

Les progrès de l’imagerie cérébrale ont réactivé un vieux fantasme : celui de pouvoir tout expliquer par l’observation du cerveau — la pauvreté, la délinquance, l’échec scolaire… Lourde de dérives potentielles, cette illusion repose sur de fausses évidences.

A la fin des années 1980, la convergence des progrès en physique nucléaire et en informatique a permis l’avènement de l’imagerie par résonance magnétique fonctionnelle (IRMf) et le développement spectaculaire des neurosciences cognitives, c’est-à-dire l’étude des mécanismes neurobiologiques de la cognition et de ses dysfonctionnements, le terme de cognition étant ici entendu comme quasi synonyme de pensée. Entre cinq et huit articles se référant à l’IRMf paraissent désormais chaque jour dans les revues scientifiques internationales. Certains auteurs bénéficiant de relais médiatiques importants laissent entendre que l’imagerie cérébrale permettrait de lire dans nos pensées, de deviner nos préférences politiques, de prédire nos compétences sociales et de dévoiler notre personnalité (1).

Près de trois siècles après que le célèbre anatomiste de la Renaissance André Vésale eut situé l’esprit dans le cerveau, Franz Joseph Gall (1758-1828) proposa de le décomposer en facultés localisées dans des régions cérébrales spécifiques. Cette doctrine, la phrénologie, se propagea en Europe et aux Etats-Unis tout au long du XIXe siècle. Elle joua un rôle déterminant dans la psychotechnique, la science de l’application pratique de la psychologie, dans les débuts de la criminologie et de la police scientifique. Cesare Lombroso (1835-1909), fondateur de l’école italienne de criminologie, défendra ainsi sa thèse du « criminel né » (1876), et Alphonse Bertillon (1853-1914) inventera l’anthropométrie judiciaire.

La croyance en l’association d’une région cérébrale propre à chaque faculté psychologique et d’une « bosse » correspondante sur la boîte crânienne (dont la célèbre « bosse des maths ») a bien été invalidée. En revanche, l’hypothèse d’une dissociation possible de l’esprit en composants élémentaires correspondant à des substrats cérébraux spécifiques persiste. Là où l’indispensable neuro-imagerie médicale identifie les anomalies anatomiques du cerveau, permettant de diagnostiquer une lésion ou une tumeur, la neuro-imagerie cognitive, née de la rencontre avec la psychologie cognitive, s’efforce d’associer l’activité des régions cérébrales aux processus mentaux. Au lieu de palper les crânes, on localise maintenant les variations d’activité métabolique — généralement, la consommation d’oxygène — dans les diverses régions du cerveau.

Si à toute activité humaine correspond une activité cérébrale, alors toutes les disciplines pourront bénéficier des images du cerveau, grâce à la « neuro-quelque chose » : neurosciences sociales, neuro-économie, neuromarketing, neurodroit, neuroéthique, neuroéducation, etc. Scanner les cerveaux permettrait d’évaluer les risques, de mieux comprendre les choix du citoyen, la personnalité du délinquant, les difficultés de l’élève et les décisions de l’agent économique, perspective qui ne manque pas d’inspirer chefs d’entreprise et pouvoirs publics.

Le débat scientifique est loin d’être clos sur ce que l’on peut faire dire, ou non, à une neuro-image. Pourtant, les recherches mettant directement en relation les compétences ou les catégories sociales et l’activité du cerveau se multiplient. Certaines montrent par exemple, chez des sujets issus de milieux défavorisés, une activité cérébrale similaire à celle observée chez des patients souffrant de lésions localisées dans le lobe frontal (2). D’autres soutiennent que le fonctionnement cérébral à l’âge adulte varie selon le type d’éducation parentale reçu pendant l’enfance (3). On lit aussi que l’activité de l’amygdale, une région impliquée dans la reconnaissance et l’expression des émotions, est plus importante chez les enfants ayant grandi dans un milieu défavorisé que chez les autres (4). Même la géopolitique pourrait se lire dans les scanners. Une équipe de Haïfa, en Israël, a ainsi étudié les différences d’activité cérébrale entre les membres des communautés juive et arabe face à des images évoquant la douleur (5). L’imagerie peut ainsi naturaliser les causes et l’interprétation du conflit israélo-palestinien en évitant l’analyse politique…

La fréquence des applications de l’imagerie cérébrale, « preuves scientifiques » d’un nouveau genre, a également connu une forte augmentation dans le domaine de la justice au cours de ces dix dernières années. La création de la Fondation MacArthur, porteuse du projet de recherche américain Loi et neurosciences (2007), ou encore l’initiative de la London School of Economics and Social Research, financée par l’Economic and Social Research Council (ESRC) au Royaume-Uni, en témoignent. Neuroscientifiques, philosophes et juristes examinent l’adéquation entre le droit et les connaissances obtenues à l’aide de ces techniques. Le libre arbitre ne serait donc qu’une croyance populaire archaïque déconnectée des progrès de la science… En France, la loi de bioéthique du 7 juillet 2011 autorise la production de neuro-images devant les tribunaux, déjà utilisée dans de nombreux procès à travers le monde. Il serait même envisagé de détecter les récidivistes potentiels (6).

Les investissements financiers dont bénéficie la neuro-imagerie n’ont cessé de progresser depuis les années 1990, déclarées « décennie du cerveau » par le Congrès des Etats-Unis. Lors du récent lancement du projet BRAIN (Brain Research Through Advancing Innovative Neurotechnologies), M. Barack Obama annonçait que l’on pouvait attendre un retour sur investissement conséquent pour le « décryptage du cerveau », du même ordre de grandeur que pour la cartographie du génome humain. Le programme Human Brain Project, doté de 1 milliard d’euros de budget entre 2010 et 2020, peut être considéré comme la réponse européenne à cette course hautement compétitive.

Plusieurs raisons expliquent cet engouement. L’intérêt intellectuel et scientifique est évident pour la compréhension du rapport entre le corps et l’esprit, vieil objet de questionnement philosophique. L’apparente évidence de la preuve fournie concourt d’ailleurs au succès. Pourtant, une neuro-image n’est qu’une représentation visuelle d’un ensemble de mesures complexes issues de nombreuses transformations mathématiques et reposant sur des postulats qui font encore débat parmi les spécialistes.

La neuro-imagerie repose sur un marché mondial que se partagent trois constructeurs : General Electric (Etats-Unis), Philips (Pays-Bas) et Siemens (Allemagne). Le prix moyen d’un système IRM s’établit autour de 1,5 million d’euros, et le chiffre d’affaires global à l’horizon 2015, autour de 7 milliards. Une part croissante des fonds alloués à la recherche fondamentale dans le domaine des sciences de la cognition échoit à la neuro-imagerie. En 2006, le centre d’imagerie cognitive NeuroSpin, qui a coûté 200 millions d’euros, a été inauguré à Saclay, près de Paris.

Bien que le sujet soit tabou, un tel contexte augmente le risque de petits arrangements avec la rigueur scientifique, de sélection des données, de soumission à la science-spectacle, voire de tricherie (7). Proposer des solutions simples fondées sur ces technologies complexes permet de trouver une oreille attentive auprès des pouvoirs publics ; mais affirmer que les images du cerveau démontrent la validité d’une méthode pédagogique (8), d’un modèle économique ou d’une décision de justice présente un risque de dérives idéologiques, scientifiques, politiques et sociétales. Si la délinquance, l’échec scolaire ou la pauvreté peuvent se diagnostiquer à partir de neuro-images, à quoi bon continuer, par exemple, à investir dans de coûteuses politiques d’éducation, de prévention et d’insertion sociale ?

La « preuve par le cerveau » reproduit l’illusion individualiste, c’est-à-dire la croyance selon laquelle les individus ont d’abord une existence biologiquement déterminée sur laquelle vient se greffer un historique relativement accessoire. Elle naturalise l’esprit, le faisant apparaître comme une donnée intangible sur un écran plutôt que comme le produit d’une histoire et de circonstances ; elle gomme ainsi la contribution du contexte culturel et socio-historique au développement de la pensée et des sociétés. Elle neutralise enfin la dimension subjective et autonome de la construction de l’expérience humaine, reformulée dans les termes des sciences naturelles.

Car le cerveau est le substrat matériel de notre activité mentale, mais il ne pense pas ; seule la personne pense. Et le contenu de ses pensées trouve son origine à l’extérieur du cerveau, dans son environnement interne et externe. L’image ne donne pas à voir des pensées, mais des corrélats biologiques de ce que fait un être humain quand nous disons qu’il pense : activité électrique, variation du flux sanguin, etc. Le cerveau est la condition objective de la réalité mentale, mais c’est cette réalité mentale qui le façonne. Oublier ces deux faits relève de la neuromythologie scientiste.

Evelyne Clément, Fabrice Guillaume, Guy Tiberghien et Bruno Vivicorsi

Respectivement maître de conférences à l’université de Rouen, maître de conférences à l’université d’Aix-Marseille (Laboratoire de psychologie cognitive), professeur honoraire à l’Institut universitaire de France et à l’université de Grenoble, maître de conférences à l’université de Rouen. Fabrice Guillaume et Guy Tiberghien ont publié, avec Jean-Yves Baudouin, Le cerveau n’est pas ce que vous pensez. Images et mirages du cerveau, Presses universitaires de Grenoble, 2013.

(1) Cf. par exemple Michel Alberganti, « Les neurosciences viennent à la rencontre de la psychiatrie », Le Monde, 19 septembre 2003.

(2) Rajeev D. S. Raizada et Mark M. Kishiyama, « Effects of socioeconomic status on brain development, and how cognitive neuroscience may contribute to levelling the playing field » (PDF), Frontiers in Human Neuroscience, vol. 4, no 3, Lausanne, 2010.

(3) Peter J. Gianaros (sous la dir. de), « Parental education predicts corticostriatal functionality in adulthood » (PDF), Cerebral Cortex, vol. 21, no 4, New York, 2011.

(4) Pilyoung Kim (sous la dir. de), « Effects of childhood poverty and chronic stress on emotion regulatory brain function in adulthood » (PDF), Proceedings of the National Academy of Sciences of the United States of America, vol. 110, no 46, Washington, DC, 2013.

(5) David Brooks, « The young and the neuro », The New York Times, 9 octobre 2009.

(6) Eyal Aharoni (sous la dir. de), « Neuroprediction of future rearrest » (PDF), Proceedings of the National Academy of Sciences of the United States of America, vol. 110, no 15, 2013.

(7) Cf. Pierre Barthélémy, « Doutes sur la fiabilité des neurosciences », 14 avril 2013, http://passeurdesciences.blog.lemonde.fr

(8) Gilles de Robien, « Conférence de presse sur la lecture », 5 janvier 2006, www.education.gouv.fr

 

Nanotechnologies : ces redoutables particules toxiques qui envahissent notre quotidien

Par Sophie Chapelle

17/12/2014

Source : http://www.bastamag.net

Invisibles à l’œil nu, les nanoparticules envahissent le quotidien, depuis nos vêtements jusqu’à nos assiettes, sans aucun étiquetage ni traçabilité. Malgré les nombreuses études attestant de la toxicité de certaines de ces particules, les gouvernements refusent d’appliquer le principe de précaution et investissent des milliards d’euros en recherche et développement dans les nanotechnologies. Comment repérer et se protéger de ces nouvelles molécules high-tech ? Entretien avec le journaliste Roger Lenglet, qui décrypte dans son ouvrage Nanotoxiques les dessous de cette menace pour la santé publique.

Basta ! : Les nanomatériaux sont entrés en catimini dans nos vies, dans les objets du quotidien ou de consommation courante. Pourquoi dites-vous qu’il s’agit d’une « bombe sanitaire » ?

Roger Lenglet [1] : Ces particules de dimension nanométrique posent des problèmes toxicologiques. Leur taille minuscule permet à une grande partie d’entre elles de traverser l’organisme, de se loger dans les cellules et de pénétrer dans les noyaux cellulaires contenant l’ADN. Elles peuvent avoir des effets mutagènes, cytotoxiques, cancérigènes… Certaines sont même neurotoxiques : elles traversent la barrière encéphalique qui protège le cerveau et s’attaquent aux neurones, contribuant au développement de pathologies neurologiques comme la maladie d’Alzheimer ou de Parkinson. Notre organisme n’est pas fait pour résister à ces nouvelles particules aux propriétés stupéfiantes.

Certaines d’entre elles, les nanotubes de carbone, qui comptent parmi les plus utilisées (dans les textiles, le BTP), entraînent chez les animaux, en laboratoire, le même type de pathologies que l’amiante – des cancers broncho-pulmonaires et des cancers de la plèvre. Et la réaction des nanos au contact de notre organisme est beaucoup plus grande que les particules classiques. Pour couronner le tout, leur toxicité change avec le temps, selon les milieux qu’elles traversent, ce qui ne permet même pas de se rassurer sur les types de nanos qui pourraient actuellement être jugés acceptables.

De quelles manières ces particules envahissent-elles le quotidien ?

Tous les secteurs industriels en utilisent aujourd’hui : agroalimentaire, cosmétiques, textiles, produits d’entretien, médicaments, pesticides, métallurgie, plasturgie, informatique, construction… En 2013, la France a été le premier pays à mettre en place une obligation de déclaration de production et d’importation de nanos. Mais cette déclaration exclut un certain nombre de nanos parmi les plus diffusées. Et beaucoup d’industriels se disent incapables d’identifier si leurs matières premières contiennent ou non des nanos.

Cette opacité et l’absence d’étiquetage des produits conduit à une absence de traçabilité redoutable. L’exposition de la population aux nanos est très supérieure à celle de l’amiante [2], et il est encore plus difficile de les identifier. Depuis 2008, en France, des centaines de milliers de tonnes de chaque grand type de nanos sont mises sur le marché annuellement. Et cela n’a fait qu’empirer. Avec une traçabilité proche de zéro !

Est-il possible de repérer les aliments qui contiennent des nanos dans les magasins ?

Non, pas de façon certaine, car dans les grandes surfaces, de nombreux produits contiennent des nanos sans qu’on puisse les distinguer. Mais il est possible de réduire le risque d’en manger. Par exemple en privilégiant les circuits courts, les produits bio. Car les nanos concernent avant tout les produits industrialisés : les industriels cherchent à donner à leurs aliments des saveurs et des textures nouvelles, des blancheurs plus accentuées, des effets plus colorés… Les nanotechnologies permettent d’accroître toutes sortes de propriétés, comme la fluidité des yaourts ou les anti-agglomérants dans les poudres de chocolat, de sucre ou de lait, dans les sels de table… Il faut se méfier des conservateurs alimentaires qui contiennent souvent des nanos, ainsi que des emballages. Quand vous achetez par exemple un steak ou un poulet en grande surface, il y a souvent une lingette blanche un peu cotonneuse entre la barquette et la viande. Celle-ci est imbibée de nano-argent pour éviter à la viande de devenir grisâtre et pour lui conserver une apparence de fraîcheur.

Plus on s’éloigne des produits industriels, moins on a de nanos. Mais quelques produits contenant des nanos sont déjà inclus depuis longtemps dans les circuits bio. C’est le cas notamment d’un « médicament », l’argent colloïdal, qui n’est rien d’autre que du nano-argent, généralement vendu en solution liquide. Comme c’est un bactéricide puissant, les gens sont épatés par ses effets cicatrisants quand ils en mettent sur une plaie. Certains pensent se faire du bien en buvant ces solutions. Mais la flore bactérienne est nécessaire pour notre santé, il ne faut surtout pas la détruire ! Les consommateurs doivent être plus vigilants.

Vous montrez aussi dans votre ouvrage le poids des lobbies industriels qui veulent limiter le plus possible la définition des nanoparticules…

Plus la définition sera restrictive ou tronquée, plus l’encadrement réglementaire et législatif sera limité. Et plus de nanos échapperont à tout contrôle. Au niveau européen, selon les secteurs et les rapports de force, la définition n’est pas la même. Aujourd’hui, de façon générale, ces lobbies ont réussi à obtenir que les nanos soient définies comme « toute particule de 1 à 100 nanomètres produite intentionnellement » [3]. C’est scandaleux, car la dimension nano va de 1 à 999 nanomètres. Les lobbies dans les commissions ont donc réussi à exclure 90 % des nanos, alors que certaines particules très toxiques mesurent plus de 100 nanomètres !

Mais personne ne vient contester cette définition, sauf quelques associations. Des commissions ont par ailleurs décidé de ne considérer que les nanomatériaux contenant au moins 50 % de nanoparticules. Autrement dit, les produits doivent être au moins composés pour moitié de nanos pour entrer dans le champ réglementaire. Comme s’il n’y avait pas de problème en dessous de ce seuil ! Cela est totalement absurde d’un point de vue toxicologique. Les lobbies manipulent complètement le débat pour exclure du contrôle un maximum de nanos.

Où en est-on dans la bataille de l’étiquetage ?

Sur les cosmétiques, l’obligation d’étiquetage est officielle depuis 2013. Dans les faits, il suffit d’aller dans les magasins pour constater que ce n’est pas du tout respecté. Dans l’alimentation, il devrait y avoir un étiquetage depuis des années. La promesse a été faite de le rendre obligatoire ce mois-ci, en décembre 2014. J’ai bien peur que le lobby agroalimentaire parvienne encore à repousser l’échéance. Toute la question est de savoir ce qu’il y aura sur cet étiquetage. Les politiques, français et européens, avancent que les protagonistes ne sont pas tombés d’accord et qu’ils ne peuvent donc pas légiférer. Les industriels continuent de gagner du temps. Le lobby agro-alimentaire demande même que les nanos mises sur le marché depuis plus de dix ans ne soient pas inclues dans l’étiquetage obligatoire, au prétexte de « ne pas inquiéter inutilement les personnes qui en ont consommés »

L’enjeu sur l’étiquetage est d’exiger que soit également indiquée la toxicité des nanos. Que le consommateur sache si le produit risque de réduire la fertilité, d’entraîner des cancers, des mutations génétiques… Comme sur les paquets de tabac et les pesticides. Sans cette indication-là, les gens s’en fichent. Le danger doit être annoncé.

Comment réagissez-vous à l’annonce de la ministre de l’Écologie, Ségolène Royal, de demander à l’Union européenne le 17 décembre une stratégie d’étiquetage des produits de consommation courante contenant des nanomatériaux ?

Le gouvernement français, depuis l’arrivée massive des nanos sur le marché, se positionne avant tout en soutien des nanos. Les budgets publics accordés en témoignent : plus d’un milliard d’euros par an de soutien aux producteurs, rien qu’en France… Alors même que la recherche sur la toxicité des nanos représente à peine 1 à 2 % du budget, et que les connaissances toxicologiques acquises ne sont même pas prises en compte !

Malgré la multiplication des rapports alarmants sur les dangers des nanos, rien ne se passe en matière de prévention, et les gouvernements continuent de subventionner massivement les nanos. Comment expliquez-vous ce décalage ?

Chaque gouvernement prend prétexte de la crainte d’être dépassé par les pays concurrents. Le même argument que sur le nucléaire à une époque, ou sur les pesticides dont on voulait nous persuader qu’ils rendaient notre agriculture plus performante ! Tous les pays sont aujourd’hui lancés dans la course aux nanotechnologies, présentées comme un progrès scientifique incontournable. L’enjeu financier est dément. L’important retour sur investissement des nanos sur les marchés est doublé d’un effet d’aubaine lié aux généreuses subventions publiques. Tout cela en pleine période de restriction budgétaire…

In fine ce sont les plus grandes multinationales qui bénéficient de cet argent public, par le jeu de leurs filiales et des laboratoires de recherche avec lesquelles elles travaillent. Mc Donalds, Danone, Kellog’s, Nestlé, Mars, pour ne citer que les groupes les plus connus, profitent de cette course folle dans laquelle les États et les collectivités locales sont devenus eux-mêmes investisseurs. Les lobbies industriels obtiennent ce qu’ils veulent en faisant croire que ce sont les nanotechnologies qui vont assurer notre compétitivité internationale et les emplois de demain.

Les décideurs politiques décident très vite avec très peu de recul sur les dossiers. Leur ignorance en santé publique leur fait négliger toute prévention. Lorsque vous leur parlez d’épidémiologie ou de toxicologie, ils sont largués. Le principe de précaution, mis à part chez certains élus écologistes, n’est absolument pas intégré dans leur culture. Ils sont sous l’effet permanent de lobbyistes et de think tanks qui leur font croire que si l’on applique le principe de précaution, l’économie française sera paralysée… Les décideurs politiques croient que les craintes sanitaires relèvent du domaine de l’irrationnel et des émotions populaires. Le niveau de culture en santé publique de la plupart d’entre eux est nul et ils ne voient donc dans la prévention qu’une source de dépenses inutiles.

La course aux nanos recèle un aspect moins connu : les enjeux militaires… Avec quelles visées ?

Je le décris précisément dans mon ouvrage : tous les pays riches – États-Unis, Japon, Chine, Europe, y compris la France… – sont impliqués dans la course aux nano-armements. Outre l’exemple de la nano-libellule, dont l’armée française veut équiper les fantassins pour pister les ennemis, les nanotechnologies permettent de perfectionner les armes, d’accroitre leur légèreté, leur robustesse, leur puissance de destruction, etc. L’armée renforce aussi les alliages des avions, des tanks, les vêtements des soldats.

Les armes chimiques désormais interdites par un traité international sont en passe d’être remplacées par les diffuseurs de nanotoxiques. C’est de la chimie sauf qu’ils ont changé le mot… C’est d’une hypocrisie totale ! D’autant que ces armes, tels que les brouillards nano-chimiques, sont infiniment plus redoutables que les armes chimiques « conventionnelles ». Elles sont déjà expérimentées en laboratoire mais il est très difficile de savoir si l’on en est au stade de la production massive. L’opacité est complète sur les stocks. Les spécialistes militaires que j’ai interrogés sont eux-mêmes très inquiets, notamment sur les usages que des terroristes pourront en faire. Les nanos mettent à la portée de n’importe quel groupe des armes redoutables avec des possibilités de contamination inouïes. Le contenu d’une cuillère à café peut suffire à empoisonner des millions de gens d’un coup.

Que retirez-vous de cette enquête ?

Au début, de la sidération. Puis la certitude que nous devons tous agir pour stopper cette folie. Nous allons laisser à nos enfants ce que l’on peut imaginer de pire. Je n’ai jamais vu un tel abandon devant des produits aussi documentés sur le plan toxicologique. Ce que l’on connaissait dans les années 90 en toxicologie des nanoparticules non produites intentionnellement – les nanoparticules de diesel ou des fumées industrielles par exemple – aurait dû entrainer l’interdiction de la mise sur le marché de nanos non testées. On ne l’a pas fait. Les producteurs affirment que si la substance classique équivalente (non nano) est autorisée, il n’y a pas de raison de refaire des tests. Or, la dimension nano change tout. Nous sommes revenus à la préhistoire de la prévention. Jamais on aurait pu imaginer un tel retour en arrière.

La politique d’évaluation est paralysée face aux nouvelles particules qui continuent d’arriver chaque semaine sur le marché. On voit à quel point les lobbyistes industriels sont capables de neutraliser l’action politique. Ils continuent à dire qu’il n’y a aucune certitude que ce qui se passe en laboratoire se passera dans la réalité. Or, la réalité est plus redoutable : il y a une accumulation d’expositions, de synergies entre les produits, d’effets des petites doses à moyen et long terme. Les gouvernements n’ont tiré aucune leçon des scandales sanitaires précédents, ils n’ont fait qu’apprendre à mieux fuir leur responsabilité au nom de la mondialisation et de la performance.

Comment agir pour que la santé publique ne soit plus une variable d’ajustement ?

Ce qui a été possible pour d’autres substances l’est aussi pour les nanos. Il serait stupide de partir perdant. Parmi les armes à notre disposition, il y a le choix de ce que nous consommons. Si une petite partie seulement des consommateurs refuse des produits contenant des nanos, vous verrez tous les industriels reculer. Il suffit de 5 à 10 % de consommateurs qui évitent des produits pour réduire assez la marge sur laquelle les grands groupes réalisent leurs profits. Au point de rendre les nanos moins rentables que d’autres investissements. Le pouvoir du consommateur est énorme.

Et puisqu’il s’agit d’une compétition internationale, il faut une convention internationale. Nous l’avons obtenue sur le mercure en 2013 grâce à la mobilisation des ONG : environ 150 pays ont signé la convention de Minamata interdisant tous les usages du mercure d’ici 2020. Ce rapport de force sur une substance aussi utilisée était inimaginable il y a quelques années. On peut obtenir une convention sur les nanos et interdire les plus dangereuses. Il faut agir vite. Comme l’a dit récemment le directeur de l’Agence française de sécurité sanitaire de l’environnement et du travail (Afsset), « dans dix ans il sera trop tard ». Réveillons-nous ! Plus je prends conscience de l’énormité du problème, plus je vois la nécessité de refuser ces nanos en bloc. C’est ce que préconise d’ailleurs l’association Pièces et Main d’œuvre, qui rappelle que les nanos sont un marché imposé par des géants économiques au mépris de la démocratie et du vivant.

Propos recueillis par Sophie Chapelle
@Sophie_Chapelle sur twitter

- Voir tous les articles de Basta ! sur les nanotechnologies

Roger Lenglet, Nanotoxiques, Éditions Actes Sud, 2014. Pour le commander dans la librairie la plus proche de chez vous, rendez-vous sur lalibrairie.com


Photo de une : laboratoire stérile du Centre pour les nanotechnologies à Londres / CC UCL Mathematical and Physical Sciences

Photo de spirales de nanofibres de dioxyde de titane : CC / Kunal Mukherjee

Photo d’un drone papillon. Source

Notes

[1Roger Lenglet, philosophe et journaliste d’investigation, est l’auteur de nombreux livres d’enquête sur la santé, l’environnement, la corruption et le lobbying. Il est notamment auteur avec Marie Grosman de Menaces sur nos neurones. Alzheimer, Parkinson… et ceux qui en profitent (lire notre entretien). Il est membre de la Société française d’histoire de la médecine.

[2L’amiante était surtout placée dans des matériaux de construction et de protection anti-incendie, certains textiles, des joints de fours, les freins des véhicules et des systèmes de chauffage.

[3La production intentionnelle relève de l’ingénierie industrielle.

L’actuelle bataille des câbles préfigure-t-elle le cyberespace de 2030 ?

Par

12/11/2014

Source : http://si-vis.blogspot.fr

S’il est sans doute encore un peu tôt pour vérifier que la Russie et la Chine pourraient venir concurrencer et pourquoi pas, à termes, dominer les USA dans le cyberespace, force est cependant d’observer deux faits différents mais complémentaires : la Russie dispose, dans ce domaine, de ressources techniques et humaines plus que respectables. La Chine, elle, se dote en plus de capacités technologiques et d’innovations qu’il conviendrait d’évaluer avec le plus grand respect.

Pour cette dernière, la mise en exploitation en 2016 de la plus grande boucle de réseau de communication quantique (1) entre Pékin et Shanghai, soit tout de même plus de 2 000 kilomètres, vient illustrer une prouesse technologique indéniable. Qui illustre parfaitement les efforts scientifiques et financiers mais aussi alternatifs déployés par Pékin en matière de recherche et de développement tout azimuts depuis le milieu de la précédente décennie. Dans une volonté à peine dissimulée, ces efforts pourraient également provoquer de possibles bouleversements concernant la géopolitique de l’Internet. Soit un scénario crédible du visage que pourraient prendre certaines infrastructures de transport et de traitement des données à moyen terme.

Considéré comme informatiquement « non piratable » du fait de l’utilisation de moyens de « cryptographie quantique » (2), l’ambition déclarée de ce futur réseau à usage principalement gouvernemental et militaire se veut internationale puisqu’il pourrait avoir vocation à être étendu à la planète entière à l’horizon 2030. Une façon astucieuse et néanmoins classique pour la Chine de pratiquer son soft-power à peu de frais. De plus, cette annonce intervient au moment où le président Obama, après le revers des élections à mi-mandat (3), débute une « opération séduction » (4), profitant du sommet de l’APEC qui vient de s’ouvrir précisément à…Pékin ! Certains y verront une coïncidence, d’autres non.

Cette stratégie des câbles se retrouve également sur un autre continent, celui de l’Amérique du Sud. Le Brésil a en effet en projet (5) de poser de la fibre optique sous-marine jusqu’en Europe en passant directement par le Portugal. Les limites étant d’avoir annoncé ce projet en excluant des équipements de réseaux de marque Cisco, ceux pouvant les remplacer n’étant pas légion sur le marché. Même si notre regard teinté de souverainisme resterait au mieux dubitatif, l’utilisation d’équipements réseau du chinois Huawei ne semble pas une solution inenvisageable. Histoire sans doute pour la présidence brésilienne d’enfoncer un peu plus le clou.

Ces exemples, même s’ils sont pour le moment isolés, pourraient illustrer une tendance probablement logique vers davantage d’indépendance d’acteurs économiques opérant les infrastructures de transport des données et des organismes cherchant à les réguler (6). Que les uns ou les autres soient directement ou indirectement influencés par leurs gouvernements respectifs notamment les États-Unis. Quoiqu’en dise le président Obama (7), les nombreuses suspicions d’espionnage généralisé des communications électroniques, confirmées par l’affaire Snowden, ne sont pas prêtes de s’éteindre.

Dès lors, il est tout à fait concevable d’envisager une architecture du cyberespace différente d’ici 2030. Les infrastructures disponibles de transport et de traitement des données seront toujours, d’une part, majoritairement le fait de compagnies privées, Google (8) étant l’une des locomotives des évolutions en devenir. D’autre part, ce seront aussi d’autres pays que l’oncle Sam qui se partageront la régulation et la puissance : Chine, Brésil, Russie, Inde, peut-être l’Europe (9)(10). La stratégie et la géopolitique du cyberespace (11) en seraient alors modifiées sans qu’il soit, pour le moment, possible d’en définir l’amplitude et les effets. Une chose est sûre cependant : louper le train de l’innovation combinatoire (12), du numérique et, plus largement, des NBIC (13) relèguera la volonté supposée de puissance d’une nation à des rêves de grandeur mortifiée.

(1) http://www.scmp.com/news/china/article/1631479/china-launch-hack-proof-quantum-communication-network-2016
(2) Il s’agit en réalité davantage d’une distribution quantique de clés de chiffrement. Se référer à http://www.futura-sciences.com/magazines/matiere/infos/dico/d/physique-cryptographie-quantique-10172/ et http://cas.ensmp.fr/~rouchon/MinesCrypto/SlideQcrypto.pdf 
(3) http://alterjournalisme.blogs.courrierinternational.com/archive/2014/11/04/elections-midterms-2014-aux-etats-unis-50381.html
(4) http://www.rfi.fr/asie-pacifique/20141110-sommet-apec-pekin-obama-operation-seduction/
(5) http://rue89.nouvelobs.com/2014/11/05/pourquoi-bresil-senquiquine-t-a-poser-cable-geant-fond-leau-255888
(6) la bataille actuelle au sein de l’ICANN est d’ailleurs emblématique de ce mouvement de fond. Lire http://www.silicon.fr/pierre-bonis-afnic-reforme-trompe-oeil-icann-100979.html
(7) https://medium.com/@PresidentObama/my-plan-for-a-free-and-open-internet-c45e2f4ab1e4 
(8) http://www.lemondenumerique.com/article-30966-google-concretise-son-projet-loon.html 
(9) avec ou sans les « cousins » Britanniques ? Une délicate question !
(10) http://www.assemblee-nationale.fr/14/europe/rap-info/i1409.asp
(11) http://www.diploweb.com/Strategie-du-cyberespace.html 
(12) http://echoradar.eu/2014/11/05/big-bang-disruption-cauchemar-linnovation-devastatrice/
(13) http://cyberland.centerblog.net/153-En-2030–la-pensee-hybride 

Réputation et transhumanisme : Google devient-il sans le dire un « Dr Jekyll et Mr Hyde » ?

Par Olivier Cimelière

09/05/2014

Source : http://www.leblogducommunicant2-0.com

Depuis quelques années, Google effectue des acquisitions très ciblées aux antipodes de ce qui constitue son ADN initial, à savoir l’indexation des contenus du Web et sa mise à disposition à travers diverses plateformes de diffusion comme YouTube, Android et Google +. Ces incursions d’un autre genre au croisement de la biotechnologie, de l’intelligence artificielle et de la robotique sont motivées notamment par la philosophie transhumaniste dont les deux fondateurs de Google sont proches. Pourtant, rien ou presque dans la communication corporate de l’entreprise ne s’attarde vraiment sur ces chantiers loin d’être superfétatoires. A ne rien laisser filtrer sur ses intentions exactes, Google risque-t-il un jour d’affronter un renversement d’image encore plus problématique que les controverses actuelles qui lui collent aux basques sur la protection des données persos et l’optimisation fiscale à tout crin ? Réflexions sur des signaux faibles dont il faudrait tenir compte.

Pour le quidam moyen, Google est un puissant et très pratique moteur de recherche sur Internet. Pour le technophile plus averti, Google est un prolifique incubateur de nouvelles technologies d’où sont sortis par exemple le système d’exploitation mobile Android, le navigateur Web Chrome mais aussi des projets plus fantasques comme la Google Car qui se conduit toute seule ou le projet Loon qui vise à fournir une connectivité ultra haut-débit pour les zones rurales grâce à des ballons stratosphériques. Pour les consommateurs, Google est aussi la ludique plateforme vidéo YouTube, l’incomparable cartographie visuelle StreetView et Earth ou encore la messagerie électronique Gmail. La liste est loin d’être exhaustive. Pour tous, c’est un champion hors catégorie à la trésorerie illimitée grâce à la manne publicitaire en ligne encaissée par le géant de Mountain View.

Google aujourd’hui : quelle perception ?

Transhumanisme - Google ecosystemCette vision est précisément celle qui forge et alimente aujourd’hui la réputation de Google. Une entreprise qui fascine indubitablement par son insondable capacité à multiplier les innovations numériques tout en élargissant sa présence dans de multiples secteurs économiques de manière plutôt disruptive. Mois après mois, le géant de Mountain View devient le poumon incontournable de divers écosystèmes. Il y a les marques vedettes comme YouTube, Chrome, Android mais aussi une cohorte de services toujours plus pointus comme par exemple Wallet, un système de paiement électronique sur mobile adopté actuellement par 10 millions d’utilisateurs (1). En janvier 2014, Google a ainsi posé le pied dans un nouvel univers en rachetant le fabricant de thermostats connectés Nest Labs pour 3,2 milliards de dollars (2). Spécialisée dans les produits intelligents pour la maison, cette start-up permet à Google d’entrer puissamment dans l’univers prometteur de la domotique.

Evidemment, cette ubiquité qui ne cesse de proliférer, ne manque pas de faire grincer des dents. Les acteurs traditionnels des secteurs pénétrés par Google se rebiffent et accusent ce dernier de position dominante et de tuer la concurrence à petit feu, notamment en manipulant l’algorithme du moteur de recherche qui favoriserait selon eux les produits et les services concoctés à Mountain View et dans les autres centres R&D de Google. D’autres s’agacent du non-respect des droits intellectuels comme dans le secteur de l’édition, de la télévision, de la culture et du manque à gagner induit par ces pratiques. Quant aux autorités politiques, elles ferraillent sans relâche contre la vision cavalière de Google au sujet de la collecte des données personnelles mais également sur l’astucieuse tuyauterie d’optimisation fiscale de Google d’où s’évaporent (en toute légalité) des montants dont les caisses des Etats seraient bien preneuses en ces temps d’économie troublée.

Une communication soigneusement pesée et séductrice

Face à ces multiples herses que les médias ne manquent pas de relayer à intervalles réguliers, Google ne reste pas sans réaction. Les dirigeants de Mountain View ont bien compris que le bras-de-fer peut temporairement aider à poser les jalons et gagner du terrain mais aussi qu’à un moment donné, le registre doit cultiver d’autres cordes thématiques. La première d’entre elles est la corde historique de la magie des produits Google et le discours enchanteur qui va de pair à l’intention des utilisateurs. Chez Google, toutes les énergies sont officiellement mobilisées vers la praticité, l’efficacité et le plaisir des expériences avec les services du géant du Web. Pour s’en convaincre, il suffit de regarder l’actuelle campagne de publicité pour Chromecast diffusée sur les chaînes de télévision française. Force est de reconnaître que les outils mis à disposition sont incroyablement géniaux et d’une puissance rarement égalée.

Transhumanisme - GoogleplexEnsuite, Google sait cultiver et adoucir son image lorsque le contexte d’un pays l’exige. La deuxième corde activée est celles des partenariats technologiques avec des pépinières et des initiatives à but non lucratif pour apaiser les tensions et montrer au final que l’entreprise sait aussi se montrer citoyenne dans ses contrées d’adoption. Un emblématique exemple de cette approche est le Google Art Project avec des musées un peu partout dans le monde. Ces derniers disposent gracieusement des technologies de Google pour numériser des œuvres issues de leurs collections et permettre ensuite des visites virtuelles en haute définition sur Internet. Une recette que Google a déclinée à nouveau en 2013 pour la presse française avec laquelle elle était en conflit financier. Un fonds doté de 60 millions d’euros sur trois ans a ainsi vu le jour pour « trouver de nouveaux modèles d’affaire par l’innovation » (3) pour les sites d’info en ligne.

Autre atout d’image largement exhibé par Google : les conditions de travail « fun » en vigueur dans les bureaux et les Googleplexs. On ne compte effectivement plus les reportages sur l’ambiance « cool » des bâtiments aux couleurs vives où chaque employé peut se relaxer quand il veut en allant disputer une partie de Playstation, méditer au calme devant un aquarium reposant, se faire masser, jouer de la guitare électrique ou se sustenter dans les cantines et kitchenettes regorgeant de victuailles pour tous les goûts. Un pari payant puisque Google truste les distinctions RH et reste plébiscité par les moins de 40 ans. Tout récemment, Google a réactivé le filon en médiatisant largement celui qu’on surnomme « le chic type de Google » (4), Chade-Meng Tan. Auteur d’un programme de méditation best-seller, l’ex-programmeur donne des conférences itinérantes dans les locaux de Google sur la nécessaire empathie managériale !

Pendant ce temps-là, un autre agenda …

L'un des fameux robots de guerre de Boston Dynamics

Aujourd’hui, c’est véritablement ce fond d’image qui prévaut largement dans le traitement médiatique de Google et dans sa perception par l’opinion publique. La tonalité n’y est certes pas toujours sympathique et la polémique constamment en train d’affleurer. Néanmoins, les débats se cristallisent avant tout autour de la domination de Google et l’empire sans cesse en expansion que ce dernier tisse sur la Toile. Pourtant, en parallèle de cette profusion d’innovations technologiques et de partenariats divers, Google pousse également ses pions dans des domaines moins connexes au pur code informatique. Depuis deux ans, l’entreprise a en effet accru significativement son implication dans trois marchés bien spécifiques : l’intelligence artificielle, la robotique et la biotechnologie avec pour cette dernière un objectif de repousser la mort et les maladies !

Assez étonnamment, les médias ne s’en sont globalement que peu fait l’écho hormis quelques entrefilets çà et là. De même, il est bien ardu de trouver des informations détaillées sur les sites et blogs officiels de Google au sujet de ces chantiers d’un genre nouveau mais loin d’être négligeables. Pourtant, dans le domaine de l’intelligence artificielle, Google a fait un sacré bond en à peine un an en mettant successivement la main sur la start-up canadienne DNNresearch qui travaille dans les neurosciences et la start-up britannique DeepMind acquise pour 500 millions de dollars (5). En vue d’améliorer la puissance de son moteur de recherche, Google s’intéresse effectivement depuis un certain temps à la compréhension des schémas neuronaux humains et à leur réplication informatique dans une machine capable d’apprendre par elle-même.

Or, l’histoire ne s’arrête pas à l’amélioration scientifique du célèbre algorithme Google. Dans le même temps, Mountain View a mis le paquet pour racheter neuf sociétés de robotique (6) dont Boston Dynamics, connu pour les robots mis au point pour l’armée américaine, et Atlas pour son humanoïde bipède utilisable dans les situations de catastrophes naturelles. Enfin, troisième pan de l’agenda : l’accélération dans les biotechnologies et notamment le séquençage de l’ADN humain. En 2007, Google avait déjà investi 3,9 millions de dollars (7) dans 23andMe, une start-up dirigée par l’ex-femme d’un des deux fondateurs et visant à analyser le code génétique pour dépister les risques de maladies. En septembre 2013, le géant du Web frappe fort en annonçant la création de Calico. Financée par Google et dirigée par Arthur D. Levinson (actuel CEO de Genentech, un leader mondial en biotechnologies), la start-up vise ni plus ni moins à repousser la mort grâce à une connaissance encore plus fine de l’ADN.

Une autre image corporate se dessine

Transhumanisme - tableauLoin d’être un scénario farfelu d’amateurs de science-fiction, les avancées de Google se sont également traduites par l’arrivée d’experts aux profils suffisamment explicites pour comprendre que Google devient autre chose qu’un simple géant numérique. Fin 2012, c’est d’abord Ray Kurzweil qui rejoint Google pour travailler sur « l’apprentissage automatisé et le traitement du langage » (8). En avril 2014, c’est Cynthia Kenyon, une autre ponte de la science qui est venue renforcer les projets de Google en rejoignant Calico avec son immense bagage sur les mutations génétiques étudiées à l’Université de Californie à San Francisco.

La figure de Ray Kurzweil est particulièrement symbolique de ce virage amorcé par Google. L’homme est en effet considéré comme le gourou du transhumanisme. Ce terme s’est répandu dans les années 90 à mesure que les nanotechnologies, la biologie génétique, l’informatique et les sciences cognitives ont commencé à converger sur des recherches communes et le concept d’« homme augmenté ». Chirurgien et président de DNA Vision, Laurent Alexandre résume cette philosophie (9) : « Les transhumanistes soutiennent une vision radicale des droits de l’humain (…) Selon eux, l’humanité ne devrait avoir aucun scrupule à utiliser toutes les possibilités de transformation offertes par la science (…). L’homme du futur serait ainsi comme un site Web, à tout jamais une « version béta », c’est-à-dire un organisme-prototype voué à se perfectionner en continu. Cette vision pourrait sembler naïve. En réalité, un lobby transhumaniste est déjà à l’œuvre des NBIC pour changer l’humanité ».

Ce courant de pensée touche de surcroît particulièrement les deux fondateurs de Google, Larry Page et Sergey Brin. En 2013, le premier a expliqué sur sa page Google + qu’il souffrait d’une paralysie partielle des cordes vocales. Quant au second, il est connu pour être génétiquement prédisposé à la maladie de Parkinson. Or, Google est précisément un des gros soutiens financiers de la Singularity University de Ray Kurzweil qui promeut cette vision futuriste d’un homme aux capacités décuplées par la technologie.

Quelles conséquences sur la réputation de Google ?

Transhumanisme - Time coverPour l’instant, peu de personnes ont réellement conscience de ce visage un peu science-fictionnesque de Google. Pourtant, il n’a rien de délirant. En janvier 2014, Google a d’ailleurs annoncé une avancée très concrète sous la forme d’une lentille oculaire intelligente. Celle-ci permettra de surveiller certains aspects du corps humain comme le niveau de glucose pour les diabétiques et d’envoyer instantanément l’information à un ordinateur. L’hybridation entre l’ordinateur et l’humain n’est donc pas une lubie mais véritablement un nouveau terrain de développement technologique dont Google a finement perçu les perspectives et les enjeux.

Là où la problématique pourrait dans un proche avenir se corser, c’est que Google n’est pas pour autant d’une grande prolixité sur le sujet. Sur ses sites Web et ses blogs, il est quasiment impossible de trouver trace de contenus évoquant ouvertement ces projets transhumanistes. Excepté quelques concessions ponctuelles comme le récent reportage inédit du magazine américain Fast Company dans les locaux du très secret Google X Lab, le géant de Mountain View ne se montre guère bavard sur ce puzzle qu’il assemble à travers ses récents investissements financiers en intelligence artificielle, robotique et biotechnologie.

C’est là un piège potentiellement très crisique pour la réputation de Google. Dans une société contemporaine dominée par la défiance et un certain sentiment conspirationniste plutôt florissant, continuer à œuvrer à l’abri des regards revient à s’exposer au soupçon et in fine au rejet radical. Pour Google, l’équation est d’autant plus cruciale que son image est déjà quelque peu écornée en matière de respect de la vie privée et des données personnelles depuis l’affaire Snowden. Or, on le voit actuellement avec les Google Glass. Si les thuriféraires inconditionnels de gadgets technos sont volubiles et enthousiastes, les réticences se font jour de manière croissante devant ces bésicles plutôt intrusives. Pour le moment, Google poursuit sur sa ligne corporate du « monde meilleur grâce à Google » pour se justifier. Pas sûr que cela suffise à lever les doutes, vaincre les peurs et faire accepter les changements. Surtout lorsqu’on parle d’un être humain qui pourrait bientôt être capable de fonctionner comme un algorithme !

Sources

(1) – Gilles Fontaine – « Google sans limites » – Challenges – 30 avril 2014
(2) – Sarah Belouezzane – « Google fait la troisième grosse acquisition de son histoire » – Le Monde – 15 janvier 2014
(3) – Amaury de Rochegonde – « Dix-neuf titres bénéficiaires » – Stratégies – 9 janvier 2014
(4) – Chrys Ayres – « Le gourou de Google » – Le Parisien Magazine – 18 avril 2014
(5) – Rishona Campbell – « Google’s acquisition of DeepMind hints to more intelligent web searches » – Dashburst – 13 février 2014
(6) – Ash K ; Casson – « Step inside the incredible world of Google’s semi-secret Californian facility » – Herald Scotland – 2 mai 2014
(7) – Paul Loubière – « Et Google refait le monde à son image … sans limites » – Challenges – 30 avril 2014
(8) – « Kurzweil joins Google to work on new projects involving machine learning and language processing» – Kurzweil Accelerating Intelligence – 14 décembre 2012
(9) – Laurent Alexandre – « Google et les transhumanistes » – Le Monde – 24 avril 2014

Des millions de moustiques OGM sur le point d’être commercialisés au Brésil

Par Sophie Chapelle

16/04/2014

Source : http://www.bastamag.net

English : Millions of GM mosquitoes about to be marketed in Brazil

Le moustique OX513A sera peut-être le premier animal – ou plutôt insecte – transgénique que vous rencontrerez dans la nature. Conçu par une entreprise britannique, ce moustique OGM doit servir à lutter contre la propagation de la dengue. Après des tests grandeur nature, le Brésil est sur le point de donner son feu vert à sa commercialisation. Problème : aucune étude indépendante n’a été réalisée pour mesurer les conséquences de la production massive de cet insecte transgénique. Et son efficacité contre la dengue est contestée.

Ce n’est malheureusement pas un scénario de série B. Pour la première fois, des animaux génétiquement modifiés vont être commercialisés en milieu ouvert. Le Brésil est sur le point d’autoriser l’usage de moustiques génétiquement modifiés. Le 10 avril, la Commission brésilienne en charge des OGM (CNTBio) a approuvé, à 16 voix contre une, la dissémination dans l’environnement du moustique transgénique Aedes aegypti commercialisé par l’entreprise britannique Oxitec [1]. Le nom de code de cette lignée de moustiques génétiquement modifiés est OX513A. Pour les autorités brésiliennes, l’enjeu est de lutter contre la dengue, une infection virale potentiellement mortelle transmise à l’être humain par la piqûre de moustiques femelles. En 2013, 2,35 millions de cas de dengue, dont plus de 37 000 étaient des cas d’infection sévère, ont été signalés sur le continent américain, selon l’Organisation mondiale de la santé (OMS).

D’après la société Oxitec, qui a déposé la demande de commercialisation en juillet 2013, ces moustiques transgéniques permettraient de « contrôler » la population des moustiques porteurs de dengue en les rendant stériles. Des essais ont eu lieu dans plusieurs villes du Brésil depuis 2011, notamment à Juazeiro dans l’État de Bahia (nord-est du pays). 17 millions de moustiques mâles y ont été relâchés en deux ans, selon un reportage vidéo de France 24. C’est dans cette même ville qu’a été inaugurée à l’été 2012 l’usine Moscamed, co-gérée par le ministère de l’Agriculture brésilien, qui multiplie les œufs de moustique conçus par Oxitec. Du ministère de la Santé aux sociétés Oxitec et Moscamed, les propos sont unanimes : les lâchers de moustiques mâles génétiquement modifiés réduisent drastiquement – de 79% à 90% – la population de moustiques sauvages au bout de six mois.

Aucune étude indépendante

La technique utilisée par Moscamed consiste à insérer un gène perturbateur dans des œufs de moustiques qui les rend dépendants à un antibiotique, la tétracycline. Ce médicament est indispensable pour leur croissance, explique Oxitec. L’usine Moscamed se charge de détruire les œufs femelles et assure ne relâcher que les mâles qui ne peuvent pas piquer, donc transmettre la dengue. Ces moustiques mâles génétiquement modifiés sont censés s’accoupler dans la nature avec des femelles « sauvages » et engendrer des descendants non viables, contribuant ainsi à leur extinction progressive. « Ces moustiques, lâchés dans la nature en quantité deux fois supérieure à celle des moustiques non transgéniques, attireront les femelles pour copuler mais leur progéniture n’atteindra pas l’âge adulte, ce qui devrait réduire la population de l’Aedes aegypti », avance le ministère de la Santé brésilien.

Or, aucune étude indépendante n’a validé les données avancées par Oxitec. Pour de nombreuses organisations écologistes, « le dossier est lacunaire. Aucun plan de suivi post-commercial n’est fourni par l’entreprise, et les soi-disant « résultats probants » des essais en champs (commencés en février 2011) n’ont pas été publiés », rappelle l’association Inf’OGM. Les essais réalisés avec ce même moustique génétiquement modifié, dans les îles Caïmans, ont également montré que la technologie n’était pas si efficace, et qu’il faudrait plus de sept millions de moustiques génétiquement modifiés stériles, par semaine, pour avoir une chance de supprimer une population sauvage de seulement 20 000 moustiques [2].

Reproduction incontrôlée d’insectes OGM ?

N’y a t-il par ailleurs aucune chance que ces OGM, présentés comme « stériles », se reproduisent ? Selon un document confidentiel rendu public par l’ONG anglaise GeneWatch – qu’elle a pu obtenir grâce aux lois britanniques sur la liberté d’information –, les moustiques génétiquement modifiés par Oxitec ne sont pas aussi stériles que prévu. La tétracycline, le fameux antibiotique dont dépendent ces insectes, est très largement présente dans les eaux usées et dans la viande issue d’élevage industriel. « Or, les moustiques qui transmettent la dengue se reproduisent dans des environnements largement pollués par les eaux usées, souligne Christophe Noisette, d’Inf’OGM. En présence de cet antibiotique, leurs progénitures ont un taux de survie de 15 % environ et leur descendance sont capables d’atteindre l’âge adulte ».

L’étude citée par GeneWatch mentionne aussi que les moustiques GM peuvent survivre, même sans la présence de tétracycline, à hauteur de 3 %, ce qui rend impossible le contrôle de millions de moustiques lâchés dans la nature. « C’est un défaut fondamental de la technologie d’Oxitec qui devrait donc arrêter ses expériences », réagit Helen Wallace, directrice de GeneWatch. Aux côtés d’autres organisations [3], GeneWatch exprime également sa crainte que le nombre de « moustiques-Tigre » (Aedes albopictus), originaires d’Asie et également vecteurs de la dengue, n’augmente. Cette espèce extrêmement invasive pourrait en effet occuper la niche écologique laissée par l’élimination des moutisques Aedes aegypti. C’est sur la base de cette absence d’étude d’impacts indépendante qu’une pétition a été lancée en Floride où la firme Oxitec avait prévu des essais à ciel ouvert. La pétition a recueilli près de 130 000 signatures et l’expérience dans cet Etat américain a été repoussée jusqu’à nouvel ordre.

Du coté d’Oxitec, on assure que cette technique serait « réversible ». « Les moustiques sauvages reviennent lorsque l’on arrête de traiter la zone ». Et c’est là une des clés financières pour Oxitec. Car les moustiques OGM fonctionnent comme des insecticides : pour qu’ils soient efficaces, il faut inonder les zones à traiter en permanence, ce qui implique une production continue de millions de moustiques transgéniques. En bout de course, des millions d’euros pour Oxitec qui a le monopole de cette « technologie ». Et qui a d’ores et déjà breveté l’idée dans la plupart des pays touchés par la dengue. Or, la moitié de la population mondiale environ est exposée au risque d’après l’OMS. Il ne reste plus à Oxitec qu’à attendre la confirmation de l’autorisation par l’Etat brésilien avant de commencer à percevoir ses royalties.

Le moustique OX513A deviendra alors le premier animal OGM librement commercialisé. D’autres animaux génétiquement modifiés ont déjà été autorisés, comme des poissons transgéniques fluo, nommés Glofish et Night Pear, destinés à un usage décoratif en aquarium. Mais ils sont censés demeurer en milieu confiné.

@Sophie_Chapelle

A lire, sur les animaux transgéniques : Ces animaux mutants que la cuisine génétique vous prépare

Notes

[1Voir le communiqué de la CNTBio.

[2Winskill P, Harris AF, Morgan SA, et al. (2014) Genetic control of Aedes aegypti : data-driven modelling to assess the effect of releasing different life stages and the potential for long-term suppression. Parasites & Vectors 7(1):68.

[3Third World Network, AS-PTA, Red América Latina Libre de Transgénicos, GeneWatch UK

L’enfance sous contrôle

Réalisation : Marie-Pierre Jaury

Source : http://www.arte.tv

La délinquance est-elle une maladie dépistable dès le plus jeune âge ? Comment, avec le renfort des neurosciences et de la psychiatrie, nos sociétés mettent l’enfance sous surveillance.

En France, en 2005, un rapport de l’INSERM intitulé « Les troubles de conduite chez l’enfant et l’adolescent » suscite un tollé chez une partie des professionnels de la santé mentale et de l’enfance. Ceux-ci accusent l’organisme de prôner la mise sous surveillance généralisée des tout-petits (dès l’âge de 3 ans), sous l’influence de la psychiatrie comportementaliste anglo-saxonne, légitimant ainsi une idéologie sécuritaire en pleine expansion. Car il s’agit aussi de repérer les futurs délinquants potentiels afin de prévenir ce qu’un député appelle leurs « comportements déviants ». Une vision qui détermine déjà les politiques sanitaires et sociales dans des pays aussi variés que le Canada (Québec compris), l’Allemagne ou la Grande-Bretagne.

  • Origine : ARTE F
  • Pays : France
  • Année : 2009