RISQUES ET NANO/BIO/TECHNOLOGIES

, par  Marie-Odile NOVELLI , popularité : 0%

Notre avenir sera biotechnologique. Il se determine en partie à Grenoble, pôle européen de recherche en nano/bio/technologies. Mais que savons nous d’elles au juste ? Pas grand chose... Dernier article ajoute le 1/6/06

Grenoble se spécialise dans les biotechnologies, technologies du futur liées à l’informatique. Mais que sait-on d’elles au juste ?

-N.B. Autre article, date du 01/06/06 pour en savoir plus sur la place des nano(bio)technologies dans la vie grenobloise et sur MINATEC cliquez ici
article le monde déc. 06 : lire.
Article du 7 Mars 2006 :

MINATEC (Grenoble) est un pôle europeen de recherche, formation et valorisation industrielle dédié aux nano-technologies.
BIOPOLIS
(La Tronche) est "un hôtel d’entreprises innovantes en bio-technologies". Les deux projets sont
réalisés sur fonds publics avec le soutien (plus moral que financier) de l’armée pour une partie des activites.

I. Le projet nanotechnologique , extrémement ambitieux, entend rivaliser avec la nature. Ce projet a été lancé comme on lance, dans le commerce, un produit de grande consommation, par Eric Drexler, qui etait dans les années 80 étudiant de doctorat au MIT sous la direction de Marvin Minsky, l’un des fondateurs de l’intelligence artificielle. A l’époque, pas grand monde ne le prenait au serieux. Aujourd’hui, tout a change, et il est tres courtisé. Sans que l’on puisse dire que la reflexion de fond ait un tant soit peu progresse. "Le temps viendra, dit Drexler, ou nous pourrons tout demander a des nanopuces, nanorobots, nano-assembleurs ou nanomachines mus par des nanomoteurs, que nous aurons concus. "
Les hommes sont ils prets a maitriser cet avenir ?
Je pense que non. Au moins faudrait- il d’abord se poser ensemble la question. ..
Le groupe des Conseillers regionaux Verts de Rhone Alpes elu en 2004 partage ce point de vue, c’est pourquoi il n’a pas voté les subventions regionales au Ple Grenoblois MINNATEC.

(information presse actualisée : voir rapport gouv.
Rapport CIA)
Si vous êtes a la recherche d’informations sur les enjeux des nanos biotechnologiques ,
Je vous recommande 3 articles issus de 3 sites, dont un seul est clairement "anti nano" :

1. l’article de Jean Pierre Dupuy, membre du Comite d’Ethique et de Precaution de l’INRA, Directeur de recherches au CNRS, qui pose bien les probemes, que vous trouverez aussi en bas de page, notamment la partie 4.
(http://2100.org/Nanos/NanosJPDJR.rtf )

site.j.m.DUPUY

Voici un bref extrait choisi de cet article : "La science ne pense pas", disait Heidegger. "Il ne voulait evidemment pas dire que les scientifiques sont tous des imbeciles. La these est que par constitution, la science est incapable de ce retour reflexif sur elle-meme qui est le propre de toute activite humaine responsable. Le debat sur les nanotechnologies, deja intense aux Etats-Unis, encore au stade embryonnaire en France, a toutes chances de degenerer dans la confusion. Il va etre, il est deja presque impossible de reflechir.
Dans la mesure ou il n’est pas trop tard, j’aimerais faire quelques suggestions. d’abord, ne pas se laisser emprisonner dans la problematique des risques, les analyses couts avantages et autre principe de precaution. Non pas que le developpement des nanotechnologies soit sans danger ! Mais le danger est d’une nature telle qu’il est vain de chercher a l’apprehender par les methodes classiques..." (la suite en bas de page, point4 )

2. Le site du CNRS , a voir aussi pour une information documentee :
site.info.cnrs.&co

3. Enfin, Le site futura sciences, dont l’objectif est de "Promouvoir les sciences et les technologies" , de favoriser l’exposition par les scientifiques de leurs travaux et de "Favoriser une maitrise citoyenne des enjeux poses a la societe " qui a l’intelligence de proposer en transparence deux etudes d’impact canadiennes sur les risques pour la sante des travailleurs exposes aux nano. La demarche est plus interessante que celle des pilotes grenoblois actuels. voir (futuracom) .

II. En matiere de Biotechnologies, Biopolis, a La Tronche, Agglomeration de Grenoble, incarne le projet qui se decide d’en haut, sans consultation de la population. Qui a decide d’accueillir ce ple ? Une centaine personnes ( le conseil general, la mairie, l’agglomeration, la Region, l’Etat les presidents d’ universite, les chefs d’entreprise, les chefs de labos...). Les citoyens nont pas ete convies. voir asso naje

Un des problemes, souleve par les ecologistes est que la construction de biopolis est situe sur une zone inondable. Pour l’ Etat, tout est en regle (ce qui juridiquement est vrai) : "Sur une zone inondable, on a le droit de s’installer dans des batiments existants tant qu’on ne batit pas de neuf", precise Dominique Huchet, un des inspecteurs de la DDE. "l’htel des entreprises du vivant" (joliment denomme ainsi pour demontrer que Biopolis n’est pas du developpement industriel, celui ci se fera ailleurs) doit en effet etre integre dans un ancien garage de 3 200 m2, les etablissements Ricou a la Tronche. Il faudra toutefois surelever les constructions d’1,60 m afin que les eaux n’emportent pas les eprouvettes !
Le responsable du projet, Mr Feueurstein, president de l’ Adebag universite ADEBAG, a fait valoir qu’Il n’y a pas de labo P3 ni d’animaux vivants dans Biopolis mais (neanmoins) des tissus animaux et que les domaines abordes sont particulierement utiles : les maladies dues au vieillissement, la cancerologie, la maladie de Parkinson, l’angiologie etc...

Marie Odile NOVELLI
___________________________________________
http://2100.org/Nanos/NanosJPDJR.rtf

Quand les technologies convergeront
par Jean-Pierre Dupuy

Quand les technologies du XXIeme siecle convergeront, l’humanite, grace a elles, pourra enfin atteindre un etat marque par "la paix mondiale, la prosperite universelle et la marche vers un degre superieur de compassion et d’accomplissement." Ces fortes paroles se trouvent dans le document officiel americain qui a lance en juin 2002 un vaste programme interdisciplinaire, richement dote en fonds federaux, denomme "Converging Technologies", mais plus connu sous l’acronyme NBIC : la convergence dont il s’agit est en effet celle des Nanotechnologies, des Biotechnologies, des technologies de l’Information et des sciences Cognitives.

De ces quatre ensembles de disciplines scientifiques et techniques, c’est le premier, les nanotechnologies, qui est cense tirer l’attelage. Cet article n’a pas pour but de presenter l’etat de l’art en la matiere mais de proposer, sur la base de cet exemple privilegie, quelques reflexions sur les rapports entre science, technique et societe.

On peut faire remonter le projet nanotechnologique a une conference donnee par le celebre physicien americain Richard Feynman sous le titre "There’s Plenty of Room at the Bottom". c’etait en 1959, au California Institute of Technology, et Feynman y conjecturait qu’il serait bientot possible d’envisager la manipulation de la matiere au service des fins humaines a l’echelle de la molecule, en operant atome par atome. Le projet d’une ingenierie a l’echelle nanometrique etait ainsi lance.

Ces deux dernieres decennies, des decouvertes scientifiques et des percees technologiques prodigieuses ont vu le jour, qui semblent montrer que ce projet est aujourd’hui a la portee des scientifiques et des ingenieurs. Citons, sans souci d’exhaustivite, la mise au point du microscope a effet tunnel par deux physiciens du centre de recherche d’IBM de Zurich, lequel microscope permet non seulement de "voir" a l’echelle atomique mais aussi de deplacer des atomes a volonte (1982 - 1989) ; la decouverte, qui devait lui valoir le prix Nobel en 1996, que le chimiste americain Richard Smalley fit des fullerenes, structures composees d’atomes de carbone disposes en treillis sur une sphere de la taille du nanometre, structures qui a leur tour se composent pour donner des nanotubes de carbone, sortes d’elements d’echafaudage qui permettent d’envisager de construire a l’echelle nanometrique des materiaux extremement resistants, legers et bon marche ; les premieres realisations en computation quantique, laquelle pourrait revolutionner la puissance de calcul des ordinateurs en jouant, contrairement aux circuits electroniques actuels, sur le principe quantique de superposition des etats (2002) ; la decouverte qu’il est possible d’enrichir l’alphabet du code genetique de nouvelles bases, ce qui permet a la machinerie cellulaire productrice d’amino-acides de fabriquer des proteines que la Nature a elle seule n’aurait jamais pu produire (2002) ; etc.

Le principal argument en faveur des nanotechnologies, qui explique que, s’il est conceptuellement, physiquement, industriellement et economiquement viable, leur developpement parait ineluctable, est que ces nouvelles techniques se presentent comme les seules qui puissent resoudre, en les contournant, les difficultes immenses qui se trouvent sur la route des societes industrielles et post-industrielles. Les problemes lies a l’epuisement previsible des ressources naturelles, a commencer par les sources d’energie fossile, mais aussi les ressources minieres, les problemes d’environnement (rechauffement climatique, pollution de l’air et de l’eau, encombrements de toutes sortes lies a l’urbanisation effrenee, etc.), les problemes lies a la tiers-mondialisation de la planete et a la misere d’une proportion croissante de celle-ci, tous ces problemes et bien d’autres seront en principe non pas resolus par l’avenement des nanotechnologies, mais ils deviendront caducs, obsoletes. On fera tout simplement les choses autrement, d’une maniere radicalement differente. Ce que l’argument omet de dire, c’est que de nouveaux problemes emergeront, en comparaison desquels les difficultes actuelles apparaitront retrospectivement comme negligeables.

I.Une premiere convergence, prometteuse : les nanotechnologies de l’information et de la communication

Depuis 1959, date de l’invention du circuit integre, la fameuse " loi de Moore " s’est trouvee verifiee : tous les dix-huit mois, le nombre de transistors qui peuvent etre fabriques et installes sur une puce a double. On est ainsi passe en quarante ans d’un transistor sur une puce primitive a 100 millions de composants actifs sur les puces actuelles. On atteindra cependant dans les dix ans qui viennent les limites physiques, economiques et en termes d’ingenierie, de la technologie du silicium. Or, si on veut bien considerer les systemes vivants comme des machines computationnelles, on voit que la nature a su creer des structures hierarchisees qui integrent le calcul et la communication des informations jusqu’au niveau sub-nanometrique, celui des atomes. Il est donc loisible d’extrapoler la loi de Moore.

Cependant, cette nouvelle electronique ne pourra voir le jour que par une revolution dans la conception et dans les techniques de fabrication des composants, et, en deca, dans la philosophie meme de ce que sont le calcul et la communication. La nouvelle electronique sera moleculaire, c’est-a-dire que ce seront les molcules elles-memes qui serviront d’ " interrupteurs " electroniques. La lithographie sera remplacee par la maitrise des mecanismes d’auto-assemblage moleculaires. Plus loin encore, on peut esperer controler les electrons a l’unite, mais aussi les photons. Les spins eux-memes peuvent etre traites comme des systemes physiques incorporant une information binaire, donc aptes a incarner une memoire et a stocker et a transmettre de l’information. Le nanomagnetisme, quant a lui, concoit des memoires stables sans besoin d’une alimentation electrique, ce qui revolutionnera l’electronique portable.

Ce ne sont que des exemples. Ils ont en commun que le concept d’information y apparait comme radicalement transforme. Aux echelles dont nous parlons, la physique classique doit faire place a la physique quantique. Aussi bien, l’unite elementaire d’information, le bit, ne correspond plus au choix entre deux possibilites disjointes et egalement probables, mais a la superposition de deux etats de la fonction d’onde. Nous sommes dans un tout autre univers conceptuel, et donc technique.

Certaines estimations envisagent que les performances (capacites, vitesses, etc.) pourront etre accrues a terme dans une proportion de 109 - c’est-a-dire qu’en termes de performances, notre univers est nanometrique par rapport a celui qui se profile a l’horizon. Imaginons seulement ce que serait un acces aux services offerts par le Web 104 plus rapide ; la mise en reseau globale des informations relatives aux personnes et aux choses par des liens a tres forte capacite et a tres faible consommation d’energie via des noeuds espaces d’un metre et non pas d’un kilometre ; des capacites enormes de calcul et de traitement de l’information incarnees dans des dispositifs a tres faible volume, comme les montures d’une paire de lunettes, etc. Donc un univers caracterise par l’ubiquite des techniques de l’information, tous les objets constituant notre environnement, y compris les parties de notre corps, echangeant en permanence des informations les uns avec les autres. Le consequences sociales seraient "phenomenales", tous les experts en tombent d’accord. Elles poseraient des problemes non moins phenomenaux, lies en particulier a la protection des libertes et droits fondamentaux.

2.Une seconde convergence, problematique : les nanobiotechnologies.

La revolution dans notre conception de la vie qu’a introduite la biologie moleculaire fait de l’organisation vivante le modele par excellence d’une " nanotechnologie naturelle " qui fonctionne admirablement bien. qu’est-ce qu’une cellule dans cette vision des choses sinon une nano-usine faite de nanomachines moleculaires capables d’auto-replication, voire d’auto-complexification ? Les proprietes d’auto-assemblage des virus ou de l’ADN ; le rle que jouent dans le metabolisme cellulaire des molecules fonctionnant comme des engins macroscopiques, ayant les fonctions qui d’une roue, qui d’un fil, qui d’un interrupteur, le tout fonctionnant au moyen de " moteurs " alimentes par energie chimique, optique ou electrique ; les connexions qui se realisent spontanement entre les molecules du systeme nerveux pour traiter et transmettre l’information : autant d’exemples qui prouvent que la nature, avec le vivant, a " su creer " de l’organisation. Puisque la nature n’est pas un sujet, le terme technique que l’on utilise pour decrire ce prodige est celui d’auto-organisation.

Le projet nanotechnologique entend rivaliser avec la nature. Ce que celle-ci a fait, l’homme, qui lui est un sujet, dote d’intelligence, doit pouvoir le faire aussi bien, et peut-etre mieux. Il faut rappeler que ce projet demiurgique a ete lance comme on lance, dans le commerce, un produit de grande consommation, par Eric Drexler, qui etait dans les annees 80 etudiant de doctorat au MIT sous la direction de Marvin Minsky, l’un des fondateurs de l’intelligence artificielle. Drexler publia en 1986 un livre programme, Engines of Creation, c’est avec beaucoup de scepticisme et meme d’ironie que la communaute scientifique, et encore plus le monde des affaires et de l’industrie, accueillirent d’abord les utopies visionnaires de Drexler. Les choses devaient changer du tout au tout en l’espace de quelques annees. Desormais etabli a Palo Alto, en Californie, au sein d’un Foresight Institute qui se consacre energiquement a la promotion des nanotechnologies, Drexler organise chaque annee des congres mondiaux qui obtiennent un succes de plus en plus marque. Or, pour le Foresight Institute, les nanotechnologies au sens fort ne naitront vraiment que lorsque l’homme sera capable de realiser une nanomachinerie artificielle, inspiree ou non de l’auto-organisation biologique. Le temps viendra, prophetise Drexler, ou nous pourrons tout demander a des nanopuces, nanorobots, nano-assembleurs ou nanomachines mus par des nanomoteurs, que nous aurons concus.

Beaucoup de scientifiques tiennent ouvertement le programme de Drexler pour une utopie, voire une fumisterie, alors meme qu’ils empochent sans sourciller les mannes budgetaires que l’operation de marketing du Foresight Institute a fait pleuvoir sur eux ! j’y reviendrai. Mais les nanotechnologues serieux ne reculent pas devant l’idee de se servir du vivant et de ses proprietes d’auto-organisation, d’auto-replication et d’auto-complexification pour le mettre au service des fins humaines. Un premier type de demarche consiste a extraire du vivant les nanomachines qu’il a su engendrer avec ses seules ressources et, les associant a des supports ou a des systemes artificiels, a les faire travailler pour nous. On peut ainsi tirer profit des proprietes remarquables des acides nucleiques et des proteines, en concevant des biopuces et des biocapteurs capables de detecter la presence de genes mutants, de micro-organismes ou de fragments d’ADN, en jouant sur les affinites specifiques de ces molecules avec une sonde fixee sur la puce. On pourrait confier l’assemblage de nanocircuits electroniques complexes a de l’ADN, tirant parti de ses facultes d’auto-assemblage. Cette "bioelectronique" pourrait deboucher a terme sur la conception d’ordinateurs biologiques. l’arraisonnement de la vie aux fins de l’homme peut aller jusqu’a modifier le genome d’insectes volants pour en faire des machines utiles a l’industrie et a la guerre.

Une autre demarche vise a realiser des fonctions biologiques en associant les savoir-faire du genie genetique et de la nanofabrication. l’artefact vient ici au service du vivant pour l’aider a mieux fonctionner. Cette demarche est d’esprit plus traditionnel - que l’on songe aux pacemakers et protheses de toute sorte - mais l’echelle nanometrique cree des defis considerables. On sait deja fabriquer des globules rouges artificiels beaucoup plus efficaces que ceux dont la nature nous a dotes dans l’approvisionnement de nos tissus en oxygene. Les perspectives therapeutiques s’annoncent "extraordinaires", pour reprendre le terme le plus utilise par des rapports officiels d’ordinaire plus mesures dans leurs propos. La guerison du cancer et du Sida est peut-etre a l’horizon, si l’on arrive a fabriquer des nanovesicules intelligentes qui sauront cibler dans l’organisme les cellules malades et leur porter selectivement des coups mortels.

En s’unissant aux biotechnologies, les nanotechnologies en demultiplient l’ambition. Les biotechnologies prennent les produits de l’evolution biologique pour donnes et se contentent de les utiliser ou de les reproduire pour les mettre au service des fins humaines. Le projet nanotechnologique est beaucoup plus radical. Il part du constat que l’evolution est un pietre ingenieur, qui a fait son travail de conception plus ou moins au hasard, se reposant sur ce qui marchait a peu pres pour echafauder de nouvelles constructions plus ou moins branlantes - bref, en bricolant. l’esprit humain, relaye par les technologies de l’information et de la computation qui le depasseront bientot en capacites d’intelligence et d’imagination, fera beaucoup mieux.

3.Une troisieme convergence, essentielle : l’esprit des nanotechnologies est dans les sciences cognitives

En arriere-fond de tout "paradigme" scientifique, il y a ce que Karl Popper appelait un "programme metaphysique de recherches" - ensemble non "testable" de propositions que l’on tient pour vraies sans chercher a les remettre en cause, cadre theorique qui limite le type de questions que l’on pose mais aussi qui en donne l’inspiration premiere. Le paradigme "nano" procede de la meme metaphysique que les sciences cognitives. Celle-ci peut se dire ainsi : tout dans l’univers, donc la nature, la vie et l’esprit, est machine informationnelle, dite encore algorithme. Chronologiquement, et contrairement peut-etre a certaines idees recues, c’est d’abord l’esprit (mind) qui a ete assimile a un algorithme (ou machine de Turing : modele de McCulloch et Pitts, 1943) ; puis ce fut le tour de la vie, avec la naissance de la biologie moleculaire (Max Delbruck et le groupe du phage, 1949) ; et, seulement plus tard, la these que les lois de la physique sont recursives (ou Turing-computables). Une fois admise une telle vision du monde, il n’y a qu’un pas pour en arriver a former le projet de se rendre maitre de ces machines, d’abord en les simulant et en les reproduisant (naissance de l’intelligence, puis de la vie artificielles), ensuite en intervenant sur elles a la maniere de l’ingenieur (biotechnologies, technologies cognitives, etc.).

Un second courant des sciences cognitives, issu des reflexions de John von Neumann, a engendre les sciences de la complexite et de l’auto-organisation. l’ingenierie qui en resulte est tres differente de la conception classique. Dans cette derniere, il s’agit de concevoir et de realiser des structures dont le comportement reproduira les fonctionnalites que l’on juge desirables. l’ingenieur de la complexite, lui, "se donne" des structures complexes (eventuellement en les puisant dans le reservoir que nous offrent la nature et la vie, par exemple un cerveau humain, ou bien en les reproduisant artificiellement, par exemple sous la forme d’un reseau de neurones formels) et explore les fonctionnalites dont elles sont capables, en essayant de degager le rapport structure/fonction : demarche ascendante, ("bottom-up") donc, et non pas descendante ("top-down"). l’industrie du software repose deja en partie sur ce retournement. La recherche sur les algorithmes genetiques consiste a simuler les capacites evolutives d’une "soupe" primitive constituee de programmes d’ordinateur, les plus performants se reproduisant d’avantage que les autres. On obtient ainsi des algorithmes tres performants en effet, puisqu’ils ont ete "selectionnes" selon ce critere, mais on est dans l’incapacite de comprendre pourquoi ils ont ces proprietes.

4.Le double langage de la science, et pourquoi celle-ci est devenue une des activites humaines les plus dangereuses

Cet article prend maintenant un tour plus personnel. Apres l’expose des faits, vient le temps du jugement et de l’engagement.

Les promoteurs des nanosciences et des nanotechnologies sont nombreux, puissants et influents : les scientifiques et les ingenieurs enthousiasmes par la perspective de percees fabuleuses ; les industriels attires par l’espoir de marches gigantesques ; les gouvernements des nations et des regions du globe terrorises a l’idee de perdre une course industrielle, economique et militaire tres rapide ou vont se jouer les emplois, la croissance, mais aussi les capacites de defense de demain ; et, enfin, les representants de ce vaste sujet collectif et anonyme qu’est la fuite en avant technologique ou la technique apparait seule capable de contenir les effets indesirables et non voulus de la technique.

On se s’etonne donc pas que soient vantes partout en termes hyperboliques les bienfaits pour l’humanite de la revolution scientifique et technique en cours. Le rapport americain de la National Science Foundation (NSF) par lequel j’ai commence, et dont le titre complet est "Converging Technologies for Improving Human Performances", bat sans doute tous les records. Il ne promet pas moins a terme que l’unification des sciences et des techniques, le bien-etre materiel et spirituel universel, la paix mondiale, l’interaction pacifique et mutuellement avantageuse entre les humains et les machines intelligentes, la disparition complete des obstacles a la communication generalisee, en particulier ceux qui resultent de la diversite des langues, l’acces a des sources d’energie inepuisables, la fin des soucis lies a la degradation de l’environnement. Prudemment, le rapport conjecture que "l’humanite pourrait bien devenir comme un ’cerveau’ unique, [dont les elements seraient] distribues et interconnectes par des liens nouveaux parcourant la societe." On recoit cependant un choc en decouvrant que l’un des deux responsables de la publication, William Sims Bainbridge, technocrate influent de la NSF, milite dans la vie civile dans une secte qui preche le "transhumanisme", c’est-a-dire le depassement de l’imparfaite espece humaine par une cyber-humanite. Celle-ci pourra acceder a l’immortalite lorsqu’on saura transferer le contenu informationnel du cerveau, "donc" l’esprit et la personnalite de chacun, dans des memoires d’ordinateur. On ne s’amuse plus du tout lorsqu’on apprend que, prevoyant des resistances de la part des institutions et des elites "traditionnelles", a commencer par les religions etablies, M. Bainbridge en appelle quasiment a la rebellion armee.

Quelques chercheurs de base sont assez lucides pour comprendre ceci. A trop vanter les consequences positives "fabuleuses" de la revolution en cours, on s’expose a ce que des critiques non moins hypertrophiees s’efforcent de la tuer dans l’oeuf. Si l’on prend au serieux le programme de Drexler, alors on ne peut pas ne pas s’effrayer des risques inouis qui en resulteraient. Le succes du dernier roman de Michael Crichton, Prey, a rendu celebre dans toute l’Amerique le risque de gray goo, dit encore d’ecophagie globale : le risque d’une autoreplication sauvage des nanomachines cheres au Foresight Institute, a la suite d’un accident de programmation. Tout ou partie de la biosphere serait alors detruite par epuisement du carbone necessaire a l’autoreproduction des nano-engins en question. Ce risque ne peut vraiment effrayer que celui qui croit a la possibilite de telles machines. Il suffit de nier cette possibilite pour ecarter le pseudo-risque d’un haussement d’epaules.

La directrice du projet NanoBio du CEA a Grenoble, l’un des fleurons de la nanobiotechnologie francaise, ecrit a ses troupes : "Je ne pense pas qu’un scientifique normal se reconnaisse dans les visions de Drexler." Il faut donc en conclure que l’actuel directeur du departement "sciences physiques et mathematiques" du CNRS, Michel Lannoo, eminent physicien, specialiste des semi-conducteurs et l’un des principaux artisans du developpement des nanosciences en France, est un scientifique anormal. En introduction a un numero special du journal du CNRS de l’ete 2002, consacre au "nanomonde", il declarait en effet : "l’oeuvre d’Eric Drexler m’a beaucoup influence. j’ai achete 25 exemplaires d’un de ses livres, Engines of Creation, pour que chacun des membres de mon laboratoire le lise."
La verite est que la
communaute scientifique tient un double langage, ainsi qu’elle l’a souvent fait dans le passe. Lorsqu’il s’agit de vendre son produit, les perspectives les plus grandioses sont agitees a la barbe des decideurs. Lorsque les critiques, alertes par tant de bruit, soulevent la question des risques, on se retracte : la science que nous faisons est modeste. Le genome contient l’essence de l’etre vivant mais l’ADN n’est qu’une molecule comme une autre - et elle n’est meme pas vivante ! Grace aux OGM, on va resoudre une fois pour toutes le probleme de la faim dans le monde, mais l’homme a pratique le genie genetique depuis le Neolithique. Les nanobiotechnologies permettront de guerir le cancer et le Sida, mais c’est simplement la science qui continue son bonhomme de chemin. Par cette pratique du double langage, la science ne se montre pas a la hauteur de ses responsabilites.

"La science ne pense pas", disait Heidegger. Il ne voulait evidemment pas dire que les scientifiques sont tous des imbeciles. La these est que par constitution, la science est incapable de ce retour reflexif sur elle-meme qui est le propre de toute activite humaine responsable. Le debat sur les nanotechnologies, deja intense aux Etats-Unis, encore au stade embryonnaire en France, a toutes chances de degenerer dans la confusion. Il va etre, il est deja presque impossible de reflechir.

Dans la mesure ou il n’est pas trop tard, j’aimerais faire quelques suggestions. d’abord, ne pas se laisser emprisonner dans la problematique des risques, les analyses couts - avantages et autre principe de precaution. Non pas que le developpement des nanotechnologies soit sans danger ! Mais le danger est d’une nature telle qu’il est vain de chercher a l’apprehender par les methodes classiques. Multiplier des perspectives de dommages par des probabilites subjectives est une demarche derisoire lorsqu’il s’agit d’apprecier des effets qui peuvent aller, a en croire les thuriferaires, jusqu’a un " changement de civilisation ".

La question essentielle est la suivante : comment expliquer que la technoscience soit devenue une activite si " risquee " que, selon certains scientifiques de premier plan, elle constitue aujourd’hui la principale menace a la survie de l’humanite. Les philosophes repondent a cette question en disant que le reve de Descartes - "se rendre maitre et possesseur de la nature" - a mal tourne. Il serait urgent d’en revenir a la "maitrise de la maitrise". Ils n’ont rien compris. Ils ne voient pas que la technoscience qui se profile a l’horizon, par "convergence" de toutes les disciplines, vise precisement a la non-maitrise. l’ingenieur de demain ne sera pas un apprenti sorcier par negligence ou incompetence, mais par finalite. Il se "donnera" des structures ou organisations complexes et il se posera la question de savoir ce dont elles sont capables, en explorant le paysage de leurs proprietes fonctionnelles - demarche "ascendante", comme on l’a vu. Il sera au moins autant un explorateur et un experimentateur qu’un realisateur. Ses succes se mesureront plus a l’aune de creations qui le surprendront lui-meme que par la conformite de ses realisations a des cahiers des charges preetablis. Des disciplines comme la vie artificielle, les algorithmes genetiques, la robotique, l’intelligence artificielle distribuee repondent deja a ce schema. Comme, par ailleurs, le savant sera de plus en plus celui qui, non pas decouvre un reel independant de l’esprit, mais explore les proprietes de ses inventions (disons le specialiste d’intelligence artificielle plutot que le neurophysiologiste), les rles de l’ingenieur et du savant tendront a se confondre.

Un regroupement de centres de recherches europeens s’est donne pour nom NanoToLife - abreviation de "Bringing Nanotechnology to Life". l’ambivalence de l’expression est un chef d’oeuvre de ce double langage que je denoncais ci-dessus. Elle peut signifier, modestement, dans une attitude de retrait, "Faire venir les nanotechnologies a l’existence", ou bien encore "Rapprocher les nanotechnologies des sciences de la vie". Mais on ne peut pas ne pas y entendre le projet demiurgique de fabriquer de la vie au moyen de la technique. Et celui qui veut fabriquer - en fait, creer - de la vie ne peut pas ne pas ambitionner de reproduire sa capacite essentielle, qui est de creer a son tour du radicalement nouveau.

Le lobby nanotechnologique a actuellement peur. Il a peur que son operation de relations publiques aboutisse a un ratage encore plus lamentable que celui qu’a connu le genie genetique. Avec la conference d’Asilomar en 1975, les choses avaient pourtant bien commence. La communaute scientifique avait reussi a se donner le monopole de la regulation du domaine. Trente ans plus tard, le desastre est accompli. La moindre realisation biotechnologique fait figure de monstruosite aux yeux du grand public. Conscients du danger, les nanotechnologues cherchent une issue du cte de la "communication" : calmer le jeu, rassurer, assurer l’"acceptabilite". Ce vocabulaire de la pub a quelque chose d’indecent dans la bouche des scientifiques.

Que faire ? Il serait naif de croire que l’on pourrait envisager un moratoire, ou meme, a court terme, un encadrement legislatif ou reglementaire, lequel, en tout etat de cause, ne pourrait etre que mondial. Les forces et les dynamiques a l’oeuvre n’en feraient qu’une bouchee. Le mieux que l’on puisse esperer est d’accompagner, a la meme vitesse que leur developpement et, si possible, en l’anticipant, la marche en avant des nanotechnologies, par des etudes d’impact et un suivi permanent, non moins interdisciplinaires que les nanosciences elles-memes. Une sorte de mise en reflexivite en temps reel du changement scientifique et technique serait une premiere dans l’histoire de l’humanite. Elle est sans doute rendue inevitable par l’acceleration des phenomenes.
Une chose est certaine : la question de la responsabilite de la science est devenue beaucoup trop grave pour qu’on laisse le soin d’en debattre aux seuls scientifiques.

/