Le blog

15 février 2016 - Les cannabinoïdes endogènes

15 janvier 2016 - Tox21 : vers une alternative aux études toxicologiques sur l'animal 

28 décembre 2015 - CRISPR - Nobel 2015 - Réparation ADN

2 mars 2015 - Faut-il redéfinir le sexe (biologique) ?

8 février 2015 - Faut-il redéfinir le vivant

15 mai 2014 - Dame Nature et l'alphabet de Dieu

30 mars 2014 - Antibiotiques : la course contre la montre

6 mars 2014 - Les batteries rechargeables du futur (proche)

15 février 2014 - F. Hollande rend hommage aux cerveaux français... expatriés !

12 janvier 2014 - La dé-faite de la science 

19 mars 2013 - Remuez vos méninges

4 octobre 2012 - Sciences, éthique et société

30 septembre 2012 - Comment torpiller la cause que l'on défend...

6 septembre 2012 - Sciences : qu'appelons-nous vrai ?

17 mai 2011 - Les mécanismes d'addiction sexuelle

3 janvier 2011 - Gaz de schistes

 

 

Neige artificielle avec... un canon à bactéries

Pseudomonas syringae permet de cristalliser l'eau plus facilement..

Parce qu’elle contient une protéine qui permet d'augmenter la température de congélation, on utilise cette bactérie pour faire de la neige artificielle... mais aussi pour économiser l'énergie utilisée dans les systèmes de surgélation des aliments, tout au long de la chaîne du froid,

 

On sait en effet que Pseudomonas syringae a la capacité de créer des noyaux d'agrégation à la base de la formation des cristaux de glace .

 

En fait, c'est la protéine Ina Z (une protéine dite INP = Ice Nucleation Protein), à la surface de la bactérie, qui organise les molécules d'eau dans une structure ordonnée qui permet à la structure cristalline de se former plus facilement.

 

Le mécanisme a été récemment élucidé grâce à la spectroscopie de fréquence somme (SFG),  technique utilisée pour analyser les surfaces et les interfaces (liquide-solide en particulier).

 

La vidéo ci-dessous explique très bien la nature de ce phénomène. 

 

... car l'eau peut rester liquide jusqu'à - 48°C !

La glace dans tous ses états...

 

L'eau forme des agrégats tétraédriques.

En phase solide, l'arrangement tétraédrique des molécules d'eau s'étend à longue distance, pour donner la forme cristalline.

 

Il existe de nombreux arrangements de la glace en fonction de la température et de la pression (11 sous haute pression), mais, dans les conditions normales, la structure stable de la glace est hexagonale ; elle est  nommée Ih.

 

Dans ces conditions (pression atmosphérique, 0°C), l'eau cristallise, c'est à dire s'organise dans cette structure hexagonale.

 

Mais dans ces mêmes conditions de pression (PA) on peut observer une surfusion (équilibre métastable).  Par exemple, les nuages sont une accumulation de gouttelettes d’eau en surfusion.

 

Des chercheurs ont montré théoriquement, par simulation, que l'eau très pure pouvait rester liquide jusqu'à -48°C.

En effet en refroidissant très rapidement de l'eau, les gouttelettes microscopiques n'ont pas la possibilité d'organiser les cristaux et présentent une structure amorphe.

 

C'est à l'approche des -48°C que le comportement thermodynamique particulier de l'eau (sa compressibilité devient plus facile en refroidissant, sa densité diminue...) conduit obligatoirement à la cristallisation.

 

Néanmoins, l'équilibre métastable permettant la surfusion peut être très facilement rompu (en agitant le contenant par exemple ou en introduisant une impureté... ou un microbe !).

 

Bombarder les sols avec ces bactéries, est-ce bien raisonnable ?

Chancre bactérien des marronniers
Chancre bactérien des marronniers

Quand on voit les chancres bactériens provoqués par les bactéries en question sur les marronniers ou les fruitiers de nos jardins, on peut être saisi d'un doute !

 

En effet, si Pseudomonas syringae permet d'augmenter la température d'apparition de la glace, ce n'est certainement pas pour complaire aux stations de ski, mais bien pour pouvoir - grâce à sa propriété glaçogène - pénétrer dans les bourgeons ou traverser l’écorce des branches ou du tronc des plantes hôtes, leur infligeant ainsi les blessures que montrent ces photos.

 

Si l'utilisation de Pseudomonas syringae devenait une pratique courante pour faire de la neige artificielle, la bactérie (déjà assez ubiquitaire) pourrait-elle envahir des écosystèmes d’où elle était absente et se propager de manière incontrôlée ?

 

Pour le professeur Carmen de Jong de l'Université de Savoie : " Certes la bactérie est inactivée, mais elle sert de nourriture à d’autres bactéries pathogènes, qui peuvent se multiplier."  Les risques d'une exposition directe seraient notamment des réactions inflammatoires et des allergies des voies respiratoires ou de la peau.

 

Notons que ses travaux sur la neige artificielle ont conduite directement la chercheuse... au placard ! (1)

 

D'où l'inquiétude de nos amis suisses qui utilisent couramment ces bestioles. De telles pratiques n'existeraient plus  en France depuis 2005... Dit-on.

 

(1) Depuis Carmen de Jong a aggravé son cas ; elle a fait l'objet d'une retenue sur salaire de 60% en 2013 "pour services non faits". Pour être objectif, il faut reconnaître que certains experts n'ayant aucun conflit d'intérêt (ce qui n'est pas le cas de nombre de ses adversaires), contestent ses travaux.

Par contre, l'impact de l'enneigement artificiel sur les ressources en eau inquiète désormais de nombreux chercheurs.

 

En effet il n'y a plus de sports d'hiver possible sans neige "de culture". 

 

Sont affectés par la prolifération des canons à neige :

 

- Les paysages :

Impact visuel des équipements (canons, retenues, voie d’accès pour l’entretien des retenues, terrassements des sols pour le travail de la neige artificielle).

 

- La biodiversité :

Ecosystèmes : modification du régime des cours d’eau par les prélèvements et le retard de la fonte de neige ; augmentation des risques de pollution ; destruction d’espaces remarquables (zones humides, zones de karst) pour l’installation des retenues alors que leurs valeurs et fonctions écologiques sont reconnues.

Faune : fragmentation des populations ; détérioration de la qualité des habitats ; dérangements liés aux nuisances sonores ajoutés à la mortalité engendrée par certains équipements (cas de l’avifaune).

Flore : excès d’eau pour le sol et les végétaux dû à une plus forte teneur en eau de la neige artificielle (2 fois plus que la neige naturelle) ; augmentation des contraintes auxquelles sont soumis les écosystèmes par une présence du manteau neigeux plus importante que celui de l’enneigement naturel.

 

- Les Populations :

Conflits d’usage entre l’enneigement artificiel et l’approvisionnement des populations en eau potable...L

 Les cannabinoïdes endogènes

Après le dramatique accident de BIOTRIAL

L'incident majeur qui a affecté l'essai clinique en phase 1, mené par le laboratoire BIOTRIAL sur une molécule censé interagir avec  les récepteurs des cannabinoïdes endogènes, met (dramatiquement) en lumière les recherches intensives menées dans ce domaine depuis une vingtaine d'années

 

Le système endocannabinoïde (ECS) est un groupe de  récepteurs cannabinoïdes situés dans le cerveau des mammifères et tout au long des systèmes nerveux central et périphérique, comprenant des neuromodulateurs lipidiques et leurs récepteurs. 

 

l'ECS est impliqué dans une variété de processus physiologiques dont l'appétit, douleur-sensation, l'humeur et la mémoire, et dans la médiation des effets psychoactifs du cannabis. 

 

Deux récepteurs endocannabinoïdes primaires ont été identifiés: CB1 et CB2. Les récepteurs CB1 se trouvent principalement dans le cerveau et le système nerveux.

 

 

Le système endocannabinoïde (EC) communique ses messages d'une façon rétrograde

 

Normalement les neurotransmetteurs libérés du neurone (cellule présynaptique), passent à travers la synapse et se fixent sur des des récepteurs spécifiques situés sur la cellule post-synaptique ce qui déclenchent une série d'événements et permet de délivrer le message.

 

VOIR SUR LE SITE ICI

 

Pour le système EC, lorsque le neurone post-synaptique est activé, les cannabinoïdes (messagers chimiques de EC) sont formés à partir des précurseurs lipidiques (cellules graisseuses). Ensuite, ils sont libérés et se déplacent vers  le neurone présynaptique, où ils se fixent aux récepteurs à cannabinoïdes.

 

 

Les récepteurs CB1 du cerveau sont les portes d'accès des cannabinoïdes.

 

Il existe donc des cannabinoïdes  endogènes  dans le corps humain, comme l'anandamide ou le 2-arachidonoylglycérol (2-AG).

 

Ces molécules ont une activité semblable au THC (trans -Δ9 - tétrahydrocannabinol), principal constituant psychoactif du cannabis.

 

Une carence en ces cannabinoïdes peut conduire à un spectre de troubles graves qui peut être traitée avec de la marijuana médicale et toutes les thérapies cannabinoïdes.

 

De nombreux publications traitent en particulier des effets antalgiques des  cannabinoïdes. 

 

VOIR ICI

 

Tox21 : vers une alternative aux études toxicologiques sur l'animal

Tox21 Robot B-Roll
Tox21 Robot B-Roll

Tox21 (pour toxicologie/21ème siècle) est un programme très ambitieux destiné à tester in vitro la toxicité de substances chimiques.

 

Il s'agit d'améliorer la fiabilité des études actuelles et de réduire le recours à l'expérimentation animale pour les évaluations toxicologiques.

 

Programme fédéral américain, il est porté par le NIH (National Institutes of Health) , y compris le RNTAC (National Center for Advancing Translational Sciences), l'Environmental Protection Agency et la FDA (Food and Drug Administration ).

 

En utilisant un système d'analyse robotique à haut débit, les scientifiques testent actuellement une collection de 10.000 produits chimiques soupçonnés (ou susceptibles de) perturber les voies biologiques (bibliothèque Tox21 10K).

 

Les tout derniers résultats publiés, qui concernent la réponse d'un panel de récepteurs nucléaires et de mécanismes de stress, ont permis d'élaborer des modèles prédictifs très performants.

CRISPR-cas9 (suite) : batailles rangées !

Décidément, après avoir animé l'année scientifique 2015, CRISPR agite la communauté scientifique en ce mois de janvier 2016.

 

Sous le titre, "CRISPR, the good, the bad and the unknown", la revue Nature tempère l'enthousiasme de certains chercheurs en insistant sur les problèmes d'éthique qui sont soulevés par ce type de manipulation de gènes.

 

Néanmoins, le potentiel de ces nouvelles technologies est tel, que c'est une véritable foire d'empoigne qui s'amorce autour des brevets déposés par les institutions académiques pour la technique connue sous le nom de CRISPR-cas9.

 

J'ai rappelé ci-après que c'est le groupe dirigé par l'américaine Jennifer Doudna de l'Université de Californie, Berkeley, et la française Emmanuelle Charpentier (actuellement à l'Institut Max Planck à Berlin) alors en poste à l'université d'Umeå en Suède, qui sont à l'origine de cette découverte. Leur demande de brevet remonte au 15 Mars 2013.

 

Il a alors été montré que cette technique fonctionnait avec des cellules humaines, ce qui ouvrait d'immenses perspectives en thérapie génique. Ainsi, un nouveau brevet était déposé par le groupe de biologie synthétique du Dr Feng Zhang au MIT de Cambridge. Ce dernier déposait un brevet en octobre 2013, demande validée en avril 2014.

En Avril 2015, l'équipe de Berkeley de J. Doudna a demandé à l'USPTO (United States Patent and Trademark Office ) de lancer une procédure d'interférence pour déterminer qui sont les véritables "inventeurs" de CRISPR-cas9.

 

Des centaines de millions de dollars sont en jeu !

 

 

NB : Kathy Niakan (Institut Francis Crick, Londres) a été autorisée par la Human Fertilisation and Embryology Authority (HFEA, UK) à modifier des embryons humains en utilisant la technologie d'édition de gènes CRISPR/cas9.

28 décembre 2015

CRISPR, la percée scientifique de l'année 2015

 

L'américaine Jennifer  Doudna et la française Emmanuelle Charpentier, futurs prix Nobel ?

Révélé, en 2007,  par une entreprise spécialisée dans la production de yaourt, identifié comme un mécanisme de défense inconnu utilisé par les bactéries pour combattre les virus, officiellement présenté en 2012, CRISPR, (acronyme pour Clustered Regularly Interspaced Short Palindromic Repeats) est consacré cette année par la revue Science.

 

A partir de ce mécanisme de défense bactérien, c'est une nouvelle technique de suppression et d'insertion de gènes qui se répand dans les laboratoires, avec en premier lieu l'espoir de traiter de nombreuses maladies génétiques.

 

La microbiologiste française, Emmanuelle Charpentier(chaire Alexander von Humboldt), est une véritable pionnière dans le domaine. Avec sa consoeur américaine, Jennifer Doudna (Berkeley), elle a montré tout le potentiel du système CRISPR-Cas9 (Cas9 est une endonucléase, permettant de couper l'ADN sur deux zones de coupe actives, une pour chaque brin de la double hélice).

 

Ce système constitue un extraordinaire tandem pour détecter facilement une séquence d'ADN donnée, puis la découper avec précision.

 

E. Charpentier a montré qu'il pouvait être utilisé pour supprimer un gène déficient (ou néfaste). Il suffit de fabriquer en laboratoire un « ARN guide » correspondant au gène que l'on souhaite cibler, puis de l'arrimer à une enzyme Cas9.... qui coupe alors ce gène.

 

Une véritable révolution en génie génétique qui envoie aux oubliettes les méthodes mises au point antérieurement (ZFNs, TALENs).

 

Jennifer Doudna (UC Berkeley / HHMI): Genome Engineering with CRISPR-Cas9

Palindrome

ADN, chimie, vivant ; après le Nobel de chimie 2015

Le prix Nobel de chimie 2015 met en lumière, si besoin était, le travail fondamental des chercheurs autour de ce qui est le fondement même de la vie sur cette terre : les acides nucléiques.

 

Ce sont les mécanismes de réparation de l'ADN qui viennent d'être récompensés.

 

La chimie est au coeur de ces processus qui impliquent  l'élaboration et la rupture de liaisons chimiques. 

Sans la chimie, ces processus ne seraient pas possible, et la vie ne pouvaient tout simplement pas se produire.

 

 

On a longtemps cru que l'ADN, support de l'information génétique, était totalement inerte ; la pérennisation de la vie sur terre pendant des millions d'années semblait l'imposer.

 

Tomas Lindahl, l'un des trois récipiendaires de ce Nobel, après avoir mis en évidence la fragilité de l'ARN(de structure très voisine, mais possédant une fonction hydroxyle libre), fut le premier a montrer que l'ADN, soumis à de nombreux stress naturels tout au long de la vie de la cellule, peut subir des dommages. 

Le métabolisme cellulaire produit notamment des espèces réactives de l’oxygène et l’environnement soumet en permanence les organismes à des agressions, comme le rayonnement ultraviolet (UV), les radiations ionisantes ou l'exposition à des agents génotoxiques (tabac par exemple).

Lindhal fut aussi pionnier dans la découverte des mécanismes de réparation dont les cellules disposent.

 

Lindahl. Instability and decay of the primary structure of DNA. Nature362, 709-715 (1993)

Lindahl and R.D. Wood. Quality control by DNA repair. Science 286, 1897-1905 (1999)

De nombreux mécanismes de réponse ont été développés par la cellule pour la prise en charge et l’élimination des différents types de lésions pouvant altérer le matériel génétique.

 

De plus, lorsque la lésion n’est pas réparée avant l’arrivée de la fourche de réplication, une voie de tolérance aux dommages existe afin d’empêcher un arrêt intempestif de la réplication.

 

La réparation de l’ADN comprend l’ensemble des voies permettant de rétablir l’intégrité de l’information génétique.

 

VOIR ICI

Le Prix Nobel de chimie 2015 récompense trois pionniers qui ont cartographié plusieurs de ces systèmes de réparation :

 

- le système de réparation par excision de base(base excision repair ou BER), découvert parTomas Lindahl,

- le système de réparation des mésappariements  (mismatch repair), identifié par Paul Modrich,

- le système de réparation par excision de nucléotides (nucleotide excision repair ou NER), cartographié par Aziz Sancar.

 

Ce dernier système est décrit dans le film d’animation ci-dessous, réalisé avec le soutien de l’Inserm et de l’Institut de Génétique et de Biologie Moléculaire et Cellulaire (IGBMC, Ilkirch).

VOIR AUSSI

Voies de réparation d'ADN en tant que cibles pour la thérapie du cancer
Voies de réparation d'ADN en tant que cibles pour la thérapie du cancer

Pour conclure :

 

 Les dommages à l’ADN font partie de la vie d’une cellule et peuvent être responsables de nombreux soucis.

 Elle dispose heureusement de mécanismes de réparation complexes, spécialisés et efficaces.

 

Lorsque des mutations ponctuelles non réparées surviennent dans les lignées germinales, elles se transmettent et sont à l’origine de maladies génétiques, parfois redoutables.

D'autre part, la dérégulation des mécanismes de réparation et de signalisation est à l'origine de l’instabilité génétique observée dans les cancers, et participe ainsi à la carcinogénèse.

 D'un autre côté, les dommages à l’ADN réparés avec des erreurs sont un moteur essentiel à l’évolution des espèces.

 

La recherche fondamentale sur le cancer étudie donc les processus destinés à maintenir l’intégrité du génome. Cette recherche vise à mettre en évidence, à l’échelle moléculaire, une relation entre un défaut de réparation de l’ADN et l’instabilité génétique que ce soit au niveau du nucléotide (substitution, insertion ou délétion) ou du chromosome.

 

L'application de cette recherche est évidente puisqu'on sait que les cellules cancéreuses utilisent des mécanismes de réparation d'ADN pour survivre. De nombreux chercheurs étudient les moyens de perturber ou de détruire les processus de réparation dans les cellules cancéreuses.

La FDA américaine et l'EMA européenne viennent ainsi d'approuver la mise sur le marché du Lynparza (poly polymérase ADP-ribose -PARP-) pour les femmes atteintes d'un cancer avancé de l'ovaire associé à des gènes BRCA défectueux.

 

A propos de CHIMIE/VIVANT/ADN, sur le SITE :

 

En 2009, l'ARN avait eu aussi son Nobel

Si l’ADN est le sup­port de l’héré­dité, c’est l’ARN, l’acide ribo­nu­cléi­que, qui est géné­ra­le­ment uti­lisé dans les cel­lu­les comme inter­mé­diaire des gènes pour fabri­quer les pro­téi­nes dont elles ont besoin. L’ARN inter­vient aussi dans nombre de réac­tions chi­mi­ques de la cel­lule.

 

D’un point de vue évolutif, on pense que l’ARN serait anté­rieur à l’ADN comme sup­port de l’infor­ma­tion géné­ti­que, ce qui expli­que­rait ses fonc­tions plus étendues et sa géné­ra­li­sa­tion. L’ADN serait apparu plus tard  en raison de sa plus grande sta­bi­lité.

 

 

VOIR : ORIGINE DE LA VIE , UN MONDE ARN ?

 

Structure RX d'un ribosome de bactérie : les molécules d'ARN sont en orange ; les protéines de la petite sous-unité en bleues, celles de la grande sous-unité en vert. Une molécule d'antibiotique (en rouge) est lié à la petite sous-unité du ribosome.
Structure RX d'un ribosome de bactérie : les molécules d'ARN sont en orange ; les protéines de la petite sous-unité en bleues, celles de la grande sous-unité en vert. Une molécule d'antibiotique (en rouge) est lié à la petite sous-unité du ribosome.

J'avais évoqué ce prix Nobel en décembre 2009 sur mon blog :

 

Le prix Nobel de chimie 2009 a été attribué à l'Israélienne Ada Yonath (Institut des sciences Weizmann, Jérusalem), à l'Américain d'origine indienne Venkatraman Ramakrishnan (Laboratoire de biologie moléculaire, Cambridge) et à l'Américain Thomas Steitz (Institut médical Howard Hugues, Université de Yale, Etats-Unis) pour des  travaux portant sur la structure et le fonctionnement des ribosomes, des acteurs essentiels de la synthèse des protéines.

 

Le ribosome est un complexe macromoléculaire ARN-protéines responsable de la synthèse protéique dans la cellule. La masse moléculaire d'un tel complexe est considérable : environ 2,7 mega daltons pour les procaryotes et 4,5 mega daltons pour les eucaryotes (ce qui représente plusieurs centaines de milliers d’atomes).

 

Le ribosome est comparable à une usine à protéines. Il permet à la fois de lire l'ARN messager (c'est-à-dire, en quelque sorte, le messager de notre information génétique) et de le traduire afin de fabriquer la protéine correspondante.

 

La synthèse des protéines à partir de l’information codée par les gènes s’effectue en deux étapes et fait intervenir des machines moléculaires complexes constituées de plusieurs composants. La première étape, appelée transcription, est effectuée par l’ARN polymérase dont le rôle est de fabriquer des ARNs messagers homologues au gène à exprimer. La deuxième étape, la traduction, convertit l’information séquentielle contenue dans les ARN messagers en protéines."

 

LA SUITE ICI

Le Projet Génome Humain (HGP)...

... "End of the beginning"

“Nature is an endless combination and repetition of very few laws ...

“She hums the old well-known air through innumerable variations.”

 

Ralph Waldo Emerson

1989: La réunion Banbury au Cold Spring Harbor Laboratory à New York avant le lancement du projet du génome humain. Francis Collins et James Watson sont dans la rangée du haut. (Nature)
1989: La réunion Banbury au Cold Spring Harbor Laboratory à New York avant le lancement du projet du génome humain. Francis Collins et James Watson sont dans la rangée du haut. (Nature)

Dans la revue Nature en ligne,  Eric D. Green, James D. Watson et Francis S. Collinsrappellent qu'il y a 25 ans, l'Institut National Human Genome Research (NHGRI), dont ils faisaient partie, lançait  le Projet  Génome Humain (HGP). 

 

Une aventure scientifique extraordinaire qui permit, après une quête de 13 ans, de séquencer les trois milliards de paires de bases du génome humain.

"1000 Génomes"

On trouvera dans le même revue l'état d'avancement du proje1000 génomes qui a démarré en 2008.

 

Le but premier de ce travail était de créer un catalogue  détaillé de la diversité génétique humaine pour établir in fine un lien entre variation génétique et pathologies.

Il implique un grand nombre d'équipes multidisciplinaires à travers le monde.

 

En fait, ce sont les génomes de plus de 2500 individus de différents groupes ethniques (26 populations distinctes, d'immigrants chinois  deDenver, à la tribu Luhya au Kenya, en passant par les Penjabis de Lahore au Pakistan) qui ont été à ce jour séquencés.

 

Un large spectre de  variations génétiques a été mis en évidence. Au total plus de 88 millions de variantes ont été identifiées sur les 2504 échantillons (dont 84,7 millions de polymorphismes nucléotidiques simples (SNP).

La corrélation entre ces variantes et les phénotypes moléculaires et pathologiques reste maintenant à analyser.

 

Nous voici donc à la fin du... commencement !

 

a, Polymorphic variants within sampled populations. The area of each pie is proportional to the number of polymorphisms within a population. Pies are divided into four slices, representing variants private to a population (darker colour unique to population), private to a continental area (lighter colour shared across continental group), shared across continental areas (light grey), and shared across all continents (dark grey). Dashed lines indicate populations sampled outside of their ancestral continental region. b, The number of variant sites per genome. c, The average number of singletons per genome.

HGP : modèle scientifique pour le 21ème siècle

Un laboratoire de séquençage d'ADN en 1994... puis en 2006 !

 

En conclusion de leur article dans Nature,  GreenWatson et Collins, tirent une leçon méthodologique des travaux sur le génome.

Ils montrent que le succès d'entreprises de cette dimension ne peut être assuré que par des partenariats multiples engageant des équipes et sous-équipes multidisciplinaires. Plus de 2000 chercheurs de divers horizons géographiques et scientifiques sont impliqués dans le HGP.

 

Dans ces conditions, des bases de données communes, accessibles à tous, doivent être mises en place. Ainsi, en 2014, une stratégie de partage Genomic Data Sharing (GDS), a vu le jour.

 

Un travail de cette ampleur conduit naturellement à des innovations technologiques de première importance.

L'étude du génome a notamment permis des avancées spectaculaires en biologie moléculaire, chimie, physique, robotique , informatique, ainsi que le développement de nouvelles stratégies pour l'utilisation de ces outils.

 

Les responsables du projet ont été également attentif aux conséquences sociétales de leur travail et ils ont su mettre en avant les retombées multiples de leur recherche : mise en évidence des mécanismes moléculaires  pour des milliers de maladies, révolution dans le diagnostic et le traitement du cancer, avancée capitale pour les études sur le microbiome (voir Human Microbiome Project, utilisation banalisée des thérapies à partir de cellules souches...

2 mars 2015

Faut-il redéfinir le sexe (biologique) ?

Les biologistes l'affirment maintenant clairement, la définition binaire du sexe est simpliste.

 

Selon ce scénario binaire, c'est la présence ou l'absence d'un chromosome Y qui fait le sexe. Vous l'avez vous êtes un homme !

En réalité plus de 1% de la population mondiale présenterait un DSD (Disorders of sex development).

 

Le tableau publié dans l'article ci-dessous récapitule les variations répertoriées.

 

En fait depuis les années 1990, les chercheurs ont identifié plus de 25 gènes impliqués dans la DSD, et les séquençages d'ADN récents ont permis de découvrir un large éventail de variations de ces gènes qui ont des effets plus ou moins marqués sur les individus.

 

Du binaire nous voici rendu à une véritable distribution spectrale !

 

Article détaillé dans Nature

 

 

8 février 2015

Faut-il redéfinir le vivant ?

Yellowstone
Yellowstone

 Quelle(s) vie(s) "extraterrestre" ? 

 

Au récent congrès de l'AAAS  à San José (CA)une session a réuni un groupe de chercheurs de différentes disciplines autour d'une réflexion sur les moyens à mettre en oeuvre pour déceler d'éventuelles nouvelles formes de vie.

 

En effet, dans notre quête d'une vie extraterrestre, nous avons toujours cherché une signature du vivant tel que nous l'avons dévoilée sur cette terre, avec sa biochimie, ses aminoacides "gauche", ses sucres, ses nucléotides, son ARN, son ADN...

 

Voir sur le site : L'origine de la vie

 

Cette forme de vie nous l'avons trouvée sur notre planète jusque dans les milieux les plus extrêmes, comme par exemple dans les sources chaudes de Yellowstone (ci-contre).

 

Mais pourquoi ne pas imaginer qu'il puisse exister des formes de vie radicalement différentes, avec une chimie (biochimie...) qui soit autre ? Par exemple, pourquoi ne pas envisager une construction du vivant avec des aminoacides qui seraient "droits" ou des protéines repliées différemment ?

 

Et si dans l'espace - où même sous notre nez !- une autre vie s'était organisée !

 

"Shadow biosphere might be hiding strange life right under our noses"

 

ttitre la revue Science qui rend compte de ce séminaire

Mais comment chercher quelque chose quand on n'a pas la moindre piste ?

Les scientifiques proposent deux voies :

 

top-down (de haut en bas), qui implique la recherche dans des milieux extrêmes de nouvelles signatures biochimiques. Par exemple, sur d'autres planètes, pourquoi ne pas analyser des systèmes non-aqueux, des "mers" d'hydrocarbures...

 

bottom-up (de bas en haut), qui consiste à réfléchir aux précurseurs possible du vivant, en essayant d'imaginer le dernier maillon (l'interface) entre l'inanimé et le vivant ; un travail à la " Golden Spike " en quelque sorte !

 

Beaucoup de chercheurs s'accordent pour penser que " la vie n'a pas choisi l'ADN ou l'ARN par nécessité chimique". Il peut y avoir eu beaucoup de voies alternatives à l'évolution de la vie.

 

Sur les travaux en cours voir par exemple ceux des (bio)chimistes :

 

- du groupe de David G. Lynn à Emory (Atlanta),

- du groupe de John Chaput (Arizona State University),

- mais aussi de la "planétologue" Carolyn Porco

 

 

15 mai 2014

Dame Nature et l'alphabet de Dieu

Au top scientifique de l'année 2014 : Deux nouvelles bases artificielles dans le code génétique
Au top scientifique de l'année 2014 : Deux nouvelles bases artificielles dans le code génétique

Ce n'est pas l'article scientifique le plus lu et le plus commenté dans le monde qui fait la couverture de la version papier du journal Nature du 15 mai qui le publie, mais un merle migrateur qui perd sa boussole biomagnétique, après avoir été exposé à un faible niveau de bruit électromagnétique (AM entre environ 20 kHz et 20 MHz... fréquences qui baignent notre environnement quotidien).

 

Si le plus grand journal scientifique, se soucie d'abord -et à juste titre (c'est dans son titre)- de l'état de notre planète et de ses occupants, c'est que cet état est pitoyable.

 

Les activités anthropiques ont, en un siècle, saccagé notre biodiversité, fait disparaître des centaines de milliers d'espèces végétales et animales, bouleversé, voire détruit, nombre de nos écosystèmes... et peut-être abrégé l'espérance de vie de l'humanité de quelques centaines de milliers d'années.

 

Voir le diagramme ci-après

 

Avant de clouer au pilori les chercheurs qui travaillent dans leur laboratoire sur les OGM et maintenant les OGA(augmentés), les scientophobes les plus convaincus ne devraient-ils pas plutôt se tourner vers les dirigeants, les lobbies et tous les ultra productivistes de cette planète, qui ont pour seule devise :  " Profitons... et après nous le déluge " ?

 

Vers tous ceux qui détournent le travail des scientifiques (ou l'orientent par le biais de financements) toujours dans le sens de la rentabilité à tout prix ?

 

 __________________

  

Certes, il n'est pas surprenant que les résultats publiés par le groupe de Floyd Romesberg, qui font la Une des plus grand media non spécialisés du monde entier, suscitent des milliers de commentaires et déclenchent aussitôt la controverse et l'anathème.

 

Observateur assidu des publications du Net, contraint de bloquer les commentaires sur ce blog, je m'attendais effectivement au pire.

 

Nombre d'excités exigent la prison pour les auteurs, la mise définitive au banc de l'humanité... et les destinent à la poubelle de l'histoire scientifique.

 

Il est probable que si le laboratoire de Floyd Romesberg ne se trouvait pas en Californie mais au fin fond du Texas, il faudrait le protéger des enragés de la gâchette !

 

Mais même chez des commentateurs plus honnêtes, la boutade que j'avais mise en avant sur ce site en 2012, en présentant la biologie synthétique - le fameux mythe de Faust - est prise au sérieux : nous serions sur la voie de la création de "transhumains" !

 

Et malheureusement des pseudoscientifiques se prêtent à ces âneries !

 

_______________

 

J'ai rappelé plus haut que l'homme altérait gravement son milieu ; il affecte aussi profondément son organisme, en respirant, en consommant, particules et pesticides qui bouleversent les mécanismes biologiques les plus complexes, les plus fondamentaux, le rendant infertile, multipliant les pathologies ou en créant de nouvelles, provoquant des cancers du sein à 20 ans, de la prostate à 40, multipliant les maladies neurodégénératives...

 

L'alphabet de Dieu, si cher à ces censeurs radicaux, produit de plus en plus de monstruosités et ses mécanismes de réparation n'en peuvent mais !

 

_______________

 

Que des chercheurs s'écartent radicalement des voies naturelles pour imaginer de nouvelles thérapies semble donc parfaitement légitime. Sait-on par exemple qu'aujourd'hui la recherche de nouveaux antibiotiques piétine, alors que des résistances aux plus puissants d'entre-eux, la vancomycine et le linézolide, viennent d'être mises en évidence ? (voir sur ce blog).

 

J'ai choisi cet exemple parce que l'un des thèmes de recherche de Floyd Romesberg est justement la mise au point de nouveaux antibactériens. (*)

 

___________________

 

L'extension de l'alphabet génétique, c'est avant tout se donner les moyens de produire de nouvelles petites protéines constituées d'aminoacides "exotiques", non reconnus par l'organisme, et susceptibles, par exemple, de contrer les mécanismes de cancérisation.

 

Bien sûr qu'un problème d'éthique est posé à propos de la possible dissémination de tels organismes (notons au passage que les chercheurs californiens ont bloqué cette éventualité pour leur bactérie) et il sera évidemment traité, mais laissons au moins les biologistes synthétiques travailler en paix et montrer le potentiel thérapeutique de leurs découvertes.

 

________________

 

J'ai dû écrire sur ce site, à plusieurs reprises, que depuis Giordano Bruno et Galilée, peu de choses avaient changé.

 

Il y a toujours au fond du cœur des hommes les plus antiques peurs, les plus archaïques croyances, dont se délectent toujours sectes et religions.

 

Excommunions donc nos meilleurs scientifiques - à défaut de les brûler - et continuons d'écouter gourous et prédicateurs incultes - de tous les cultes -, qui eux savent nous dire ce qui est licite ("hallal") et ce qui est péché ("haram").

 

Le hallal et le haram sont les vocables les mieux partagés par tous les sectaires... même s'ils s'étripent à propos de leurs contenus !

_____________

 

 (*) Notons incidemment, que l'une de ces molécules, non mise sur le marché, mais en développement, a sauvé, il y a quelques mois, une petite fille pour laquelle toutes les antibiothérapies avaient échoué.

 

 

 L'effondrement de notre biodiversité 

 

L'indice de population est un indicateur utilisé pour suivre l'état de la biodiversité dans le monde. Il présente ici des tendances, étudiées entre 1970 et 2000, pour des populations de vertébrés terrestres (en orange), d'eau douce (en vert) et marins (en bleu). La tendance générale est indiquée par un trait noir. Les résultats sont sans appel, la biodiversité mondiale s'effondre. © WWF

 

30 mars 2014

Antibiotiques : la course contre la montre

Mécanisme d'action de la teixobactine
Mécanisme d'action de la teixobactine

L'émergence continue de bactéries multi-résistantes aux médicaments est un problème majeur de santé publique. L'identification et le développement de nouveaux antibiotiques, en particulier ceux ayant de nouveaux modes d'action, est impératif pour aider à traiter ces infections. 

 

Un article paru dans " The Journal of Antibiotics " dresse la liste de 22 nouveaux antibiotiques lancés depuis 2000.

 

Il faut noter qu'entre 1970 et 1999, toutes les molécules mises sur le marché n'étaient que des analogues de médicaments existants (à l'exception de la mupirocine commercialisé en 1985).

 

Depuis 2000, la situation s'est améliorée, avec l'apparition de cinq nouvelles classes d'antibiotiques : le linézolide (systémique, validé en 2000), la daptomycine (systémique, validé en 2003), la rétapamuline (topique, validé en 2007), la fidaxomicine (Clostridium, infections compliquées, validé en 2010) et la bedaquiline ( systémique, validé en 2012).

 

PS du 23 janvier 2015 :

 

Un groupe de chercheurs dirigée par le professeur Kim Lewis de la Northeastern University à Boston, Massachusetts, a découvert un nouvel antibiotique actif sur Staphylococcus aureus  résistant à la méthicilline (SARM), Mycobacterium tuberculosis, Streptococcus pneumoniaeBacillus anthracis et d'autres agents pathogènes dangereux.

 

La Teixobactindont le brevet vient d'être déposé par NovoBiotic Pharmaceuticals, n’a rencontré aucune résistance lors des tests effectués sur les souris

 

Pour Kim Lewisqui a collaboré avec des chercheurs de l’Université de Bonn et les Britanniques de Selcia Limited : "La découverte de ce nouveau composé ébranle des idées reçues tenaces chez les scientifiques et augure de grandes promesses pour traiter une série d'infections menaçantes".

 

Dans la publication qu'ils ont confiée au journal Nature, les auteurs estiment avoir ouvert une nouvelle voie dans la recherche antibactérienne.

Aucun test n’a cependant été réalisé sur des humains.

 

 

 

6 mars 2014

Les batteries rechargeables du futur (proche)

Les batteries Li(lithium)-ion, qui à partir du début des années 1990 ont remplacé les batteries au plomb ou Ni(nickel)-Cd (cadnium), ont marqué un progrès remarquable dans le domaine du stockage d'énergie  rechargeable. A poids égal, ces batteries délivrent deux fois plus d'énergie et coûtent 10 fois moins cher que les premières cellules livrées par Sony en 1991.

 

Notons au passage la remarquable performance du système de stockage énergétique (ESS) du roadster Telsa qui pèse environ 450 kg et délivre l'équivalent énergétique de 53 kWh, ce qui lui permet d'avoir une autonomie de plus de 400 km (notons que Telsa va commercialiser une voiture à 35 000 euros environ, la moitié du prix actuel du modèle de base).

 Cependant ces batteries atteignent leur limite et les experts estiment à seulement 30% le gain possible au niveau du rapport énergie stockée/poids.

 

Les chercheurs -et en particulier les chimistes- travaillent donc d'arrache-pied pour développer de nouveaux systèmes.

 

En 2012, le Centre américain pour la recherche conjointe de stockage d'énergie (JCESR), basé au Laboratoire national d'Argonne, près de Chicago, Illinois, a reçu une dotation de 120 millions d'euros du gouvernement fédéral américain. Son directeur, George W. Crabtree, fixe alors un challenge redoutable : produire à 5 ans des batteries rechargeables 5 fois plus performantes  et coûtant 5 fois moins cher !

 

Pour faire court disons que ce pari parait aujourd'hui difficile à gagner !

 

Cependant des solutions existent et plusieurs laboratoires de recherche ont obtenu des résultats remarquables... qu'il faut maintenant confirmer au stade de la production industrielle, ce qui semble difficilement réalisable en moins de 4 ans !

 

Le travail le plus prometteur concerne les batteries Li-S (soufre) qui effectivement sont suceptibles de multiplier par 5 le rapport énergie stockée/poids, puisque l'électrode n'est plus du graphite (batterie Li-ion), mais un ruban de lithium beaucoup plus léger.

Voir les travaux de Elton J. Cairns à Berkeley

 

Malheureusement les composés lithium/soufre formés, solubles dans les électrolytes organiques utilisés, ont tendance à dégrader les électrodes. Les chimistes travaillent donc sur la conception de nouveaux électrolytes.

Aujourd'hui les meilleurs prototypes de cellules de ce type sont au niveau des batteries actuelles Li-ion.

 

L'avantage du lithium est son très faible poids ; certaines équipes ont choisi de s'orienter vers un métal plus lourd, le magnésium qui a l'avantage de produire des ions doublement chargés, donc théoriquement de doubler le rendement à volume égal (le lithium ne peut transporter qu'une charge). Des chercheurs du MIT s'orientent vers cette voie, le groupe Pellion Technologies également

 

Plusieurs autres possibilités sont évoquées dans cette mise au point du journal Nature en ligne.

 

 

15 février 2014

F. Hollande rend hommage aux cerveaux français... expatriés !

Emanuelle Charpentier, expatriée
Emanuelle Charpentier, expatriée

" Ils sont en train d’inventer la santé, la finance, les loisirs, l’homme ou le monde de demain… et ils sont français. Parmi les centaines de milliers d’ingénieurs, développeurs et entrepreneurs de la Silicon Valley qui, plus que jamais, imaginent, codent et conçoivent notre futur, au moins 10 000 viennent de France. De Twitter jusqu’au Google X, le labo secret de Mountain View, en passant par les plus petites start-up, les Français sont partout." Libération (payant)

 

 

En fait, nos meilleurs cerveaux irriguent les plus grands laboratoires américains, de Boston à San Diego, dans tous les domaines de la recherche de pointe. Car si en masse notre système éducatif est médiocre, il produit sans aucun doute une élite scientifique de haut niveau, que les nord-américains s'arrachent.

 

La visite de Hollande à la Silicon Valley, c'est l'hommage du vice à la vertu (je ne parle que de science ici).

 

Tant que nos entreprises seront incapables d'investir dans une recherche digne de ce nom, tant que nos laboratoires institutionnels gaspilleront une partie de leur énergie à courir après les subsides, tant que nos jeunes chercheurs -les plus brillants- seront recrutés à moins de deux mille euros par mois, à bac plus 12 (entre 4 à 5 fois moins que ce qu'on leur proposera outre-atlantique !), la fuite de nos cerveaux - qui ne fait que s'accélérer depuis 30 ans- continuera.

 

Incroyable gâchis !

 

Incroyable gâchis...

12 janvier 2014

La dé-faite de la science

Il y a quelques semaines j'écoutais, à la fin d'une nuit de France Culture, la chronique d'André Brahic, grand astrophysicien français qui découvrit les anneaux de Neptune, ainsi que trois de ses arcs (qui portent les noms de notre devise : Liberté, Egalité, Fraternité)

 

A cette heure là, sur cette chaîne là, des hommes de cette qualité peuvent asséner quelques vérités dérangeantes !

 

Brahic déplorait l'absence de la science dans la sphère publique (je ne sais si j'ai fait état d'un article du Monde qui remarquait que dans le gouvernement actuel, jamais il n'y avait eu aussi peu de scientifiques).

Provocateur, il proposait tout simplement que, pour pouvoir postuler à la tête de l'état, il devrait être nécessaire, non pas de présenter 500 signatures d'élus... mais d'être titulaire d'un doctorat !

 Boutade bien entendu, mais qui traduit l'irritation de tous les scientifiques devant la faible pénétration de leurs travaux dans la société et singulièrement dans le microcosme des élites dirigeantes, politiques et faiseurs d'opinions.

 

La veille au soir, je regardais par hasard le grand journal de Canal. Un journaliste, à fort accent du midi, cuisinait Anne Hidalgo, prétendante à la mairie de Paris. Parmi les questions pièges, il fut demandé, non pas le nom du nouveau président du Pôle Sorbonne Paris Cité (120 000 étudiants, 14 000 salariés), élu une semaine auparavent, mais celui du... gardien de but du PSG.

 

Boutade encore, mais qui traduit aussi une exaspération devant cette formidable inversion des valeurs qui conduit cette société à valoriser médiatiquement (et financièrement) des pousseurs de ballons, des brailleurs, des pétasses à gros seins...,  plutôt que ceux qui sont l'avenir de ce pays.

 D'ailleurs, y-a-il une seule émission scientifique aujourd'hui à la télévision, à une heure décente ?

 

Il me semble que la dernière, présentée par des jumeaux adeptes de la chirurgie esthétique -mais au savoir très incertain- a disparu de nos écrans

 

Brahic soulignait qu'il ne peut y avoir de démocratie sans un minimum de connaissances des sciences (et technologies).

 

Combien de nos concitoyens se prononcent aujourd'hui sur le nucléaire, sur les OGM, sur les énergies renouvelables, sur le gaz de schistes, sur la vaccination... en ayant le minimum de connaissances permettant d'étayer leurs convictions ?

 

Brahic racontait ausssi, que se rendant dans un centre de radiothérapie visiter un ami cancéreux, il fût étonné de ne voir aucune mention du mot nucléaire. Le médecin de service lui expliqua que les affiches qui faisaient "peur aux patients" venaient d'être retirées !

 

Au XXIème siècle, la science, comme au temps de Copernic, de Galilée, de Darwin... n'est donc toujours pas "démocratique".

 

Certes on ne brûle plus les savants, on se contente de les ignorer ou de s'en méfier.

 

 

 

19 mars 2013

Remuez vos méninges !

 Ce qui m'amène au plus près de la sensation d'infini, ce n'est pas l'éclat d'une gerbe d'étoiles filantes, sillonnant la voûte céleste durant les Perséides, mais bien notre cerveau et ses 100 milliards de neurones, chacun capable d'établir 10 000 connexions, auxquels il faut ajouter les centaines de milliards de cellules gliales susceptibles de se connecter à la fois entre elles et avec les neurones...

 

Le cerveau, c'est un système chimique (sur lequel je me penche sur ce site), électrique bien sûr, mais aussi magnétique et même quantique, d’une extraordinaire complexité.

Cependant, les énormes progrès de l'imagerie, qui nous permettent aujourd'hui de voir en direct fonctionner un cerveau, les bonds en avant de la cybernétique, qui rendent possible la réalisation d'un cerveau artificiel rudimentaire, devraient conduire les chercheurs à mieux connaître son fonctionnement et donc de pallier certains de ses dysfonctionnements.

 Mais aujourd'hui, le meilleur outil de réparation du cerveau... c’est notre cerveau lui même, qui fait preuve d'une étonnante plasticité.

 

_________________

 

Les découvertes les plus récentes montrent que cette plasticité cérébrale, certes plus intense chez l’enfant, est encore très importante chez l’adulte.

Mieux, le dogme de la fixité neuronale est à oublier, les découvertes sur la neurogenèse adulte se multiplient.

 

Un cerveau, comme n'importe quel organe, fonctionne d'autant mieux qu'il est sollicité.

 

L'importance de l'éveil de la curiosité intellectuelle chez le très jeune enfant a toujours été pour moi une évidence (1). Plus les connexions que j'évoquais plus haut sont établies vite et souvent, plus l'activité cérébrale sera efficace et pérenne.

 

___________________

 

 Le cerveau est au cœur du débat inné-acquis ; je suis persuadé qu'au départ nous possédons tous (ou presque : voir Aristote, Da Vinci, Newton et quelques autres sur ce site...), grosso-modo, le même potentiel intellectuel et que ce sont les processus d'apprentissage entre 1 et 7 ans qui font le gros de la différence. (2)

 

____________________

 

Cependant les dernières découvertes montrent qu'au-delà de cette limite tout n'est pas perdu, à condition de stimuler ces fameux neurones, non par des activités répétitives, mais en sollicitant tout notre intellect… que nous sous-estimons beaucoup trop.

 

_______________

 

(1) Me navrent aujourd'hui, autant la disparition du bonheur et des multiples découvertes que procurait la lecture, que les nouvelles béatitudes devant des machines qui sollicitent plus les pouces que le cerveau.

(2) L'école de la République étant en quasi faillite, les "élites" deviennent ainsi héréditaires...

 

Sciences - 4 octobre 2012

Sciences, éthique et société

La triste affaire Séralini est la parfaite illustration des méthodes utilisées par certains (pseudo- ?) scientifiques pour manipuler l'opinion - au prix de l'abandon de tout sens éthique - et dévoyer ainsi la démocratie.

 

Cette opération de communication, invraisemblablement cautionnée (involontairement ?) par une revue scientifique de bon niveau, se termine fort heureusement en fiasco grâce à l'intervention d'autorités scientifiques incontestables (l'ensemble des Académies et de bien d'autres organismes compétents).

 

Hélas, des manipulations de ce type sont légions, tant les media, à l'affût de sensationnalisme, sont capables eux-aussi d'abandonner tout éthique pour vendre du papier, tant les gourous ayant pignon sur le Net ne se font pas prier pour abuser pigeons, gogos ou militants fanatiques, prêts à prendre pour argent comptant toutes les sornettes qui les confortent dans une opinion... dont ils ne perçoivent même pas qu'elle a été forgée à leur insu.

 

Les études bidons, ou plus ou moins truquées, se retrouvent bien entendu au coeur de tous les grands débats scientifiques actuels de nos sociétés : réchauffement climatique (pour lequel deux savants français ne se sont pas couverts de gloire), médecine (médicaments, vaccins), OGM, évolution, effets des champs électromagnétiques...

 

Certes, c'est toujours du débat que naît la lumière. Dans les Congrès, les grandes revues scientifiques, ce débat entre savants est permanent.

 

Mais que pèse la voix d'un chercheur sérieux à qui l'on oppose la une d'un grand hebdomadaire, qui affirme tout de go " Oui : les OGM tuent !"  ?

 

Ce type de manipulation de l'opinion ne concerne pas que la science dans nos démocraties, mais qu'elle prenne de telles proportions est inquiétant au moment où le désamour pour les études scientifiques se confirme année après année.

 

Ceux qui se prêtent à ce dévoiement de la Science jouent aux apprentis sorciers ; veulent-ils participer à ce mouvement obscurantiste qui déferle en ce début de XXIième siècle ?

 

NB : Aujourd'hui je me garderais bien d'affirmer : non les OGM ne sont pas néfastes... mais ce dont je suis à peu près sûr, c'est que les pesticides autorisés pendant 50 ans, ont tué, tuent et tueront !

Sciences - 30 septembre 2012

Sciences, comment torpiller la cause que l'on défend...

 Avant de parler de cette étude du Pr Gilles-Éric Séralini, militant écologiste proche de Corinne Lepage, j'ai voulu regarder de plus près les commentaires de la communauté scientifique, car les résultats avancés me paraissaient gros... très très gros !

 

On sait par exemple que depuis quinze ou vingt ans, des milliards d’animaux d’élevage dans l’Union européenne ont été nourris avec du soja transgénique, sans qu’on observe d’effet particulier.

 

En fait il semble que ce travail présente de très nombreux biais ; certains scientifiques se demandent même comment un tel article a pu être accepté pour publication.

 

Par exemple :

 

- souche de rat choisie, connue pour développer très facilement des tumeurs,

- maïs OGM retenu, d'une seule variété,

- méthodes et analyses statistiques, non conformes aux standards en vigueur,

- aucune relation dose-effet observée (l’effet toxique n'est pas corrélé à la dose administrée) ce qui est pour le moins curieux.

 

Mais surtout ce travail traite de deux effets à la fois, ce qui est passablement original dans des recherches de ce type !

 

Dans un article remarquablement documentéMichel de Pracontal écrit :

 

Son objectif est d’évaluer la toxicité d’un maïs OGM dit NK 603, produit par Monsanto, mais aussi – encore une fois ! – de l’herbicide Roundup. Précisons que la manipulation génétique du maïs NK 603 a précisément pour effet de le rendre tolérant au Roundup, de sorte qu’ils sont utilisés ensemble... "

 

« Il est difficile d’imaginer qu’un herbicide pourrait avoir des effets toxiques identiques à une manipulation génétique qui donne au maïs la capacité de détruire cet herbicide », lit-on dans la revue britannique New Scientist..."

 

Pour beaucoup de chercheurs (certes pas tous indépendants de l'industrie) :

 

« Cette étude a été conçue pour produire exactement ce qui a été observé… ».

 

Ce qui est tout le contraire d'une démarche scientifique.

 

Evidemment, les magazines enclins à vendre du papier sans être trop regardant, comme le Nouvel Obs, ont fait leur gros titre d'un résultat dont la valeur scientifique est quasiment nulle.

 

Cela n'implique nullement qu'il faille consommer les produits de Monsanto qui nous a déjà (avec beaucoup d'autres) passablement empoisonné.

 

Mais ceux qui voudront démontrer la nocivité des OGM devront se plier à des normes scientifiques inattaquables, sous peine de desservir la cause qu'ils souhaitent défendre.

 

" Quand on grimpe aux arbres, il faut avoir les fesses propres..."

 

 

Post-Sciptum : Avis des 6 académies françaises paru le 19 octobre 2012 

 

ICI

 

 

 

 

Sciences - 6 septembre 2012

Sciences : qu'appelons-nous vrai ?

La vérité sortant du puits
La vérité sortant du puits

"Sciences, vérité et démocratie"

 

Nicolas Chevassus-au-Louis, Docteur en biologie, historien des sciences et journaliste, qui a produit cet été sur Mediapart une très intéressante enquête à propos des théories du complot, aborde dans un article publié dans Le Monde, ce que d'aucuns ont appelé "la guerre des sciences" entre rationalistes et relativistes.

 

L'occasion lui en est donné avec la parution de l'ouvrage du sociologue, anthropologue et philosophe des sciences français Bruno Latour (Une anthropologie des modernes, La Découverte), chantre du relativisme, qui depuis les controverses à propos du climat et du créationnisme, semble regretter certains de ses propos.

 

Latour fait partie d'une école (non moderne ou post-moderne ?) qui considère l'activité scientifique comme un système de croyances, de traditions orales et de pratiques culturelles spécifiques.

 

Pour les rationalistes au contraire, " la science parvient, dans sa confrontation avec le réel, à produire des énoncés ayant vocation à la vérité universelle, indépendants des conditions dans lesquelles ils ont été formulés ".(N.C.a.L)

 

Latour fit partie de ceux qui furent mis en cause dans l'ouvrage des physiciens Alan Sokal et Jean Bricmont, (Impostures intellectuelles ) qui stigmatise l'incompétence avec laquelle certains chercheurs en sciences humaines utilisent des concepts issus des sciences dures.

 

Cette publication  fit suite au canular d'Alan Sokal qui publia dans une revue majeure des sciences humaines, Social Text, un article volontairement truffé d'erreurs, intitulé : "Transgresser les frontières. Vers une herméneutique transformative de la gravitation quantique".

 

Nicolas Chevassus nous dit aussi très justement que le débat se déplace aujourd'hui sur le terrain fort glissant de la philosophie politique : " toutes les opinions étant légitimes en démocratie, pourquoi certaines - les vérités scientifiques - prétendraient-elles être de nature différente ? "

 

C'est une vraie question d'actualité (qui s'est traduite, il y a peu, par des coups échangés dans un collège entre un enseignant et un élève) : la confrontation d'un enseignant donnant un cours sur l'origine de l'homme et l'évolution, avec un élève acquis au créationnisme, peut-elle être assimilée à un simple échange d'opinions ?

 

Sciences - 17 mai 2011

Les mécanismes d'addiction sexuelle

Il  me semble que l'heure n'est plus à la curée dans l'affaire DSK, car si la cause semble entendue, les attendus de l'acte d'accusation posent une autre question, d'ordre médical et scientifique, à propos d'une telle perte de contrôle de la part d'un homme à qui le pouvoir semblait offert.

 

Peu importe au fond que l'hypothèse du complot (le "pot de miel") soit un jour vérifiée, le patron du FMI a manifestement brutalement perdu tout discernement, toute inhibition.

 

J'ai déjà évoqué le phénomène de dépendance à propos de l'opium (Chimies - IX) et parlé brièvement ailleurs de la chimie du cerveau (j’y reviendrai).

 

Dans les publications concernant les addictions - y compris les addictions sexuelles - on évoque  généralement  un trouble majeur du circuit de la « récompense ». 

 

J’ai déjà évoqué sur ce site, décrit les principaux neurotransmetteurs, dont la dopamine. J’ai également évoqué le rôle des endorphines.

 

Quelle est l'action des endorphines(voir aussi sur le site)

 

Les endorphines, comme tous les dérivés et substances proches dans leur action de la morphine, ont pour effet de diminuer l'activité cérébrale et la perception de l'environnement et donc de diminuer la perception de la douleur.

 

Les endorphines exercent en particulier une action dopaminergique sur les neurones de l'Aire Tegmentale Ventrale et le noyau Accumbens. Ces régions du cerveau, interconnectées entre elles, forment ce que l'on appelle le "circuit de la récompense" (il s’agit de "récompenser" l'exécution des fonctions vitales par une sensation agréable). Le neurotransmetteur qui assure la connexion entre les deux régions de ce circuit est la dopamine.

 

Les effets du stress sont aussi souvent évoqués dans les cas d'addiction :

 

 "Les études à l'aide de modèles animaux d'addiction ont permis non seulement de mettre en évidence des phénomènes de dysrégulations neurobiologiques spécifiques (dopamine, glutamate, peptides opioïdes, GABA) impliquant le circuit de récompense mais également de montrer que les voies du stress jouaient un rôle important notamment dans l'installation de l'état motivationnel négatif sous-tendant les processus addictifs "

 

Voir aussi ICI cet excellent article à propos du stress.

 

Evidemment l'addiction sans substance exogène pose des problèmes particuliers qui sont loin d'être résolus.

 

 Sur ce sujet lire :

 

Behavioral Addictions: Do They Exist  ? , (Science, 2001)

Addiction sans drogue(s) , Marc Valleur, Dan Velea (Thema, 2002)

The Neurobiology of LoveTobias Esch1, & George B. Stefano, (Neuroendocrinology Letters, 2005)

  

Sciences - 3 janvier 2011

Gaz de schistes

Les gaz de schiste (shale gas) ont connu un essor extraordinaire ces dernières années aux Etats-Unis où ils représentent 12 % de la production de gaz contre seulement 1 % en 2000. A part quelques pays qui n'ont pas de bassins sédimentaires, on peut trouver ces gaz à peu près partout.

 

En Europe, le consortium Gash, (Statoil, Exxon Mobil, Gaz de France SUEZ, Wintershall, Vermillion, Marathon Oil, Total, Repsol, Schlumberger et Bayerngas) vise à établir d'ici 3 ans une cartographie des ressources européennes.

 

Les bassins les plus intéressants sont situés en Europe du Nord et de l'Est et plus au sud, notamment en France.

Des permis de recherche ont été accordés pour un total de 9700 kilomètres carrés dans une zone qui va du Larzac à la Drôme (Total vient d'obtenir un permis d'exploration dans la région de Montélimar) en passant par les Cévennes et l'Ardèche…

Voila pourquoi les moustaches de José Bové se sont hérissées ces jours-ci !

Les Causses lozériens semblent aussi dans le collimateur, voila qui me fait dresser l'oreille !

 

Le gaz naturel

 

La formation du gaz naturel a pour origine la photosynthèse, qui permet aux végétaux de transformer le dioxyde de carbone et l’eau en oxygène et en hydrates de carbone, grâce à l’énergie solaire. Les végétaux sont enfouis par des sédiments et à mesure que s’accroît la charge sédimentaire, ces hydrates de carbone, sous l’effet de la chaleur et de la pression, conduisent aux hydrocarbures. Le gaz naturel est ainsi formé dans des roches mères organiques, des schistes noirs de fine granulométrie. Sous l'effet de la pression, la majeure partie du gaz naturel migre vers des roches plus poreuses tels le grès et le calcaire.

 On appelle « gaz de schiste » le gaz naturel demeurant dans les schistes.

 

La technique de forage

 

Le gaz de schiste étant dispersé dans une roche imperméable, il faut forer de très nombreux puits et fracturer la roche. On utilise donc un forage horizontal (voir figure).

Généralement la profondeur d'exploitation  est de l'ordre de 1500 à 3000 mètres de profondeur, très en dessous des aquifères d'eau potable.

La fracturation de la roche implique, à chaque opération, l'injection de milliers de m3 d'eau à haute pression et de sable (pour maintenir la fracture ouverte).

 

Les problèmes environnementaux

 

Ils sont multiples :

 

      - la disponibilité et le traitement de l’eau

Notons tout d’abord que l’extraction du gaz de schiste va nécessiter de grandes quantités d’eau qu’il faudra retraiter.

Une partie de l'eau qui a été injectée pour réaliser la fracturation hydraulique est récupérée (de 20 à 70 %) lors de la mise en production du puits. Elle doit être retraitée (par décantation, floculation, électrocoagulation)… afin d’éliminer les chlorures, les éléments en suspension, les sulfates et les carbonates… ainsi que les métaux.  

Il faut aussi se débarrasser des additifs chimiques qui peuvent être classés en 3 grandes catégories : les biocides qui réduisent la prolifération bactérienne dans le fluide ; les produits qui favorisent la pénétration du sable dans les fractures ; les produits qui augmentent le rendement des puits.

 

       -  l’emprise au sol

Il y a deux phases dans l'exploitation des gaz de schistes :

 

* le forage

Les couches géologiques concernées étant très peu poreuses et imperméables, il faut forer un grand nombre de puits (plusieurs puits par km2).

Lors du forage et de la mise en production du puits (quelques semaines), l'activité autour du forage est donc très intense et implique une logistique lourde.

Pour minimiser l'empreinte au sol, mais surtout pour optimiser l'architecture et la productivité des puits horizontaux et diminuer leur coût, on regroupe les plateformes de forage sous forme de "clusters"

      * l’exploitation

 L'émergence du gaz se fait naturellement par différence de pression, sans nécessiter de pompage. En surface, il ne reste que la tête de puits et le gazoduc permettant d'évacuer le gaz.

 

Conclusion

 

L’homme est ainsi fait que dans sa quête de richesses (pour qui ?), de progrès (?)... il ira toujours plus loin dans l’exploitation des ressources naturelles.

 

On sait depuis fort longtemps que des quantités énormes d’hydrocarbures lourds et légers sont détenues dans les schistes ; d’innombrables études ont été notamment réalisées sur les schistes bitumineux, dès le premier choc pétrolier. Le renchérissement du pétrole brut et les progrès spectaculaires des technologies vont assurer, dans les années qui viennent, la rentabilité de leur exploitation.

 

On sait aussi que le prix écologique à payer va être lourd, très lourd.

 

Aux citoyens de juger si le jeu en vaut la chandelle. Les responsables politiques actuels semblent avoir fait leur choix : l’ancien ministre de l’écologie avait donné son feu vert pour la localisation des gaz de schistes. Cependant devant la montée des contestations,  le président socialiste de la région Rhône-Alpes vient de demander l'annulation des permis de recherche accordés dans la région de Montélimar.

Personnellement, si on touche aux Causses, je prends le maquis !

 

A lire : Extraction du gaz de schiste dans la vallée du Saint-Laurent (Québec)

 

NB : Le Conseil Général de l'Hérault (le nord du département est menacé) a voté à l'unanimité le 24 janvier une motion qui décline une série de griefs contre cette entreprise, qu’il s’agisse de « dispositifs du Grenelle que l’on foule du pied » ou des « quantités d’eau à mobiliser dans une région frappée d’une sécheresse endémique depuis des années », voire de « permis totalement incompatibles avec, par exemple, un classement de grand site au patrimoine mondial (pour Causses et Cévennes), les schémas de développement du tourisme, Natura 2000, etc. ».

Sciences - 31 août 2010

Maladies neurodégénératives : avancées thérapeutiques

PIERRE "MATHIAS" JAQUIER NOUS A QUITTE LE 31 AOûT 2010 (*)

 

Pierre Jaquier est un luthier d'exception. Facteur de violes de gambe, il a réalisé les magnifiques instruments du film d'Alain CorneauTous les matins du monde. Chacun de ses instruments est unique, et les têtes sculptées de ses violes sont de véritables œuvres d'art. 

 

A l'instar de grands interprètes du monde entier, j'ai eu le privilège de visiter l'atelier de Mathias (son prénom d'artiste) -ami de ma belle-famille- dans un petit village du Luberon et de m'émerveiller devant le minutieux travail du maitre.

 

Atteint d'une Sclérose Latérale Amyotrophique (SLA, maladie de Charcot) foudroyante, Mathias est aujourd'hui dans un fauteuil roulant, il a perdu l'usage de ses mains.

Ses facultés intellectuelles restent intactes. Vous pourrez lire ICI son bouleversant témoignage.

 

Le SLA est une maladie neurodégénérative peu courante, contrairement à la maladie d'Alzheimer par exemple. C'est une maladie du motoneurone : maladies liées notamment  à une anomalie de la jonction de la fibre musculaire avec son nerf moteur.

L’atteinte des neurones moteurs de la moelle épinière provoque une diminution de la force musculaire dans un premier temps, puis une paralysie. Les membres supérieurs sont touchés en premier puis les muscles du tronc (respiratoires) enfin les membres inférieurs.

Il n’existe pas de déficit sensitif.

 

La cause des lésions est inconnue. On sait qu’il existe une notion d’hérédité (5 à 8% des cas) et une prédominance chez l’homme.  

 

Les élément- traces métalliques -ETM- (terminologie plus adaptée que métaux lourds) sont mis en cause par plusieurs chercheurs comme un des facteurs environnementaux suspectés d'accélérer le déclenchement de la maladie. Cependant aucune étude sérieuse ne le démontre.

Le pronostic est sombre : on peut seulement ralentir l'évolution du processus par l'utilisation conjointe du Riluzole(Sanofi-Aventis) et de la Vitamine E.

 

POUR EN SAVOIR PLUS : VISITEZ LE SITE DE L'ASSOCIATION ARSLA QUI A PUBLIE LE TEMOIGNAGE DE MATHIAS

 

Cependant les chercheurs n'ont pas baissé les bras et comme pour toutes les maladies neurodégénératives, les travaux  se multiplient selon plusieurs axes.

 

Ainsi dans la littérature j'ai relevé plusieurs pistes intéressantes :

 

- pour la détection précoce : découverte d'un gène lié à la SLA (Université de Laval, Québec)

 

- pour les essais thérapeutiques : étude prochaine en phase 3 d'un benzothiazole (hétérocycle aromatique présent dans le riluzole), le dexpramipexole,  par KNOPP Neurosciences. Il est validé comme médicament orphelin.

 

Pour plus d'infos sur les travaux en cours voir ICI.

 

Actuellement la recherche concernant les maladies neurodégénératives connait un développement sans précédent.

 

En France, l'Institut Pasteur, dans le cadre de son programme Neurosciences, explore plusieurs pistes. J'avais signalé ici que des équipes de l'Institut Pasteur et du CNRS avaient montré les capacités intrinsèques du cerveau à s'auto-réparer. En détournant des neurones nouvellement formés depuis leur zone germinative vers les régions lésées, on pourrait ainsi espérer contribuer à élaborer de nouvelles stratégies thérapeutiques pour le traitement des maladies neurodégénératives comme la maladie de Parkinson ou la Chorée de Huntington.

 

J'avais évoqué dans un précédent billet, l'installation de l'ICM (Institut du Cerveau et de la moelle épinière) au sein de l'hôpital Pitié-Salpétrière.

 

On peut aussi citer lIFR37 des Neurosciences de Strasbourg qui regroupe 32 équipes de différentes unités du CNRS de l’INSERM et de l’Université de Strasbourg.

L’ensemble de ces équipes développe des thématiques liées au fonctionnement des systèmes nerveux et neuroendocrine, depuis le niveau moléculaire jusqu'aux comportements et aux fonctions cognitives, tant chez l'animal que chez l'Homme.

L’activité de ce futur Neuropôle se caractérise par l’existence d’un continuum de recherches fondamentales, appliquées et cliniques.

 

En Europe, certains des meilleurs chercheurs du monde et de l’Europe se sont réunis le 15 avril 2010 à Stockhlom pour définir une stratégie de recherche paneuropéenne dans la lutte contre les maladies neurodégénératives  dans le cadre de l’initiative de programmation conjointe contre les maladies neurodégénératives (JPND).

La JPND est considérée comme un projet pilote pour la programmation conjointe au sein du 7ème PRCD.

 

(*) : Mathias était profondément croyant. Il avait, dans les moindres détails, organisé la messe de funérailles qui a été concélébrée le 3 septembre en l'église de Cucuron, en présence de ses amis musiciens qui avaient déposé devant le cercueil les instruments -tous différents- qu'il avait réalisé pour eux.

 

A la fin de la cérémonie un texte, qu'il avait préparé, a été distribué :

 

"Une si petite séparation...

A ceux qui m'entourent j'ai envie de dire : ne soyez pas tristes. Non pas qu'on ne puisse être très affligé quand on perd quelqu'un de cher. Mais simplement pour moi, la mort n'est qu'une toute petite séparation... En ce qui concerne cette séparation, indépendamment de la conviction qu'on peut avoir, il me semble qu'il se garde de toute existence quelque chose qui passe, qui se transmet. Les gens disparus sont encore en nous, leur apport se transmet très longtemps, de diverse façon, même si nous n'évoquons pas explicitement leur souvenir. C'est la transmission de ce que l'on est qui vous permet d'être vivant par delà la mort."

 

Sciences - 14 avril 2010

Le cerveau dans tous ses états

Le journal Le Monde, dans un bref entretien avec le Pr Gérard Saillant, rappelle qu'en octobre prochain s'ouvrira l'Institut du Cerveau et de la Moelle épinière (ICM) au sein de l'hôpital Pitié-Salpêtrière à Paris.

 

L’ICM est un centre unique au monde qui regroupera en un même lieu les malades, les chercheurs et les médecins. C’est 800 chercheurs en permanence, 25 000 m2 de laboratoire où viendront travailler les meilleurs chercheurs du monde entier.”

 

Maladie d’Alzheimer, de Parkinson, paraplégie, tétraplégie, accidents vasculaires cérébraux, sclérose en plaques, dépression, psychoses... Aujourd’hui, les maladies neurologiques et psychiatriques affectent 10 millions de malades en Europe ; 4 à 5 millions de personnes sont touchées par la maladie d’Alzheimer. On recense 3 millions d’accidents vasculaires cérébraux, 2,5 millions d’épileptiques...
Le vieillissement de la population laisse présager une forte augmentation de ces chiffres.

 

Les travaux de l'ICM ciblent donc notamment :

 

- les maladies neurodégénératives

La dégénérescence nerveuse peut toucher le cortex cérébral (maladie d'Alzheimer), les structures profondes du cerveau (maladie de Parkinson), la moelle épinière (sclérose latérale amyotrophique).

La sclérose en plaques et les maladies inflammatoires du système nerveux qui  généralement débutent chez le jeune adulte.

 

Les séquelles d'accidents vasculaires cérébraux. 

 

- Les tumeurs, souvent malignes, qui sont généralement au-dessus de toute ressource thérapeutique.

 

L'épilepsie, touchant les jeunes, qui est traitée par les médicaments, mais pas dans tous les cas.

 

Les maladies psychiatriques : anxiété et la dépression réactionnelle jusqu'aux psychoses les plus graves, dont la schizophrénie, la dépression bipolaire, l'autisme...

 

Les traumatismes du cerveau et de la moelle épinière : hémiplégie, paraplégie, tétraplégie.

 

Constitué d'environ 100 milliards de cellules nerveuses, qui communiquent entre elles par des contacts (synapses), le cerveau reste un vaste champ d'étude.

 

VOIR SUR LE SITE ICI

 

Grâce aux progrès de la neurologie et des sciences de la cognition, il devient  possible de comprendre le fonctionnement normal du cerveau. Le projet du Pr Saillant doit d'abord permettre une meilleure connaissance des mécanismes moléculaires de la mort cellulaire et des diverses formes de réparation des cellules nerveuses.

 

Les approches dans le domaine de la neurobiologie moléculaire et cellulaire, de la neurophysiologie, des sciences de la cognition et de la thérapeutique ont été menées jusqu'à présent de façon dispersée au niveau planétaire.

 

Dans tous les cas l'amélioration de la qualité des soins exige la multidisciplinarité dans la pratique médicale et le développement continu des moyens diagnostiques et thérapeutiques. C'est un des constats qui justifie le projet ICM.

 

Le terme réparation apparait souvent dans la présentation de l'Institut qui vise donc, au delà de l'amélioration des soins palliatifs, une reconstruction de circuits (connexions synaptiques) endommagés. L'utilisation de cellules souches neuronales pour la réparation du cerveau a déjà fait l'objet de plusieurs publications.

 

On sait que, contrairement au dogme de la fixité neuronale, de nouvelles cellules neuronales sont générées dans le cerveau adulte chez la plupart des espèces.

 

LIRE ICI à propos de la plasticité cérébrale

 

La neurogenèse chez l’homme se déroule principalement dans deux régions du cerveau adulte : le gyrus dentelé de l’hippocampe et la région sous-ventriculaire.

 

Une équipe de chercheurs de l’Ecole polytechnique de Lausanne, dirigée par Carmen Sandi, s’est intéressée à une protéine présente dans l’hippocampe, la MIF (macrophage migration inhibitory factor). Selon leurs recherches publiées dans la revue Molecular psychiatry, l’inhibition de cette protéine provoque “une augmentation des états anxieux et dépressifs”.

 

Carmen Sandi montre qu’il existe un lien entre cette protéine et la neurogénèse. Ainsi chez des rats génétiquement modifiés pour ne pas produire la protéine MIF, un ralentissement de la production de nouveaux neurones est observé. Elle s’accompagne d’une augmentation de l’anxiété et des comportements dépressifs (les rongeurs réagissent différemment aux situations de stress).

 

De plus ces recherches ont montré que ces rats mutants réagissaient moins bien aux antidépresseurs, comme les ISRS (fluoxétine/Prozac).

 

VOIR SUR LE SITE :

 

-Angoisse, chimie, conscience,

Angoisse et dépression

 

Sciences - 10 avril 2010

Biocarburants

Le dernier rapport de l'ADEME sur les biocarburants donne des indications sérieuses (à partir d'une avalanche de données !) à propos de l'intérêt de ce type d'énergie renouvelable. Cependant l'impact du changement d'affectation des sols est très difficile à mesurer et plusieurs simulations sont proposées. Enfin le risque de voir diminuer les surfaces consacrées aux cultures vivrières (compensé par l'utilisation d'OGM ?) n'est pas évoqué.

 

RESUME :

 

Les résultats montrent que les bioéthanols permettent des réductions substantielles de la consommation d’énergie non renouvelable par rapport aux carburants fossiles, en tenant compte du cycle de vie : au mieux, 85% pour l’éthanol de canne à sucre et 54% pour l’ETBE de canne à sucre.

 

S’agissant des émissions de gaz à effet de serre, là encore, l’utilisation des bioéthanols permet de les réduire par rapport à la référence fossile : au mieux, 72% pour l’éthanol de canne à sucre et 47% pour l’ETBE de canne à sucre.

 

Cependant le changement d'affectation des sols inverse ces effets bénéfiques selon plusieurs simulations :

 

- les filières issues de cultures hors hexagone présentent en général des réductions des émissions de GES (gaz à effet de serre) supérieures à celles des filières issues de cultures faites en France. Toutefois la prise en compte
des hypothèses, moyenne à forte, de changements d’affectation directs des sols (CAS) pour ces filières inverserait ces bilans par rapport aux carburants fossiles.

 

- Le même constat peut être dressé lorsque l’on s’intéresse à l’impact potentiel du changement indirect d’affectation des sols sur le bilan des filières hexagonales. Les scénarii les plus pessimistes envisagés pour le changement indirect (remplacement d’1 kg d’huile de colza par 1 kg d’huile de palme produit entièrement à partir de cultures ayant remplacé une forêt tropicale humide) conduiraient à un bilan d’émissions de gaz à effet de serre plus négatif que celui des carburants fossiles.

 

Enfin, avec des niveaux 10 fois plus élevés que les carburants fossiles, aussi bien pour les éthanols que pour les esters, les biocarburants présentent des bilans défavorables pour le potentiel d'eutrophisation.

 

En résumé un bilan plus que contrasté qui de plus ne prend pas en compte l'impact sur la production de cultures vivrières (négligeable en France) alors que selon la FAO, plus d'un milliard de personnes souffrent de la faim.

 

Certaines espèces végétales (biocarburants de deuxième génération) qui pourraient valoriser des terres arides, comme Jatropha curcas (euphorbiacée aux propriétés médicinales originaire d’Amérique centrale) en Afriqueont malheureusement également tendance à concurrencer les cultures vivrières.

 

Aujourd'hui tous les espoirs se portent sur les biocarburants de 3ème génération, obtenus à partir d'algues.

 

Les avantages de cette biomasse marine sont nombreux :

-  la culture des micro-algues ne mobilise pas de surfaces agricoles ou forestières comme le font les 1ère et 2nde générations de biocarburants,

- elle présente une productivité élevée,

- ces microorganismes ne requièrent que de la lumière et du CO2 pour pousser, voire de l’azote ou d’autres additifs peu coûteux.

 

Les résultats obtenus en laboratoire laissent espérer une productivité élevée : entre 20 et 80 tonnes d'huile par hectare, contre deux à peine pour le colza ou le tournesol !

 

LIRE ICI

 

Sciences - 14 octobre 2009

Patrick Couvreur, pionnier des nano médicaments

Le workshop « Aquitaine Conference on Polymers 2009 / Excellence today and tomorrow » réunit actuellement à Arcachon les plus grands spécialistes dans le domaine des polymères. Dans ce cadre, la conférence grand public  "Les médicaments de demain"  proposée par le Pr Patrick Couvreur (Paris-Sud-Orsay), ce jeudi 15 octobre, montrera le chemin parcouru dans le domaine des nanomédicaments.

 

Les progrès de la recherche dans cette partie des nanosciences sont en effet significatifs, malgré les nombreux obstacles de tous ordres qui ont pu parfois décourager certains chercheurs (voir sur ce site l'article "De Démocrite aux nanosciences").

 

En témoigne le parcours de Patrick Couvreur, lauréat cette année du prix Galien de la Recherche Pharmaceutique, qui donnera en 2010 un cours au Collège de France (chaire d’Innovation Technologique). Sa leçon inaugurale « Les nanotechnologies peuvent-elles contribuer à traiter des maladies sévères » aura lieu le 21 janvier prochain.

 

Patrick Couvreur a enseigné à l’Université Catholique de Louvain avant sa nomination de professeur à Paris-Sud-Orsay, en 1984. Il est actuellement directeur du Groupement de Recherche du CNRS "Vectorisation d'Oligonucléotides antisens".

 

 C’est un pionnier de la vectorisation puisque qu’il a été le premier à montrer qu’il était possible d’utiliser des capsules submicroscopiques, d’une centaine de nanomètres pour promouvoir la pénétration intracellulaire de médicaments.

 

L’adressage de molécules à visées  thérapeutiques vers l’organe, le tissu ou la cellule malade, constitue en effet un défi majeur pour le traitement de nombre de pathologies, en particulier infectieuses, cancéreuses ou d’origine génétique.

 

De nombreux principes actifs présentent des caractéristiques physicochimiques peu favorables au franchissement des barrières biologiques qui séparent le site d’administration du médicament de son site d’action.

 

D’un autre côté ces molécules se heurtent aux  barrières enzymatiques qui provoquent leur dégradation et métabolisation rapides.

 

 L’obtention de concentrations efficaces au niveau du site d’action ne peut donc se faire qu’au détriment d’une importante déperdition du principe actif vers d’autres tissus ou cellules, ce qui occasionne des effets toxiques importants et parfois rédhibitoires (cas des agents anticancéreux).

 

Le développement de nanotechnologies dans le domaine des vecteurs de médicaments a donc  pris un essor considérable au cours des dernières années.

 

En 1979, P. Couvreur prépare les premières nanoparticules biodégradables à partir d’un  polymère métabolisable. Son équipe a alors pu associer à ce nouveau vecteur biodégradable plusieurs agents anticancéreux, comme la doxorubicine.

L’efficacité de ces nanovecteurs a été démontrée sur plusieurs cancers expérimentaux (métastases hépatiques et leucémies).

 

Les résultats obtenus à propos de l’hépatocarcinome sont particulièrement intéressants :

 

" Le traitement de l’hépatocarcinome se trouve entravé par le fait que les principes actifs contenus dans les médicaments se heurtent à un mécanisme de défense (détoxication) qui les empêche de rentrer dans la cellule cancéreuse pour la tuer. Nous avons réussi à encapsuler, grâce à des polymères, des nanoparticules biodégradables qui sont invisibles pour la défense de la cellule cancéreuse. On trompe la cellule. On a d’abord développé cette découverte sur des animaux de laboratoire, et nous sommes actuellement en phase 2-3 des essais cliniques. " Interwiew P. Couvreur

 

Des nanotechnologies de deuxième génération permettent maintenant de délivrer de manière spécifique des molécules actives au niveau de tumeurs cérébrales ou de maladies auto-immunes entraînant des réactions inflammatoires au niveau de certains tissus du cerveau.

 

En collaboration avec l’équipe de C. Malvy (IGR, Villejuif), il a montré que l’encapsulation d’un oligonucléotide antisens ou d’un petit ARN interférent (siRNA), orienté contre un oncogène de jonction permettait de traiter efficacement un modèle expérimental du sarcome d’Ewing.

Il est remarquable de noter que lorsqu’il n’est pas encapsulé, le même oligonucléotide/siRNA n’a pas d’activité sur cette tumeur pédiatrique qui résulte de la fusion de deux gènes localisés sur des chromosomes différents.

Cette observation ouvre des perspectives nouvelles dans le domaine de la manipulation génétique pour le traitement du cancer.

 

La découverte la plus récente de l’équipe de P. Couvreur repose sur l’observation fortuite que le couplage du squalène à des analogues nucléosidiques («squalénisation») aboutit systématiquement à des molécules plus actives et qui s’auto-assemblent spontanément sous forme de nanoparticules (de 60 nm à 300 nm) en milieu aqueux (2).

Ces nanosystèmes peuvent donc être administrés par voie intraveineuse. Ce concept a déjà été appliqué à deux analogues nucléosidiques à activité anticancéreuse et à trois analogues nucléosidiques à activité antivirale (dont l’AZT). Des résultats spectaculaires ont été obtenus in vitro sur culture de cellules et in vivo sur différents cancers expérimentaux.

 

Les nanovecteurs balayent aujourd'hui un large spectre ; les publications foisonnent et les projets en développement concernent  une grande partie du champ thérapeutique des maladies sévères -maladie d'Alzeimer ou traitement de l'arthrose par exemple- (3).

 

La préparation de vaccin via les nanotechnologies fait également l'objet d'efforts importants.

 

Ces recherches transdisciplinaires ouvrent des perspectives thérapeutiques radicalement nouvelles en mettant les nanotechnologies au service de la découverte de nouveaux médicaments.

 

(1)    Patrick Couvreur a aussi été le 5ème lauréat français, en 50 ans, de la « Host Madsen Medal » qui est la plus haute distinction remise par la Fédération Internationale Pharmaceutique (FIP).

(2)   Le squalène, précurseur de la biosynthèse du cholestérol, adopte en milieu aqueux une conformation compacte qui lui permet d’entrer dans la poche hydrophobe de l’enzyme(i.e. oxidosqualenecyclase).

(3) Pour pallier aux effets secondaires d'infiltrations de corticostéroïdes,  il a été  proposé d'utiliser des microparticules co-encapsulant un anti-inflammatoire stéroïdien, l'acétate de dexaméthasone, et des nanoparticules d'oxyde de fer superparamagnétique (SPIONs) comme vecteurs intra-articulaires.

       Piégée dans la matrice polymérique, la dexaméthasone est libérée graduellement, évitant ainsi la formation de cristaux dans l'articulation. De plus, de par les propriétés magnétiques des SPIONs, les microparticules sont retenues dans l'articulation à l'aide d'un aimant externe, réduisant ainsi leur clairance.

 

Un petit clin d’œil à mon fils Thomasqui soutiendra dans les semaines qui viennent une thèse à propos de "prodogues issues de siARN modifiés".

 

Plus d'informations : Conférence de P. Couvreur, Canal U

 

Sciences - 12 octobre 2009

Au coeur du monde ARN

Structure des ribosomes
Structure des ribosomes

A propos de l'origine de la vie, j'ai abordé l'hypothèse d'un monde ARN, antérieur au monde ADN que nous connaissons aujourd'hui. L'actualité scientifique met en lumière ces macromolécules essentielles du vivant (1).

 

 

En effet, le prix Nobel de chimie 2009 a été attribué à l'Israélienne Ada Yonath (Institut des sciences Weizmann, Jérusalem), à l'Américain d'origine indienne Venkatraman Ramakrishnan (Laboratoire de biologie moléculaire, Cambridge) et à l'Américain Thomas Steitz (Institut médical Howard Hugues, Université de Yale, Etats-Unis) pour des  travaux portant sur la structure et le fonctionnement des ribosomes, des acteurs essentiels de la synthèse des protéines.

 

Le ribosome est un complexe macromoléculaire ARN-protéines responsable de la synthèse protéique dans la cellule. La masse moléculaire d'un tel complexe est considérable : environ 2,7 mega daltons pour les procaryotes et 4,5 mega daltons pour les eucaryotes (ce qui représente plusieurs centaines de milliers d’atomes).

 

Le ribosome est comparable à une usine à protéines. Il permet à la fois de lire l'ARN messager (c'est-à-dire, en quelque sorte, le messager de notre information génétique) et de le traduire afin de fabriquer la protéine correspondante.

 

La synthèse des protéines à partir de l’information codée par les gènes s’effectue en deux étapes et fait intervenir des machines moléculaires complexes constituées de plusieurs composants. La première étape, appelée transcription, est effectuée par l’ARN polymérase dont le rôle est de fabriquer des ARNs messagers homologues au gène à exprimer. La deuxième étape, la traduction, convertit l’information séquentielle contenue dans les ARN messagers en protéines.

 

Celle-ci est réalisée par le ribosome.

La traduction est un phénomène d’une extrême complexité : le ribosome comporte deux parties qui doivent s’assembler très précisément au site d’initiation de la synthèse protéique; les acides aminés (qui constituent les maillons de la protéine) doivent être amenés sur le ribosome et être assemblés selon l’ordre déterminé par l’ARN messager; puis lorsque le signal adéquat apparaît sur l’ARN messager la synthèse doit se terminer aussitôt.


Pour réaliser toutes ces tâches, le ribosome est assisté de nombreuses protéines et dispose à sa surface de différents sites fonctionnels : site actif où sera formée la liaison peptidique, sites de liaison pour les protéines qui apportent les acides aminés et sites d’interactions pour des protéines qui aident le ribosome à débuter ou à finir la réaction. Par ailleurs la réaction s’accompagne de mouvements : le ribosome se déplace par rapport au messager de manière synchrone à la réaction de synthèse et il se déforme de manière coordonnée à chaque cycle d’addition.

Pour comprendre le mécanisme de la synthèse des protéines, il faut donc décrypter le mode de fonctionnement du ribosome et étudier sa structure tri-dimensionnelle dans différents états du cycle réactionnel. Parmi toutes les méthodes de détermination de structure de protéines disponibles, seule la diffraction des rayons X permet de déterminer la position des atomes, mais son champ d’application était  réduit aux protéines cristallisables.

 

Ces dernières années, des études fondées sur la diffraction de cristaux aux rayons X, sur la résonance magnétique nucléaire et sur la cryomicroscopie électronique ont permis d'obtenir une résolution à l'échelle atomique de la structure du ribosome bactérien et donc de comprendre les bases moléculaires de la synthèse des protéines.

 

Ces travaux, qui ont été couronnés par le prix Nobel (2),  semblent confirmer  que l'ARN ribosomique joue un rôle prépondérant dans la structure du ribosome ainsi que dans la formation de la liaison peptidique et le décodage du code génétique.

 

Ces résultats ouvrent la voie à la conception de nouveaux antibiotiques dirigés contre le ribosome bactérien et à d'autres thérapeutiques ayant pour cible la synthèse protéique.

 

En effet, environ la moitié des antibiotiques utilisés en thérapeutique (disposant de l'AMM) ont pour cible le ribosome bactérien. Ces antibiotiques se répartissent en plusieurs classes, de nature chimique et de mode d'action différents, mais la plupart interagissent avec l'ARN ribosomique.

 

La compréhension de l'action du ribosome doit aussi permettre à terme de mieux comprendre les mécanismes de création des êtres vivants.

 

(1) Présentation de l'Université de Sherbrooke sur la structure et les fonctions de l'ARN ICI

(2) Il faut noter qu'une équipe française aurait pu être associé à cette récompense. Cela n'enlève rien à la qualité de leurs travaux. La course au Nobel se joue parfois au finish !

 

 

Sciences - 27 avril 2009

Virus H1N1 : ruée vers le Tamiflu

La menace d'une pandémie grippale, issue d'un virus mutant, (A/H1N1) va faire les affaires du laboratoire Roche qui produit le célèbre Tamiflu déja utilisé contre le virus H5N1 (d'origine aviaire). L'action Roche a fait un bond spectaculaire hier sur les marchés boursiers. En l'absence de vaccin les antiviraux sont en effet les seuls moyens de lutte contre la maladie.

 

Le mécanisme d’action du tamiflu (oseltamivir) consiste en l’inhibition compétitive et sélective de laneuraminidase virale. Cette enzyme située à la surface des virus de l’influenza favorise la libération des virions nouvellement formés depuis les cellules infectées et facilite l’accès des particules virales aux cellules épithéliales, permettant ainsi à l’infection de se propager à d’autres cellules.

 

La synthèse d'une molécule simple comme le tamiflu est loin d'être aisée, non sur le plan des méthodes chimiques mais au niveau du contrôle de la stéréochimie.

 

J'ai plusieurs fois indiqué surce site l'importance de la stéréosélectivité pour la chimie du vivant. Le  tamiflu présente trois centres d'asymétrie dont la stéréochimie doit être controlée lors de la synthèse (sur trois carbones consécutifs du cycle : ceux qui portent un atome d'oxygène-rouge-et les deux atomes d'azote-bleus-, voir figure ci-dessous). Ceci est loin d'être trivial !

 

La synthèse proposée par Roche utilise une des stratégies possibles : l'utilisation comme synthon initial d'un produit naturel (l'acide (-)-shikimique) qui va apporter un embryon de structure mais surtout un appui stéréochimique. Notons cependant que la synthèse breveté par Roche nécessite une douzaine d'étapes avec un rendement global de l'ordre de 15%.

 

Tous les ténors de la synthèse asymétrique se sont mis au travail et des synthèses remarquables ont été publiées ces trois dernières années qui évitent le recours à l'acide shikimique qui doit être extrait de l'anis étoiléchinois.

 

La synthèse proposée en 2006 par le groupe du Pr Masakatsu Shibasaki de l'université de Tokyo, qui a utilisé dans l'étape clé les méthodes de synthèse asymétrique mises au point par le Pr Noyori,prix Nobel de chimie en 2001, est particulièrement remarquable. L'inconvénient de certaines de ces synthèses réside dans l'instabilité de l'un des intermédiaires.

 

A noter en 2008 la très belle synthèse totale d'un autre ténor de la chimie, B.M. TrostRoche aura très rapidement des concurrents sérieux !

 

Ci-dessous la structure  du tamiflu.

Sciences - 26 avril 2009

Médecins, labos, les liaisons dangereuses

C’est le titre de l’un des articles de la revue Que choisir de mai 2009 (n°470).

 

En fait ce qui est révélé dans ce papier est pour beaucoup un secret de polichinelle :

-          De grands professeurs de médecine sont en réalité appointés par les majors de la pharmacie pour vanter les mérites de leurs spécialités, sans qu’ils fassent état de leurs liens avec les labos comme la loi l’exige,

-          des spécialités nouvelles sont ainsi mises sur le marché sans avoir fait preuve de leur supériorité sur les produits existants et plus grave sans que leur innocuité ait été réellement démontrée (voir le cas du Vioxx  -un anti-inflammatoire de Merck, du Staltor -un anti cholestérol- de Bayer…),

-          plus grave encore, la Haute Autorité de la Santé (HAS) ne présente pas –loin s’en faut- toutes les garanties d’impartialité, plusieurs conflits d’intérêts ont entaché certaines de ses recommandations.

 

Ainsi, dans le cas fort douloureux de la maladie d’Alzheimer (300 000 patients en France pris en charge à 100%),  aucune des spécialités utilisées n’a fait preuve d’efficacité.

 

Que choisir cite la conclusion de l’étude de la HAS à ce propos : le bénéfice clinique pour les patients apparaît très difficile à préciser… pour la mémantine (Ebixa)les effets par rapport au placebo sont faibles à modeste… avec aucun impact sur le comportement des patients… Conclusion : il faut continuer à prescrire compte tenu du rôle structurant du médicament."

 

Cela laisse sans voix ! Du coup l’Ebixa a vu ses ventes progresser de 1163% en 4 ans ! (1)

 

Que Choisir note que 9 au moins des 20 experts du groupe qui a rédigé ce rapport avaient des liens avec les industriels concernés. Cerise sur le gateau : le groupe était présidé par une neurologue du CHU de Lille (aux compétences reconnues dans le domaine) qui était membre des conseils scientifiques de 3 des 4 spécialités concernées et qui avait participé  aux essais cliniques de la mémantine.

 

L’intéressée qui fait justement remarquer qu’il est nécessaire que les meilleurs spécialistes soient consultés pour les recommandations concernant l’AMM (Autorisation de Mise sur le Marché), a cette remarque surprenante : à force d’être exigeant avec les médicaments, on ralentit leur développement !

 

Là, je reste pantois ! On sait que les marges nettes des majors de l’industrie pharmaceutique peuvent parfois dépasser 25% et que ces grands groupes recrutent 2 à 3 fois plus de commerciaux que de chercheurs (étude de la CE de 2008).

 

Evidemment ces prestations peuvent rapporter très gros aux praticiens hospitaliers, qui contrairement à ce que beaucoup affirment ne sont que marginalement reversées aux services concernés (environ 10%).

 

Alors, que faire ? Il est évident que la présence de grands médecins hospitaliers, de chimistes, de pharmaciens… est indispensable dans le conseil scientifique d’un labo pharmaceutique.

 

En France, la faiblesse de la recherche « privée » fait que la recherche institutionnelle (université, CNRS, INSERM, INRA) est le plus souvent le moteur des grands projets. Tous les grands laboratoires publics bénéficient de contrats qui peuvent constituer parfois plus des 2/3 de leurs ressources.La proximité est donc forte entre les experts et les commerciaux des grands groupes pharmaceutiques.Les conclusions de ces recommandations devraient donc être examinées à la loupe par les décisionnaires !

 

Il s’agit ici non seulement de déontologie mais d’efficacité.Car actuellement notre industrie pharmaceutique met des millions d’euros dans le marketing pour des spécialités à l’efficacité douteuse au lieu d’investir dans des projets majeurs de santé publique.

 

Que Choisir note d’ailleurs qu’en matière d’innovation… on régresse ! Quelques exemples sont donnés . Alors que pour le traitement de l’hypertension (marché juteux) les «nouvelles spécialités » se multiplient, la HAS préconise le retour aux IEC (périndopril) beaucoup moins chers que les sartans et aussi efficaces. Notons qu’une étude américaine récente indique que les diurétiques (Esidrex) resteraient les plus performants (problème : ils coûtent dix fois moins cher que les nouvelles spécialités !). Quant au célèbre Plavix –un antiagrégant- il ne serait pas plus efficace que l’aspirine (dix fois moins cher) ! Les exemples pourraient être multipliés.

 

Enfin on lira dans cette étude  un épisode édifiant concernant un sujet exemplaire : le traitement de la ménopause.

La femme de 50 ans est d’ailleurs la cible d’un matraquage publicitaire incessant à la radio et dans les journaux alors que l’on sait pertinemment que ces pilules miracles contre les rondeurs, les gonflements, les jambes lourdes… n’ont jamais fait preuve d’efficacité durable dans des études scientifiques sérieuses... Le seul dégonflement observé est celui du... porte-monnaie !

 

Il est question d’autoriser la publicité pour les médicaments (alors qu’aux USA on envisage maintenant de l’interdire), cela ne va pas améliorer notre problème de santé publique.

 

(1) Je note qu'il est très difficile sur le Net de trouver une appréciation objective sur ce type de médicament. La référence que je donne, qui relativise les résultats de l'étude clinique et fait apparaître le conflit d'intérêt (*) est rare. Il est presque impossible pour un lecteur non averti d'avoir accès à une information objective.

(*) Il est dit textuellement :

Conflits d’intérêt

Les Laboratoires Forest Inc. ont été impliqués dans l'élaboration du protocole d'étude, dans le suivi, dans l'analyse des résultats et dans la rédaction de la publication de l’étude. Tous les auteurs ont des liens avec Forest et avec d’autres firmes pharmaceutiques.

 

PS (le 15 janvier 2011) : depuis ce billet le scandale du Médiator a éclaté. D'autres médicaments plus que suspects, comme le Nexin (plusieurs cas d'hépatites graves et de décès), le Di-Antalvic (troubles cardiaques) ou le Vastarel (syndromes parkinsoniens, trouble de la marche, thrombopénies... qui, de plus, est totalement inefficace pour l'ensemble des troubles qu'il est censé améliorer), sont toujours sur le marché.

Notons que pour le Vastarel de chez Servier, les médecins ont reçu il y a quelques mois une demande formelle de ne pas prolonger le traitement au-dela de 3 mois si des améliorations significatives n'étaient pas observées ! Certains patients (souvent âgés) sont sous Vastarel depuis 10 ou 20 ans.

Il ne faut pas tuer les poules aux oeufs d'or !

 

Voir la Revue indépendante PRESCRIRE

 

Sciences - 21 avril 2009

Plasmodium falciparum :Tueur en série chez les pauvres

On a pu voir mardi à la télé, sur France 5, un documentaire : "Les faucheurs de palu", diffusé à l'occasion de la Journée mondiale contre le paludisme (le 25 avril).

 

Dans sa présentation de l'émission, Télérama écrit : "Observer les lieux où il [le paludisme] sévit, c'est dessiner une carte de la misère dans le monde..."

 

Le continent africain paye en effet encore une fois un très lourd tribut (90% des cas !) : l'OMS estime qu'un enfant meurt de la maladie toutes les 30 secondes en Afrique subsaharienne et que 2 à 3 millions de personnes décèdent chaque année victimes du paludisme (ou malaria). Rappelons que dans cette même région du monde, le VIH est responsable d'environ 2,2 millions de morts chaque année et que  la tuberculose (qui progresse de façon spectaculaire) est "créditée" de 500 000 morts par an.

 

L'origine de la maladie est connue depuis 1880 et son fonctionnement  a fait l'objet de multiples publications dès le début du 20ème siècle (prix Nobel 1902 pour Ronald Ross).

 

Ce sont des parasites du genre Plasmodium, transmis par la piqûre de la femelle d'un moustique -l'anophèle- qui sont responsables de la maladie chez l’homme.


Plasmodium falciparum est l’espèce la plus pathogène et responsable des cas mortels. Elle est présente dans les zones tropicales d’Afrique (où elle est dominante), d’Amérique Latine et d’Asie.

 

Les moyens de lutte existants sont les médicaments antipaludiques (dont les plus connus sont la chloroquine ou la quinine) et la lutte contre les moustiques vecteurs du parasite Plasmodium. Mais la situation est d'autant plus préoccupante que depuis plusieurs années, les parasites développent de plus en plus de résistances aux médicaments, et que les moustiques développent des résistances aux insecticides. Aucun vaccin n'est aujourd'hui disponible.

 

L'absence de "solvabilité" de la population concernée n'est sans doute pas étrangère à la lenteur des progrès de la recherche dans ce domaine, même si l'action des ONG (comme la Fondation Bill Gates) et de quelques institutions, comme l'Europe (signalons le projet BiomalPar "Biology and Pathology of Malaria Parasite"- piloté par l'Institut Pasteur - Paris), donne actuellement quelques espoirs dans le domaine thérapeutique et vaccinal. De même certains grands laboratoires pharmaceutiques, comme Sanofi Aventis, s'engagent maintenant résolument dans des partenariats au sein de grands projets existant.

 

Le vaccin 

 

A l’Institut Pasteur, plusieurs équipes travaillent à l’élaboration de vaccins contre le paludisme et plusieurs candidats sont à l’étude.

 

Une des difficultés majeures dans la mise au point d’un vaccin contre  le paludisme vient du fait que le parasite passe successivement par plusieurs stades  avec des phases d’intense multiplication asexuée chez l’homme (dans les cellules du foie - phase hépatique - puis dans les globules rouges du sang - phase érythrocytaire -) et une phase de reproduction sexuée suivie de multiplication, chez l’insecte. Chaque stade se termine par la libération d’un parasite d’une forme différente, donc porteur d’antigènes différents et induisant des réponses immunitaires différentes, ce qui complique d’autant la recherche d’un vaccin.

 

Néanmoins le laboratoire pharmaceutique britannique GlaxoSmithKline vient de publier des résultats très positifs  sur son vaccin expérimental.


Ainsi, selon des études rendues publiques dans le New England Journal of Medicine de décembre dernier, ce vaccin aurait permis d'abaisser de 65% à 53% les manifestations et les épisodes de la maladie sur les enfants et après une période de suivie de 8 mois, sans effets secondaires. Les essais phase III viennent de commencer.

 

Traitements : une alternative efficace à la chloroquine ; l'artemisinine

 

En phytothérapie les Chinois utilisent une Armoise annuelle (Artemisia annua) depuis des milliers d'années pour soigner le paludisme.

De récentes études ont prouvé effectivement la grande efficacité de l'armoise annuelle. La molécule active de cette plante se nomme artémisinine. Cette molécule est souvent combinée avec d'autres traitements pour soigner le paludisme et limiter les résistances.

 

En 1993, des chercheurs de l’université du Michigan ont découvert le mécanisme d’action de l’artémisinine. Cette lactone sesquiterpénique porte en effet un groupe peroxyde. Ce groupe peroxyde réagit avec le fer des globules rouges pour créer des radicaux libres qui détruisent les membranes du parasite et le tue. Les candidats médicaments actuels ciblent souvent la destruction de cette membrane (ou son inhibition).

 

Actuellement les deux principaux dérivés de l’artémisinine utilisés sont l’artéméther et l’artésunate. L’utilisation de ces dérivés en monothérapie n’est pas recommandée. En Europe, la principale association synergique commercialisée est le couple artéméther-luméfantrine (benflumétol).

 

 Les candidats médicaments 

 

Actuellement de nombreuses équipes françaises et européennes sont sur le point de proposer de nouveaux types de médicaments.

 

Ainsi le groupe Sanofi Aventis vient d'apporter son appui (c'est un signe !) à Medicines for Malaria Venture (MMV), un organisme à but non lucratif dédié à la recherche et au développement de nouveaux médicaments contre le paludisme. Parmi les molécules en developpement qui vont bénéficier de ces soutiens : la ferroquine (Université des Sciences et Technologies de Lille), une trioxaquine (Palumed, Université Toulouse III) et des bis-thiazolium  (Centre National pour la Recherche Scientifique, Université Montpellier II).

 

On peut également citer les travaux de l’équipe mixte CNRS/INSERM coordonnée par Mohamed-Ali Hakimi (Université Joseph Fourier, Grenoble), publiés tout récemment dans The Journal of Experimental Medicines. L'équipe du Dr Hakimi s'est intéressée aux parasites Apicomplexa, dont font partie Plasmodium falciparum et Toxoplasma gondii (pour la toxoplasmose). « Nous avons constaté que la molécule FR235222 (produite par un champignon filamenteux n.d.l.r.) permettait de limiter, voire d’inhiber la prolifération de ces parasites »  .

 

La nouvelle molécule réprimerait l’expression de certains gènes parasitaires, responsables de la prolifération de P. falciparum.

 

 

Sciences - 1ier avril 2009

La course à l'hémoglobine

C'est une première : des chercheurs de l'Etablissement français du sang (EFS) ont réussi, par transfert de gènes, à modifier un groupe sanguin.

 

Cette opération, réalisée à Marseille, va permettre de créer des échantillons de sang rare (communiqué de l'EFS du 31 mars 2009).

 

Les chercheurs ont réussi à modifier le groupe sanguin Kidd/JK, l'un des trente connus. Pour cela, les scientifiques ont isolé des cellules souches prises dans le sang de cordon ombilical, prélevé après la naissance. Les cellules ont ensuite été mises en culture jusqu'à l'obtention de globules rouges.

 

 

La piste la plus prometteuse pour résoudre le problème de la demande croissante de sang -notamment de groupes rares-  est en effet l’utilisation de cellules souches humaines.      

 

Les cellules souches hématopoïétiques, précurseurs des globules rouges, sont présentes en grande quantité dans le cordon ombilical par exemple.

 

Luc Douay, Directeur du laboratoire d'hématologie à l’Université Pierre et Marie Curie, (Paris VI, Unité Inserm U832), cherche depuis plusieurs années à transformer ces cellules souches en globules rouges matures. Il a ainsi réussi à obtenir 200 000 globules rouges à partir d'une seule cellule souche. "D'ici quelques années, on pourra produire du sang universel, que chacun tolérera quel que soit son groupe sanguin".

 

Des scientifiques britanniques, en collaboration avec le Scottish National Blood Transfusion Service (SNBTS), le NHS Blood and Transplant et le Wellcome Trust (seconde fondation caritative mondiale dans le domaine de la médecine.), ont également un projet sur 3 ans qui prévoit l’utilisation de cellules souches issues d'embryons de donneurs sanguins universels (du groupe O négatif) pour synthétiser un sang utilisable sur n'importe quel patient nécessitant une transfusion.

 

Le « sang artificiel »

 

En Afrique du Sud, où le sida fait des ravages, on utilise depuis 2001 un dérivé sanguin issu d’hémoglobine bovine  (Hemopure™ , Biopure Corp. USA).

 

Le biologiste Istvan Horvath qui travaille sur les lipoïdes a également mis au point un "sang artificiel" issu de sang de bœuf gris hongrois.

 

Ces produits sont artificiels dans la mesure où il sont  produit artificiellement… mais ils dérivent d'une substance naturelle.

 

Il s'agit en fait d’hémoglobine et non de l'érythrocyte. Comme c'est la membrane de l'érythrocyte qui contient l'antigène des groupes sanguins, le "sang artificiel" peut être donné à n'importe qui, quel que soit son groupe. Ce produit peut se conserver longtemps, à la différence du sang humain, qui n'est utilisable que dans une période très restreinte.

 

Cependant il faut noter qu’une étude américaine montre que la transfusion de ces substituts serait responsable d'une surmortalité significative par rapport aux transfusions effectuées avec des dérivés naturels (hausse de 30 % du risque de mortalité par incident cardiovasculaire).

 

De façon plus anecdotique notons que, dans le cadre du programme de recherche Euro Blood Substitutes, une équipe s'intéresse à des vers marins, dont la molécule d'hémoglobine est 50 fois plus grosse que l’humaine. Elle est particulièrement stable. Les premiers essais sont prometteurs : le transport d'oxygène est assuré normalement et l'hémoglobine ainsi obtenue ne provoque pas d'allergie. Cependant la production de grandes quantités de ce type d’hémoglobine est problématique !

 

Les biotechnologies permettent également de produire de l'hémoglobine à partir d’organismes génétiquement modifiés.

 

Des chercheurs de l'Inserm et du groupe Limagrain ont ainsi réussi à obtenir la synthèse de l'hémoglobine humaine à partir de plants de tabac ( Nicotiana tabacum ), une plante modèle en biologie végétale.

 

Ils ont mis au point une construction génétique renfermant notamment les deux gènes codant cette protéine contenue dans les globules rouges et transportant l'oxygène. La séquence génétique a ensuite été intégrée dans des cellules de tabac par l'intermédiaire d'une bactérie du sol, Agrobacterium tumefasciens, qui infecte naturellement les végétaux en leur transmettant une partie de son matériel héréditaire. Résultat, la moitié des plants régénérés à partir de ces cellules contenaient dans leurs graines et leurs racines une hémoglobine en tous points (structure, propriétés biologiques) semblable à l'hémoglobine native.

 

VOIR Human haemoglobin from transgenic tobacco, (Nature, 6 mars 1997)

 

Pour l'instant, cette hémoglobine se dégrade trop rapidement et elle est toxique pour les reins.

 

Le sang "chimique"

 

La voie 100% artificielle fait appel aux perfluorocarbures (PFC). Ces molécules contenant des atomes de carbone, d'hydrogène et de fluor sont capables de dissoudre de grandes quantités d'oxygène.

 

Fluosol , développé au Japon (Green Cross Corporation), est  le précurseur de ce type de composé. Le groupe pharmaceutique Alliance a également mis au point Oxygent, un substitut actuellement en phase III.

 

Comme les PFCs ne sont pas solubles dans le sang, ils se présentent sous forme d'émulsion dans de l'eau salée. Ils sont donc rapidement éliminés par l'organisme et ne peuvent être utilisés que sous forme transitoire (interventions chirurgicales).

 

 

Malheureusement il semblerait que ces composés qui, évidemment, contrairement à l’EPO, n’augmentent pas le taux d’hématocrite, soient déjà utilisés à des fins de dopage.

 

 

 Sciences - 6 mars 2009

Les virus sont-ils vivants ?

Je découvre avec un peu de retard (grâce à ma microbiologiste préférée !) ce communiqué du Pr Bernard La Scola de la Faculté de Médecine de Marseille :


"En 2003, le professeur Bernard La Scola, de l'équipe dirigée par le Professeur Didier Raoult (Unité de Recherche sur les Maladies Infectieuses et tropicales Emergentes, Faculté de Médecine de Marseille), publiait dans la revue scientifique Science un article relatant la découverte de Mimivirus, un virus géant, le plus grand connu à ce jour, dont la taille de la particule et du chromosome étaient supérieurs à ceux de nombreuses bactéries.

Cinq ans après, jeudi 7 août 2008, la même équipe annonce, sur le site de la revue scientifique Nature, avoir découvert 2 nouveaux virus dont un capable d'infecter le premier afin de s'y répliquer. Le premier nouveau virus est encore plus grand que Mimivirus, ce qui en fait le nouveau plus grand virus connu (d'où la dénomination de «Mamavirus»). Il a été trouvé sur une amibe (Acanthamoeba castellanii ) dans le système d'eau d'un système de climatisation."

Le second nouveau virus (nommé Sputnik) de petite taille (50 nanomètres et 18 000 paires de base contre plus de 2 millions pour Mamavirus) est capable d'infecter Mamavirus et Mimivirus quand ils sont en phase de réplication, en infectant directement l'organe de multiplication de ces virus géants dans l'amibe appelé «usine à virus».

Cette infection d'un virus par un autre virus est un mécanisme totalement inédit. De plus, cette infection a un effet pathogène sur les virus géants dont la croissance se ralentit et il est possible d'observer des formes anormales.

De façon intéressante, le génome de Sputnik est une mosaïque de gènes provenant de virus qui infectent les trois domaines du vivant : les eucaryotes (animaux, plantes, champignons, protozoaires...), les bactéries (ce virus sont appelés bactériophages) et les archaebactéries (organismes vivants dans des conditions extrêmes), illustrant le transfert de gènes entre les virus de ces différents mondes. Cette découverte ouvre ainsi des perspectives sur l'évolution des génomes viraux et plus largement sur l'évolution des espèces vivantes."

 

Cette découverte est en effet très importante,  car si les virus disposent d'un génome, à la différence des organismes cellulaires (plantes, bactéries, animaux, etc.), ils sont incapables de le répliquer hors de la cellule qu'ils infectent et en ce sens ils n'étaient pas considérés comme des êtres vivants.

 

François Jacob caractérisait ainsi les virus : "placés en suspension dans un milieu de culture, ils ne peuvent ni métaboliser, ni produire ou utiliser de l’énergie, ni croître, ni se multiplier, toutes fonctions communes aux êtres vivants "

 

Le fait qu'un virus puisse être infecté par un autre virus est troublant ("puisqu'il peut être malade, c'est qu'il est vivant !"). Les virus ont longtemps été confondus avec leur virion", indique le microbiologiste Patrick Forterre (Institut Pasteur, université Paris-XI) qui rajoute : "on peut commencer à parler de vie lorsque les mécanismes de la sélection darwinienne s'appliquent." Or, rappelle-t-il, "les virus y sont soumis..."

 

En effet les virus ont aussi un rôle dans l’évolution. Patrick Forterre propose même l’hypothèse que les virus seraient les « inventeurs » de l’ADN.

 

A l'origine de la vie, l’ARN dominait (le monde à ARN) et assurait à la fois les fonctions de stockage et de transmission de l’information génétique et de catalyse des réactions chimiques. L’ADN serait apparu ensuite et sélectionné en raison de sa plus grande stabilité.

 

D’après Patrick Forterre le premier organisme à ADN serait un virus. L'ADN conférerait au virus le pouvoir de résister à des enzymes dégradant les génomes à ARN, arme de défense probable des protocellules. On retrouve le même principe chez des virus actuels, qui altèrent leur ADN pour résister à des enzymes produites par des bactéries infectées.

 

Voir sur le site "Des biopolymères aux premiers organismes vivants"

Sciences - 12 janvier 2009

2009, année Darwin

Charles Darwin sera célébré cette année à l’occasion du bicentenaire de sa naissance.

 

C’est peu dire que, depuis exactement 150 ans, date de la publication de son ouvrage " The Preservation of Favoured Races in the Struggle for Life" (L'Origine des espèces), l’œuvre du père de la théorie de l’évolution a bouleversé le monde des sciences, des religions, de la philosophie.

 

Les réactions violentes, notamment des conservateurs religieux, n’ont jamais cessées. Il suffit de faire un tour sur le Net en tapant par exemple  sur Google : darwinisme social ou racisme et darwinisme pour s’en convaincre ! Darwin était-il raciste ? Au sens où nous l’entendons aujourd’hui sans aucun doute… MAIS comme l’ensemble de la société qu'il fréquentait, hiérarchie religieuse incluse, au milieu du XIXème siècle.

 

Cependant dans The Descent of Man, and Selection in Relation to Sex , Darwin  constate "que la sélection naturelle n'est plus, à ce stade de l'évolution, la force principale qui gouverne le devenir des groupes humains, mais qu'elle a laissé place dans ce rôle à l'éducation. Or cette dernière dote les individus et la nation de principes et de comportements qui s'opposent, précisément, aux effets anciennement éliminatoires de la sélection naturelle, et qui orientent à l'inverse une partie de l'activité sociale vers la protection et la sauvegarde des faibles de corps et d'esprit, aussi bien que vers l'assistance aux déshérités." (Tort)

 

Sur ce site vous trouverez un résumé de la vie de Darwin et des principes du darwinisme et aussi un chapitre consacré au créationnisme et à sa forme « moderne », plus présentable, appelée néocréationnisme (voir Le Dessein Intelligent : Intelligent design ).

 

Voir : http://www.darwin2009.fr/