Voir les informations

Détails du document

Informations détaillées

Conditions générales d'utilisation :
Protégé par droit d'auteur

Consulter cette déclaration

Titre :
Interface : la revue de l'ACFAS
Éditeur :
  • Montréal (Québec) :Association canadienne-française pour l'avancement des sciences,1984-2000
Contenu spécifique :
Cahier 1
Genre spécifique :
  • Revues
Fréquence :
six fois par année
Notice détaillée :
Titre porté avant ou après :
    Prédécesseur :
  • Bulletin de l'ACFAS
  • Successeur :
  • Découvrir (Montréal, Québec)
Lien :

Calendrier

Sélectionnez une date pour naviguer d'un numéro à l'autre.

Fichiers (2)

Références

Interface : la revue de l'ACFAS, 1991-05, Collections de BAnQ.

RIS ou Zotero

Enregistrer
EX.2 s»! wmm LA REVUE RECHERCHE I ¦¦mm.• - ' FACE A FACE Jean-Claude Aïtcin Le Bocuse du béton 9 770826 486005 MAI-JUIN 1991 VOLUME 1 a, NUMÉRO 3 5,00 $ LE PROJET DU GENOME HUMAIN: du défi technologique à la question éthique La productivité de la recherche scientifique au Québec ADRESSE DE RETOUR; CASE POSTALE 6060.MONTRÉAL- (QUÉ.) H3C 3A7 COURRIER DE 2- CLASSE ENREGISTREMENT N° 6489 977082648600513 mmSSZSSS ¦SSSÏSSa mSSSSmmm UdeMatik Quelques nouvelles 'Université L'Institut de recherche en biologie végétale Créé conjointement par la Ville et l'Université de Montréal, l'Institut ouvre ses portes en novembre 1990.Il est situé au Jardin Botanique.Ses principaux pôles de recherche ¦ biologie moléculaire et génétique, ¦ biologie cellulaire et développement, ¦ systématique et phylogénie, ¦ écologie et aménagement des milieux urbains et péri-urbains.L'institut veut également fournir des services à la communauté.Pour information 872-8486 Le financement public, un outil de développement Depuis près de 3 ans, les universités acceptent de financer une part de la recherche universitaire par voie d'appel public à l'épargne.Jusqu'à maintenant, 4 projets de recherche pour une valeur totale d'environ 6 000 000 $ ont ainsi été financés ¦ en médecine dentaire, ¦ en optométrie et ¦ en médecine vétérinaire.La popularité grandissante de cet abri fiscal nous porte à croire que l'Université en profitera davantage au cours des années à venir.UdeMatik UdeMatik est une base de données interactive accessible gratuitement partout au Québec.Elle présente la totalité des cours disponibles, les conditions d'admission, les facultés, les unités de recherches.UdeMatik permet de faire des recherches sur les cours à partir d'un thème, d'un sujet, d'un professeur.Elle affiche le ou les programmes qui intègrent un cours.UdeMatik, c'est l'Université sur votre bureau.Pour information 343-6041 JL Université de Montréal / «« HMH 5« MAI-JUIN 1991 VOLUME 12, NUMÉRO 3 S ^MMAIRE " INTERFACE REVUE BIMESTRIELLE SANS BUT LUCRATIF, INTERFACE EST PUBLIÉE À L'INTENTION DE LA COMMUNAUTÉ SCIENTIFIQUE PAR L'ASSOCIATION CANADIENNE-FRANCAISE POUR L'AVANCEMENT DES SCIENCES (ACFAS), AVEC L'AIDE DU MINISTÈRE DE L'ENSEIGNEMENT SUPÉRIEUR ET DE IA SCIENCE.DIRECTRICE GÉNÉRALE DE L'ACFAS: FRANÇOISE BRAUN RÉDACTRICE EN CHEF: SOPHIE MALAVOY SECRÉTAIRES DE RÉDACTION: JOCELYNE THIBAULT, MICHÈLE BLAIS COMITÉ DE RÉDACTION: THÉRÈSE BOUFFARDBOUCHARD, JEAN HAMANN, LAURENT LEWIS, DENISE PELLETIER, ET YANICK VILLEDIEU DIRECTION ARTISTIQUE ET PRODUCTION: MATHILDE HÉBERT ET ANNIE PENCRECH RÉVISION UNGUISTIQUE: HÉLÈNE LARUE PHOTO DE LA PAGE COUVERTURE: GRANT SIMÉON IMPRESSION: RICHARD VEILLEUX INC.LES ARTICLES D'INTERFACE PEUVENT ÊTRE REPRODUITS SANS AUTORISATION À CONDITION QUE L'ORIGINE EN SOIT MENTIONNÉE.POUR TOUTE DEMANDE DE RENSEIGNEMENTS, S'ADRESSER À L'ACFAS, 2730, CHEMIN DE LA CÔTE-SAINTE-CATHERINE, MONTRÉAL (QUÉBEC) H3T1B7, TÉL: (514) 342-1411, TÉLÉC.: (514) 342-9552 LA REVUE INTERFACE EST RÉPERTORIÉE DANS POINT DE REPÈRE COURRIER DE DEUXIÈME CLASSE, ENREGISTREMENT N - 6489, MAI 1991 DÉPÔT LÉGAL BIBUOTHÈQUE NATIONALE DU QUÉBEC, DEUXIÈME TRIMESTRE 1991 ISSN: 0826-4864 L___________ EDITORIAL 5 Le défi démographique du Québec et son avenir politique Nicole Marcil-Gratton et Jacques Légaré FACE A FACE Pierre-Claude Aïtcin Guy Paquin Le Projet du génome humain en quête d'innovations technologiques?15 Gary W.Slater et Guy Drouin * La recherche scientifique au Québec: production et productivité de 1980 à 1988 25 Yves Gingras et Christine Médaille MODEM 34 Le Projet du génome humain: faut-il craindre la science?Vers un avenir réfléchi Jean Dausset 36 Une problématique éthique et sociale Marcel J.Mélançon, Bruno Leclerc, Richard Gagné et Suzanne Nootens 39 Un mouvement québécois pour la responsabilité scientifique: le MURS-Québec Raymond D.Lambert et Marcel J.Mélançon 43 SCIENCECLIPS Eau potable: du robinet à la bouteille 45 Juguler l'ostéoporose 47 Entre la bactérie et le virus: la mitochondrie 48 À l'écoute des personnes handicapées et des pilotes 51 Les cercles des fermières à l'origine du mouvement féministe 53 Des entrepreneurs qui ont la tête dure La régénération des nerfs, lueur d'espoir pour les paraplégiques 57 Le jeu de l'actualité politique CHRONIQUES TRANSFERTS SCIENCE-INTER BOURSES ET PRIX À SUIVRE SOURCES CHERCHEURS RECHERCHÉS RHHHnHHHHHHRHMHnni CANADA PRIME MINISTER - PREMIER MINISTRE C'est avec grand plaisir que je transmets mes cordiales salutations à tous ceux et celles qui participent à ce 59e congrès de l'ACFAS, à l'Université de Sherbrooke.Ce très important congrès témoigne de la vitalité, du dynamisme et de l'excellence de l'activité scientifique en français.Lieu privilégié d'échanges et de rencontres, il permet à des représentants de toutes disciplines de s'y retrouver pour approfondir leurs connaissances et partager les résultats de leurs travaux.Je vous félicite tous pour votre contribution au développement de la société canadienne et vous souhaite un congrès des plus fructueux.OTTAWA 1991 5 ÉD _ - INTERFACE MAI • JUIN 1991 AL LE DEFI DEMOGRAPHIQUE DU QUEBEC ET SON AVENIR POUTIQUE PAR NICOLE MARCIl-GRATTON ET JACQUES LÉGARÉ Au moment où le Québec s’apprête à redéfinir son avenir politique, l’importance du défi démographique est telle que cette question doit figurer à l’avant-scène du débat.Maintenir une société culturellement distincte en Amérique du Nord ne s’envisage pas de la même façon dans un contexte de croissance ou de décroissance, surtout lorsque la population concernée ne forme déjà qu’un îlot de résistance au sein de la culture dominante qui l’environne.LE CHOIX DE LA CROISSANCE Certains argumenteront que la décroissance de la population n’est pas en soi un fléau; que les sociétés qui se permettent le luxe de la combattre sont les enfants gâtés de la planète; qu’il faut tout ignorer des enjeux de la croissance exponentielle de la population sur l’échiquier mondial pour oser s’inquiéter de la stagnation observée chez les mieux nantis; qu’il faut souffrir de nombrilisme pour se permettre d’investir chez soi des ressources qu’il vaudrait mieux affecter à combattre les méfaits de la surpopulation ailleurs.Les prémisses de ce genre d’argumentation sont valables, l’analyse qui en est faite fausse le débat.Nous sommes plutôt portés à croire que l’interdépendance des riches et des moins riches, à l’échelle d’un pays comme à celle de la planète, fait partie du fonctionnement des sociétés et que les solutions aux problèmes des uns ne viendront pas nécessairement de la suppression des avantages des autres.Il en est de la croissance de la population comme de l’amélioration du niveau de vie: l’équilibre résultant d’un meilleur partage demeure le seul objectif rentable, et le principe des vases communicants y pourvoira toujours mieux que celui de la chasse d’eau.Plus spécifiquement, ce n’est pas en encourageant la décroissance de la population dans le monde industrialisé qu’on aidera le monde en voie de développement à contrer les effets nuisibles d’une croissance débridée.Et cela même si certains envisagent parfois d'utiliser le trop-plein du Tiers-Monde comme cataplasme sur les générations creuses du monde occidental.Les démographes que nous sommes n’hésitent guère à choisir pour le Québec sinon l’option d’une croissance modérée, tout au moins l’évitement de la décroissance.Dans le domaine de la population comme dans d’autres — en particulier celui de l’activité économique, qui lui est très lié —, la décroissance est souvent synonyme de manque de vitalité.Et l’enchaînement de ses effets pervers dans le temps n’est guère difficile à illustrer.Même les adeptes fervents du Zero Population Growth, dont les plus véhéments se sont fait valoir chez nos voisins du Sud, sont devenus silencieux lorsqu’il est apparu que l’objectif d’une population stationnaire risquait de verser rapidement sur la pente de la décroissance.La perspective de la décroissance fait partie du paysage de nombreuses sociétés occidentales, dont les réactions à cet égard varient en fonction de leurs conjonctures propres.Mais au moment où le Québec se trouve à la croisée des chemins quant à son avenir politique, la perspective de la décroissance de sa population revêt ici une acuité particulière.Et cela, fondamentalement, parce que les enjeux de la décroissance ne sont pas les mêmes au Québec que dans le reste de l’Amé- rique du Nord: l’on doit se poser la question de l'opportunité pour une population qui ne compte que pour 2 p.cent du grand ensemble nord-américain, de se tailler une place sur l’échiquier politique, si cette même population est vouée à plus ou moins brève échéance à perdre soit ses effectifs, soit les caractéristiques culturelles qui la distinguent, ou les deux.La question se révèle d'autant plus pressante que le virus de la décroissance semble moins vigoureux autour de nous que chez nous: l’Amérique anglophone fait plus d’enfants que nous; le vieillissement qui la guette sera plus lointain et moins aigu; les immigrants qu’elle peut se permettre d’accueillir en grand nombre adoptent rapidement sa langue, et elle retient chez elle ses citoyens anciens et nouveaux, sans perdre les investissements qu’elle a consacrés à les former et à leur assurer la santé.Sans un redressement assez solide, il apparaît aujourd’hui certain que le poids relatif de la population du Québec et de sa culture francophone est appelé à se réduire davantage.UNE POLITIQUE DE POPULATION EFFICACE MAIS PAS A N'IMPORTE QUEL PRIX À notre avis, le Québec ne doit pas hésiter à se doter d’une politique complète de population, axée sur les freins à la décroissance et qui mise sur toutes les composantes de l’accroissement démographique, les positives (natalité, immigration) et les négatives (mortalité, émigration).Le résultat net de l’équation doit tendre sans équivoque vers la croissance, et ce n’est pas un péché que de le reconnaître ouvertement.On a peut-être eu trop tendance au Québec à cacher ses préoccupations populationnistes derrière des objectifs d’équité ou de justice sociale: à court et à long termes, cela ne fait qu’entretenir la confusion et invite à la prolifération de jugements bien intentionnés, mais mal orientés, sur les mérites des mesures proposées.En adoptant une politique de population, le Québec devra lui attacher la visibilité nécessaire, tout en établissant clairement les limites de la priorité qu’il lui accorde face aux autres objectifs sociaux.Si nous voulons favoriser une politique de croissance de la population, il faudra être prêts à y mettre le prix, mais cela ne signifie pas qu’il faille trouver la croissance à n’importe quel prix.Loin de nous l’idée de suggérer au gouvernement et aux démographes qui le conseillent de s’ériger en purs comptables de la croissance.Le qualitatif doit ici inspirer le quantitatif, et au-delà de leur impact sur l’évolution numérique de la population, les conséquences des mesures adoptées devront aussi être évaluées en termes de coûts financiers et sociaux.Par exemple, une saine politique de population voudra encourager les naissances désirées sans acheter le désir d’enfants; elle visera à réduire la mortalité sans inciter à prolonger indûment les années de vie sans qualité; elle cherchera à attirer des immigrants non seulement pour venir peupler un territoire, mais pour s’intégrer à une culture francophone qui leur soit attrayante et rentable; elle s’attellera à retenir les émigrants dont le départ serait lié davantage à un mouvement de push et de pull, en tentant de remédier à ce qui chez nous rend Tailleurs plus attirant.Par ailleurs, une politique de population qui se veut efficace ne peut l’être sans intégrer les diverses dimensions de la crois- Nicole Marcil-Gratton et Jacques Légaré enseignent la démographie à l’Université de Montréal.Ils font partie du Groupe de recherche sur la démographie québécoise'. sance démographique comme des rouages d’un ensemble complexe: natalité, mortalité et migration sont non seulement interdépendants les uns des autres, mais ils sont aussi intimement liés à de multiples sphères des comportements humains dont la motivation première a très peu à voir avec des objectifs démographiques.D’où la tâche première, pour l’éventuelle instance gouvernementale chargée de définir la politique de population, de ne pas accaparer les leviers d’action dont les objectifs sont la plupart du temps autres que démographiques (allocations familiales, normes du travail, fiscalité, etc.), mais bien d’en assurer la cohérence du point de vue des objectifs poursuivis en matière de population.Quel que soit le choix du Québec face à son avenir constitutionnel, il devra bien sûr tenir compte qu’il fait toujours partie d’un tout nord-américain.S’il décide d’intervenir et de se doter d’une politique de population, il ne pourra choisir d’ignorer les politiques de ses partenaires.Cependant, ceux-ci devront reconnaître, dans ce domaine aussi, sa situation particulière.Pour la première fois, au cours de la période quinquennale 1981-1986, la population du Québec s’est retrouvée avec le taux d’accroissement (1,6 p.cent) le plus faible parmi les grandes régions canadiennes, en deçà même de celui des provinces de l’Atlantique (2 p.cent): cela représente une chute inégalée de son rythme de croissance de près de 85 p.cent en 20 ans.Voilà qui devrait convaincre que l’urgence dont nous parlons n’est pas fabriquée et qu’il est futile de discuter de l’avenir politique du Québec sans simultanément prendre les mesures nécessaires pour lui assurer un avenir démographique adéquat.¦ Note l.Les auteurs présentent ici quelques-unes des réflexions qu’ils ont soumises dans un mémoire sollicité par la Commission sur l’avenir politique et constitutionnel du Québec.CONSEIL D'ADMINISTRATION 1990-1991 ASSOCIATION CANADIENNE-FRANCAISE POUR L'AVANCEMENT DES SCIENCES Denis Barabé, biologie végétale, botaniste, Jardin botanique de Montréal, chercheur invité, Département de sciences biologiques, Université de Montréal Bruno Battistini, étudiant, vice-président à l'administration pour le Regroupement des étudiants en maîtrise et doctorat de l'Université de Sherbrooke (REMDUS), Faculté de médecine, Université de Sherbrooke Hatem Bouattour, étudiant, vice-président externe, Association des étudiants aux cycles supérieurs de Polytechnique, Montréal André Boudreau, langue et linguistique, adjoint à la vice-recteure aux ressources humaines, Université Laval, Sainte-Foy Françoise Braun (secrétaire), directrice générale, Association canadienne-française pour l'avancement des sciences (Acfas) Maurice Cohen, mathématiques, vice-recteur, relations institutionnelles et finances, Université Concordia James de Finney, études françaises, vice-doyen, Faculté des études supérieures et de la recherche, Université de Moncton Gilles Y.Delisle (1 “vice-président), génie électrique, vice-doyen, Faculté des sciences et de génie, Université Laval, Sainte-Foy Michel Guindon (trésorier), administration des affaires, professeur, Ecole des hautes études commerciales, Montréal Pierre Hubert, génie électrique, vice-président adjoint, Systèmes de réseau, Recherches Bell-Northem limitée, Montréal Réal L'Archevêque (président), génie électrique et électronique, vice-président, Recherche et technologie, Le Groupe SNC, Montréal Marcienne Lévesque, psychopédagogie, professeure, Faculté des sciences de l'éducation, Université de Montréal Camille Limoges (président sortant), histoire et socio-politique des sciences, professeur, Centre de recherche en évaluation sociale des technologies (CREST), Université du Québec à Montréal Guy Lusignan, éducation, professeur, Département des sciences de l'éducation, Université de Montréal Bruno Maranda, biologie cellulaire et microscopie, Hull Henri Navert (2e vice-président), médecine, directeur médical, Phoenix International / Sciences de la vie, Montréal Louise Quesnel, génie, vice-présidente, Administration et développement corporatif, Centre de recherche informatique de Montréal (CRIM) David Reed, traduction, jurilinguiste-conseil, Institut Joseph-Dubuc, Collège universitaire de Saint-Boniface (Manitoba) Fernand Rheault, physique, directeur, Institut national de la recherche scientifique (INRS-Energie) Guildo Rousseau, littérature comparée, professeur, Centre d'études québécoises, Université du Québec à Trois-Rivières Jean-Pascal Souque, éducation, directeur adjoint, Musée national des sciences et de la technologie, Ottawa Louise Thibault, nutrition, professeure, Département de diététique et nutrition humaine, Collège Macdonald, Université McGill, Montréal Jean-Marie Demers (archiviste), biologie, professeur retraité, Département de sciences biologiques, Université de Montréal BT1 Q Gouvernement du Québec Ministère de l'Enseignement supérieur et de la Science CONGRES ANNUEL DE L’AC F AS Le Congrès annuel de l’ACFAS, qui se tiendra à l’Université de Sherbrooke, du 21 au 24 mai prochain, revêt pour moi une importance particulière puisqu’il réunit notre communauté scientifique de langue française.Je me sens donc solidaire du rayonnement des activités de l’ACFAS, et je suis heureuse de l’exprimer aux membres de l’Association à l’occasion de ces assises annuelles.Nous disposons au Québec d’un ensemble de dispositifs qui nous permettent de nous intégrer aux grands circuits de la science contemporaine.Dans ce système de la recherche, les femmes et les hommes constituent l’élément clé du succès.Aussi je ne peux que me réjouir de constater que nous possédons un bassin de chercheuses et de chercheurs dont l’excellence est reconnue, dont la stature est véritablement internationale.Mais pour que la recherche contribue pleinement au progrès économique et social de notre société, la collaboration entre partenaires de l’université, de l’entreprise et du gouvernement, la jonction des efforts et des ressources dans une sorte de «contrat social scientifique» apparaissent maintenant à tous les acteurs en jeu comme une absolue nécessité.C’est pourquoi je suis fière de souligner la contribution financière de mon gouvernement à la recherche scientifique.uuLuu.Lucienne Robillard Ministre de l’Enseignement supérieur et de la Science LA RECHERCHE SCIENTIFIQUE, GARANT DE NOTRE AVENIR ¦ Énergie, Mines et Energy, Mines and B^B Ressources Canada Resources Canada de l’exploitation des ressources naturelles, réalisations dont nous sommes redevables à ces chercheurs et chercheuses qui oeuvrent dans nos différents laboratoires, permettent de bénéficier d’avantages uniques dans le monde industrialisé.Dans cette optique, je suis un des premiers à reconnaître l’importance d’un événement comme le 59e Congrès annuel de l’ACFAS, l’Association canadienne-française pour l’avancement des sciences, qui contribue à faire le point sur les nouvelles découvertes dans les secteurs des sciences de la santé, des sciences pures et des sciences humaines.Réunis à l’université de Sherbrooke, une institution qui a marqué de façon indéniable le développement culturel et intellectuel de l’Estrie, vous êtes ici pour nous transmettre un aperçu représentatif de votre immense savoir.Le thème de cette année, «La recherche scientifique, une richesse à partager», s’harmonise parfaitement avec les objectifs de mon gouvernement qui vise l’exploitation des ressources naturelles dans une perspective de développement durable.Encore cette année, je suis persuadé que vous serez amenés à traiter des questions de changements climatiques et de réchauffement de la planète.Le secteur de l’énergie se devra d’assumer ses responsabilités dans l’élaboration et la mise en oeuvre de stratégies visant à réduire les émissions de gaz carbonique.Au Canada, nous croyons qu’une plus grande efficacité énergétique, soit ' par des améliorations technologiques ou par la gestion rationnelle de l’énergie, demeure le meilleur moyen de parvenir à de bons résultats en matière de protection de l’environnement.En tant que scientifiques, vous êtes appelés à prendre une part active à la mise au point de techniques et de dispositifs efficaces dans la lutte au gaspillage des ressources naturelles et à la détérioration du milieu.De grands bouleversements se produisent actuellement dans le monde et le Canada doit s’adapter à de nouvelles réalités.Membres à part entière du «village global», nous sommes tous préoccupés par l’avenir de notre planète.La politique énergétique et environnementale de mon gouvernement, appuyée par la science et la technologie, tend essentiellement à assurer le confort de tous les Canadiens et Canadiennes.Vous aurez l’occasion, tout au cours de ce congrès, de débattre de questions parfois vitales pour l’avenir de l’humanité, mais nous savons que nous pouvons compter sur vos inépuisables aptitudes pour trouver des solutions à tous les problèmes qui se présentent.Comme précédemment, ce Congrès de l’ACFAS représente un jalon important dans l’évolution scientifique, tant au Québec qu’au Canada, et je ne peux qu’applaudir à la tenue d’un événement d’une telle envergure.Titulaire d’un ministère à vocation scientifique, je suis particulièrement bien placé pour apprécier à sa juste valeur l’apport de la recherche-développement dans les différentes sphères de la vie canadienne.Le Canada, grâce à ses immenses ressources naturelles, jouit d’une situation enviable où développement économique rime avec mise au point de techniques et de procédés fiables, rentables et respectueux de notre environnement.À ce titre, nos multiples réalisations dans le domaine L'hon.Jake Epp, Ministre Hon.Jake Epp, Minister Canada PIERRE-CLAUDE AITCIN LE BOCUSE DU BÉTON PAR GUY PAQUIN MM E A F 3 EN S, LE BETON * TIONS MAssms0m TUENT LA GRI-°OURTANT, CE JIS L’ANTIQUITÉ J N PEU D'IMA-AU DU HAUTE WRQUOI PAS-jpB ET TERNES Q SAILLE DES MATÉRIAU U1 PEUT DEVEÏ GINATION U TECHNOLOG j £sr||p RECTEUR DU RÉSEAU DES.wË ’EXCELLENCE SUR LE BÉTON ÏRFÔRMANCE du canada ETMÈ DE LA CHAIRE INDUSTRIELLÉSm OLOGIE DU BÉTON À L’UNI-| SHERBROOKE A RÉUSSI, EN CUISINÉR» DES BÉTONS DE JÉ£T)M UTE/performance, de la fine miSINE.'BÉTONNIÈRE, Pierre-Claude Aïtcin est le Bocuse du béton.Peu d’ingénieurs civils au monde connaissent aussi bien que lui ce mélange de ciment, d’eau, d’air, de granulats et d’adjuvants divers.Personne non plus n’a mis un tel entêtement, pendant près de 25 ans de recherche, à débarrasser le béton de l’ingrédient qui l’affaiblit le plus, l’eau, et à y introduire des constituants étranges et révolutionnaires, comme les «superplastifiants», afin d’en augmenter la résistance et la durabilité.La nouvelle cuisine bétonnière d’Aïctin a porté fruit.Utilisant au début des recettes de superplastifiants japonaises, allemandes et italiennes, il a raffiné le plat, obtenant des bétons dont la résistance à la compression pulvérise tous les records: 150 mégapascals en laboratoire et 119 en chantier.Du jamais vu! Il a laissé ses concurrents sur la ligne de départ et tous les jours, avec son équipe de l’Université de Sherbrooke, il augmente son avance.Ne demandez pas à Aïtcin d’où lui vient son amour (il n’y a pas d’autre mot) pour ce qu’il appelle affectueusement le «pouding».Coup de foudre, comme pour toutes les grandes passions.«Je suis d’une assez modeste famille d’origine basque.À la roulette des grandes écoles d’ingénierie françaises, je me suis retrouvé en hydraulique à l’Institut national des sciences appliquées de Toulouse.Et là, j’ai eu un cours sur le béton.Ça y était!» En effet, le jeune Aïtcin se précipite alors à la bibliothèque, pour y lire que le béton est le noble matériau d’un grand artiste comme Le Corbusier, que c’est aussi à un Français, Henry Le Chatelier, qu’on doit les lois d’équilibre physico-chimique appliquées à la réaction d’hydratation du ciment Portland, que le précontraint est la création d’un autre Français, Eugène Freyssinet.Bref, il se dit qu’un jeune ingénieur français voulant s’intéresser au béton trouverait à s’inscrire dans un très honorable lignage. 10 INTERFACE MAI • JUIN 1991 Chez Pierre-Claude Aïtcin, le culte du plus répandu des matériaux modernes s’accompagne d’une solide culture.En matière de béton et de ciment, c’est un véritable expert.«On trouve des ciments mêlés de granulats chez les Grecs et les Romains.L’aqueduc romain de Cologne est partiellement fait de béton, comme le Panthéon à Rome.On retrouve ce matériau en Phénicie et à Carthage.D’ailleurs.» Là, notre ingénieur se lève et contourne son bureau pour aller chercher sur une tablette un étrange pavé de quelque 15 centimètres d’épaisseur.Pierre-Claude Aïtcin, transformé pour un instant en archéologue, explique: «Ça, c’est un fragment du plancher d’une villa carthaginoise.Au-dessus, une belle mosaïque et en-dessous, deux couches de bétons, comportant les mêmes ingrédients mais dans des proportions différentes.On trouve là un ciment fait de chaux, de sable et d’eau auquel on a ajouté des tessons de poterie récupérés dans un atelier voisin.Ces tessons sont le pendant antique des additifs minéraux modernes.Nous n’avons qu’amélioré le mélange.» Va pour l’intérêt historique, mais quel est donc l’intérêt scientifique du «pouding»?«Ce qui est fascinant, c’est que, sous des dehors de préparation pour soupe instantanée — une poudre additionnée d’eau —, on trouve un vaste complexe de réactions chimiques entre quatre sels de calcium, l’eau, l’air et du gypse.Les réactions varient grandement selon la composition du mélange, le dosage des proportions et le temps de prise.Ajoutez au ciment des granulats, des adjuvants minéraux et des polymères, et vous obtenez, grâce à une gamme très large de propriétés physiques, autant de types de bétons que vous souhaitez d’applications sur le chantier.» LA CHAIRE INDUSTRIELLE EN TECHNOLOGIE DU BETON Créée en avril 1989, la Chaire industrielle en technologie du béton de l'Université de Sherbrooke est un des meilleurs exemples de collaboration réussie entre le milieu de la recherche universitaire et l'industrie.A première vue, le succès de l'entreprise semble aller de soi puisqu'on y travaille sur le béton, produit éminemment commercialisable.«C'est tout sauf évident, de corriaer le titulaire et fondateur de la chaire, Pierre-Claude Aïtcin.Tout d'abord, nous ne sommes pas là pour faire des affaires, mais pour parler de science aux industriels du milieu du béton.Chaque participant, chaque participante doit donc accepter de déballer ses problèmes devant ses concurrents et surtout se mettre une chose dans la tête: il y a une grande différence entre les solutions miracles trouvées en un temps record et la véritable investigation scientifique, qui est une affaire de patience.«Ensuite, il y a les problèmes d'embauche.Le Québec produit déplorablement peu d'étudiants à la maîtrise et au doctorat en génie.Avec le peu d'orgent qu'on leur accorde pour étudier, je les comprends, mais ça ne règle pas mon problème.Et si je dois aller chercher un collaborateur ou une collaboratrice à l'étranger, le ministère de l'Immigration y met tellement de tracasseries qu'il me faut parfois un an et demi pour faire entrer la personne de mon choix.«Enfin, bien que la chaire soit dotée d'un bon soutien financier, je n'ai pas le droit d'utiliser un seul sou pour du personnel administratif.Un casse-tête! «Heureusement, la chaire comporte des avantages incomparables.Le nombre de partenaires industriels augmente, signe que l'idée de la recherche scientifique fait son chemin chez eux, surtout chez les personnes qui embauchent déjà des ingénieurs.«Je pense aussi que la chaire peut amener plus de chercheurs à comprendre qu'ils ont des responsabilités en matière de développement technologique et économique.Et puis, la chaire est l'occasion pour les jeunes membres de l'équipe de se former aux problèmes industriels et aux attitudes des entrepreneurs.Cela seul est inestimable.» SHERBROOKE, 1967 Une fois contaminé par le virus du béton, le jeune Aïtcin termine en 1965, au laboratoire de minéralogie de la Faculté des sciences de Toulouse, sa thèse de doctorat.Ses travaux portent sur le recyclage de laitiers de hauts fourneaux — des sous-produits de l’industrie métallurgique — dans le béton.Il a compris que si les Carthaginois ajoutaient des tessons de poterie et les Romains des cendres volcaniques à leurs bétons, il est aujourd’hui possible de remplacer ces ingrédients par des sous-produits industriels chimiques.On accorde donc son diplôme à notre ingénieur.Ainsi nanti de sa spécialisation toute française, Aïtcin allait-il devenir le nouveau crack du génie civil environnemental avec sa thèse sur le recyclage des sous-produits industriels?«Pas du tout, rétorque-t-il.On était à la veille de mai 68, au plus sclérosé de la hiérarchie universitaire française.Moi qui me mourrais de faire de la recherche, il m’aurait fallu attendre 15 ou 20 ans avant de pouvoir avoir mon tour.Je n’avais pas encore, en 1965, la possibilité de me défouler sur les barricades comme beaucoup de jeunes de ma génération le firent.Alors, tout de suite après mon service militaire, en 1967, j’ai choisi l’exil.Serais-je resté, on m’aurait vu lancer des pavés, je vous le jure!» Mais il choisit le Québec — Sherbrooke — où on lui offre une charge de professeur adjoint à la Faculté des sciences appliquées.En principe, il doit enseigner l’hydraulique, mais rapidement, il profite de la grande liberté de manoeuvre qu’offrent les universités nord-américaines pour.retomber dans le béton.Pour découvrir, au long de 12 années d’une interminable traversée du désert, que, si les universités québécoises sont prêtes à mettre tous leurs modestes moyens au service du chercheur, l’industrie, elle, le regarde comme un chien égaré dans un jeu de quilles.«Je m’étais mis dans la tête d’améliorer la performance du béton en y additionnant des sous-produits industriels québécois que l’on ne traitait pas encore (on se contentait de les entasser).J’ai commencé avec un petit 1 500 dollars, reste de subvention qu’un collègue m’avait généreusement cédé.Quand je proposais mes idées, les industriels me recevaient, mais ils me laissaient poireauter assez longtemps pour que je m’aperçoive enfin que ça ne les intéressait absolument pas.C’était ma première — et très dure leçon — sur le peu de cas que les industriels nord-américains faisaient alors des chercheurs universitaires.» Mais Pierre-Claude Aïtcin se cramponne.Il continue à chercher.Et quand ce qu’il nomme «la chance de ma vie» se présente, il est prêt.«Un jour, j’apprends que le producteur de silicium SKW, de Bécancour, a des démêlés avec le ministère de l’Environnement.Les fumées de silice sont mal confinées dans un étang de sédimentation et la compagnie est sommée de trouver une autre façon d’éliminer ses résidus.Dans les circonstances, il ne m’est pas trop difficile alors de convaincre le président de SKW qu’on peut récupérer ces fumées et les incorporer au béton pour en faire un matériau plus imperméable, plus résistant et plus durable.C’est là une avenue de recherche intéressante pour le laboratoire comme pour la compagnie.» Sis! .Èpjsy tnm;- SKW accepte.Aïtcin applique sa vaste connaissance fondamentale du problème à un cas concret et met au point une recette de béton à la fumée de silice.La compagnie commence par tester elle-même ce béton dans sa propre usine.Les résultats sont si concluants que la demande pour les fumées se répand lentement, mais sûrement.Dans les milieux québécois du béton et des cimenteries, le nom de Pierre-Claude Aïtcin circule rapidement.Ce dernier devient ainsi, au cours des années 1980, un consultant très écouté auprès de l’industrie.Son laboratoire s’agrandit, et de plus en plus de chercheurs et d’étudiants viennent se barbouiller de «pouding» en compagnie d’Aïtcin.Parallèlement, les techniques d’analyse de ce colloïde hyper-complexe qu’est le béton se raffinent: rayons X, fluorescence X, analyse thermopondérale, microscopie électronique, etc.Les sujets de recherche se complexifient et bientôt, l’équipe de M.Aïtcin s’attaque, avec un collègue du Département de chimie, Carmel Jolicoeur, au plus beau problème moderne concernant le béton: les superplastifiants.UN GRAIN DE CIMENT , DANS UN GANT DE POLYMERE Les grains microscopiques de ciment sont souvent très chargés électriquement.Agissant comme des particules ionisées, ils ont tendance à s’associer en petits flocons lorsqu’on les met en contact avec de l’eau.Cela nuit au mélange, qui devient granuleux au lieu d’être homogène et fluide.De plus, les flocons ainsi formés créent des enclaves tridimensionnelles qui retiennent l’eau.Cette dernière ne peut alors plus lubrifier le mélange si bien que, pour obtenir un béton maniable, on doit ajouter beaucoup plus d’eau qu’il n’en faut normalement pour hydrater les grains de ciment.Or, l’eau est l’ennemi du ciment en ceci qu’elle l’affaiblit.Comment empêcher le ciment de floculer?En utilisant des adjuvants chimiques, soit des polymères à base de mélamine ou de naphta-lène sulfonate.Ces polymères vont se lier aux charges positives à la surface des grains de ciment, les couvrant d’un revêtement négatif.Ainsi gantées, les particules se repousseront les unes les autres, apportant une meilleure homogénéité au mélange.Plus de floculation et, en prime, une lubrification assurée non par l’eau, mais par les polymères! Donc, un béton plus résistant en compression.Théoriquement, voilà qui semble simple.Mais pour ce qui est de produire un polymère à chaîne assez longue et assez stable pour faire le travail, c’est une autre histoire.Les longues chaînes chargées ont tendance à se replier sur elles-mêmes et à former des pelotes plutôt que des rubans.La compagnie Les produits chimiques Handy, de Laprairie, en sait quelque chose: en 1984, fatiguée de voir les Japonais lui souffler son marché, elle fit appel à Pierre-Claude Aïtcin et à Carmel Jolicoeur, car elle n’arrivait pas à produire un polymère industriel satisfaisant.Notre chercheur ne peut bien sûr révéler comment il régla le problème, question de confidentialité de la recherche industrielle.Mais on sait que, sortant hardiment du laboratoire, il produisit sur le chantier de construction de la tour de La Laurentienne un pilier de béton qui supportait 119 mégapas- cals alors que les bétons ordinaires n’en portaient que 35.Succès mondial pour les superplastifiants Handy et reconnaissance internationale pour l’ingénieur de Sherbrooke.Depuis 1986, Pierre-Claude Aïtcin reçoit de nombreuses subventions des industriels.On l’a nommé titulaire de la chaire industrielle sur le béton de l’Université de Sherbrooke en 1989 et, en 1990, il fonda le Réseau des centres d’excellence sur le béton à haute performance du Canada, réseau qu’il dirige toujours.Il est d’ailleurs le seul chercheur francophone du Canada à occuper un tel poste.DU CHERCHEUR À L'ENTREPRENEUR Devenu P.-D.G d’une PME de recherche qui emploie 42 personnes, Pierre-Claude Aïtcin n’a plus souvent l’occasion d’enfiler sa salopette et ses bottes de caoutchouc pour aller barboter dans le laboratoire.Il regrette certes de ne plus être sur la première ligne de feu, mais la fonction d’entrepreneur de la recherche est loin de le rebuter.«J’ai mis longtemps à convaincre les gens d’affaires des bienfaits de la recherche, mais, à force de me frotter à eux, je crois avoir acquis un bon sens de l’organisation et le flair pour distinguer les avenues de recherche qui présentent le plus d’intérêt.Et il faut bien que je sois devenu un bon vendeur puisque parmi les 42 personnes qu’emploie le laboratoire, l’Université n’en paie que six.Les autres vivent de fonds privés ou de subventions de recherche.» Entrepreneur donc et fier de l’être.«Admettons tout de suite que l’Etat et le secteur privé québécois, canadien et nord-américain en général pourraient faire bien davantage pour la recherche.Mais ceci dit, les chercheurs, les scientifiques ont aussi un bon bout de chemin à faire.Les sous, il faut les demander.Il faut savoir communiquer ses projets, montrer aux industriels quel intérêt peuvent avoir les résultats de nos travaux.Les scientifiques doivent apprendre à sortir de leur tour d’ivoire et à se mettre dans la peau des gestionnaires.» Tour de La Laurentienne. 12 INTERFACE AAAI • JUIN 1991 Diatomée vue au microscope électronique à balayage.> m/i 0401 20KU lHih WD39 Notre entrepreneur de la recherche pourrait jouer les bourreaux de travail et faire des journées de 16 heures, ce qui lui arrive parfois.Il suffit de passer une heure dans son bureau pour saisir à quel point ses fonctions d’administrateur l’accaparent: paperasse, colloques et conférences, chefs d’entreprises au téléphone, collègues qui sollicitent un coup de pouce et tout ça pour avant-hier! Mais quand la mesure est pleine, comme aujourd’hui —jeudi et veille d’une longue fin de semaine —, Pierre-Claude Aïtcin, à 16 heures, ramasse son manteau, lance à sa secrétaire qu’il n’est plus là et se carapate par la sortie d’urgence en disant au journaliste que la terre ne va pas s’arrêter de tourner s’il se paie une sortie au théâtre à Montréal avec sa femme! Et le journaliste de se rappeler que cet homme a, sur un mur de son bureau, un petit écriteau où on peut lire que «les cimetières sont remplis de gens qui se croyaient indispensables».L’infarctus, à d’autres.A part le théâtre, le squash et le jogging qui, visiblement, le gardent dans une forme superbe, Pierre-Claude Aïtcin a deux autres sorties d’urgence: les voyages et l’histoire.Globe-trotter, il est membre du Club des aventuriers et, comme une plaque en fait foi, il a traversé le cercle polaire pour étudier — cela va de soi — le comportement du béton à Nanisivik, dans les Territoires du Nord-Ouest.Il est sûrement l’ingénieur civil le plus au fait de questions comme le mûrissement du béton dans l’eau de la mer, l’état des ancrages injectés dans le roc gelé, l’utilisation de béton congelé, sa résistance à l’abrasion des glaces, etc.Et quand viendra le moment de la retraite, le voyageur se livrera tout entier à sa passion pour l’histoire, à sa manière bien particulière.«Je veux faire une sorte de seconde carrière comme archéologue amateur.J’imagine ça comme ça: on fait des fouilles, on déterre un bout de mur ou de plancher, du mortier, du ciment.du béton! On appelle Aïtcin et on lui demande: en quoi c’est fait?Où ont-ils pris le sable?Comment ont-ils fabriqué la chaux?D’où sortent les granulats?Quelle est la ressemblance entre ce béton et celui fait en telle année à tel endroit?» Le chercheur, ici, rêve et ne rêve pas.Il a déjà répondu à de telles questions.Quand la Ville de Montréal, lors de fouilles récentes à la Place Royale, berceau de la ville, est tombée sur le premier mur de pierre et de mortier de la métropole, on a appelé le grand-prêtre du béton: nos ancêtres faisaient-ils venir la chaux de France?Y avait-il des carrières sur l’île de Montréal?Quelle technique de fabrication du mortier utilisaient-ils?Notre archéologue a bien des hypothèses — «transporter la chaux à fond de cale, j’en doute, trop humide; la pierraille, elle, comme lest, ça va toujours, mais pas la chaux.».Cependant, seule une expertise complète donnera des réponses sûres.En attendant la retraite, il se garde jeune d’une autre manière: en cultivant le contact avec les étudiants.«Vous ne pouvez pas savoir à quel point le contact des gens jeunes, curieux et intelligents me fait du bien.Enseigner le génie est un plaisir parce que, à cause d’un récent passé campagnard, les gens ont gardé un côté bricoleur, “patenteux”, qui en fait de très bons chercheurs.Les filles sont aussi débrouillardes que les garçons, en plus précis, plus méticuleux.» Nous faisant l’honneur d’une visite de ses labos, il saluera en souriant chacun et chacune de ses jeunes marmitons, nous les présentant avec une légitime fierté, finissant par exhiber de remarquables photos — prises au microscope électronique — de terre à diatomées qu’il se propose d’incorporer au béton, en s’exclamant: «N’est-ce pas que c’est “trippant”, le béton!»! JJJ/JJ CFP-PSC Bienvenue à m Du 21 au 24 mai à l’CIniversité de Sherbrooke à Sherbrooke (Québec), la Fonction publique du Canada vous invite à visiter son kiosque à l’occasion du 59e congrès de l’ACFAS.Pourquoi ne pas venir discuter des possibilités de carrière qu'offre la Fonction publique du Canada avec des représentants de quelques ministères fédéraux?Certains ministères sont à la recherche de professionnel(le)s francophones dans plusieurs disciplines scientifiques.Des organismes tels que Revenu Canada - Impôt, Agriculture Canada, Travaux publics Canada, Pêches et Océans Canada, Santé et Bien-être social Canada et Statistique Canada seront représentés.De plus, la Commission de la fonction publique acceptera votre demande d'emploi afin de l’étudier et de l’inclure dans son répertoire national de candidats, répertoire auquel se réfèrent les ministères fédéraux lorsqu’ils doivent recruter hors de la fonction publique.Si vous ne pouvez venir nous rencontrer au 59e congrès de l’ACFAS, faites parvenir votre demande d'emploi, en indiquant la référence ACFAS-1991, à: M.Jean-Pierre Bissonnette, Commission de la fonction publique du Canada, 171, rue Slater, 2e étage, Ottawa (Ontario) Kl A 0M7.Téléphone : (613) 996-8228.Canada Jean-Pierre Bissonnette ¦ jéu ¦ Commission de la fonction publique Public Service Commission I I du Canada of Canada CRDI LE MAGAZINE DE LA RECHERCHE ET DU DÉVELOPPEMENT Le CRDI Explore est l’outil indispensable pour tous ceux qui cherchent à mieux connaître les défis relevés par les chercheurs des pays en développement.La revue illustre des cas concrets de développement en cours dans les pays du Sud.Elle offre : ¦gsm ne vision multidisciplinaire du développement, des portraits de chercheurs du Sud, des résultats de recherches et des études de cas, des commentaires rédigés par des experts des relations Sud-Nord, des livres, des idées, des adresses.Le Centre de recherches pour le développement international (CRDI) subventionne la recherche dans des pays en développement pour les aider à trouver des moyens d’améliorer les conditions de vie de leur communauté.Le CRDI Explore est publié trimestriellement en français, en anglais et en espagnol.L’abonnement est gratuit pour les lecteurs des pays en développement qui se qualifient.Il est de 16 dollars canadiens par an pour les lecteurs des pays développés.Pour toute demande de renseignements sur l’abonnement au CRDI Explore, écrivez à la Division des communications, CRDI, BP 8500, Ottawa, Ontario, Canada, K1G 3H9.Veuillez joindre à votre demande votre nom, votre titre et l’adresse complète de votre organisation.Tous les abonnés recevront en prime le catalogue des publications du CRDI. ______________15 INTERFACE MAI • JUIN 1991 LE PROJET DU GENOME HUMAIN EN QUETE D'INNOVATIONS TECHNOLOGIQUES PAR GARY W.SLATER ET GUY DROUIN LE PROJET DU GÉNOME HUMAIN COMPREND ESSENTIELLEMENT QUATRE ÉTAPES: LE RAFFINEMENT DE LA CARTE GÉNÉTIQUE EXISTANTE, LA CONSTRUCTION D'UNE CARTE PHYSIQUE CONSTITUÉE DE CLONES DE FRAGMENTS D'ADN, LE SÉQUENÇAGE DE CES CLONES ET, ENFIN, L'ANALYSE DES SÉQUENCES OBTENUES.AVEC LES DÉVELOPPEMENTS TECHNOLOGIQUES AUXQUELS NOUS ASSISTONS PRÉSENTEMENT, EN PARTICULIER DANS LE DOMAINE DE L'ÉLECTROPHORÉSE, LES TROIS PREMIÈRES ÉTAPES DEVRAIENT ÊTRE COMPLÉTÉES D'ICI 15 OU 20 ANS, ALORS QUE LA DERNIÈRE GARDERA LES BIOLOGISTES OCCUPÉS PENDANT DES SIÈCLES! Gary VJ.SIAM EST PROFESSEUR AGRÉGÉ AU DÉPARTEMENT DE PHYSIQUE DE L'UNIVERSITÉ D'OTTAWA ET MÈNE DES RECHERCHES EN PHYSIQUE STATISVQUE DES MACROMOLÉCULES BIOLOGIQUES ET SYNTHÉTIQUES.GUY DROUIN EST PROFESSEUR ADJOINT AU DÉPARTEMENT DE BIOLOGIE DE LA MÊME UNIVERSITÉ ET SES TRAVAUX PORTENT SUR L'ÉVOLUTION DES GÊNES.Le développement rapide des techniques pour cartographier, cloner et obtenir les séquences de l’ADN qui constituent les chromosomes des organismes vivants, a récemment décuplé les ambitions généralement modestes des biologistes.Ceux-ci, habitués à décoder les gènes un à un, veulent maintenant, avec le Projet du génome humain, lire la totalité du matériel génétique nécessaire au développement et au fonctionnement d’un être humain {encadré).Quoique ces ambitions s’appuient sur des connaissances solides acquises durant les 10 dernières années, les chercheurs devront encore faire des progrès majeurs en biochimie, en chimie, en physique, en informatique et en robotique.Par exemple, même si l’amélioration remarquable du pouvoir de résolution de l’électrophorèse sur gel d’agarose a récemment permis d’entreprendre la construction de la carte physique du génome humain, on ne pourra commencer son séquençage systématique tant qu’on n’aura pas progressé autant du côté de l’électrophorèse sur gel de polyacrylamide.Dans cet article, nous présentons en premier lieu le but et la stratégie du Projet du génome humain, puis nous exa- minons plus en détail les acquis récents dans le domaine de l’électrophorèse.LE PROJET Le but de ce mégaprojet est d’abord d’établir une carte physique précise des 24 chromosomes humains (22 chromosomes autosomaux et 2 chromosomes sexuels) qui composent notre génome, pour ensuite établir la séquence de leurs nucléotides. 16 INTERFACE MAI • JUIN 1991 ÉTAPES ET TECHNOLOGIES DU PROJET DU GÉNOME HUMAIN Génétique mendélienne Fusions cellulaires somatiques Électrophorèse sur gel d'agarose Banques de clones Enzymes de restriction Vecteurs de clonage - Purification des clones (filtration, magnétisme, chromatographie) Synthèse des amorces ADN-polymé ________________ADN-polymerases -Réactions enzymatiques Électrophorèse sur gel de polyacrylamide Banques de données informatisées Biologie moléculaire - Biologie cellulaire - Ordinateurs spécialisés -Génétique '-Génie génétique CARTE GENETIQUE Fréquence de recombinaison SEQUENCE DES NUCLEOTIDES Séquenceurs automatiques ANALYSE Identification et fonction des gènes CARTE PHYSIQUE Clonage de fragments de chromosomes ordonnés Médecine La technique générale utilisée à chacune des quatre étapes du Projet du génome humain est indiquée ici avec plusieurs des techniques utilisées.Le but de la cartographie génétique est d'établir l'ordre de plusieurs gènes sur chacun des chromosomes humains.Ces gènes serviront de points de repère pour établir la carte physique.Ces cartes sont construites en observant l'héritabilité des gènes de génération en génération.Si deux gènes d'un des parents sont très près l'un de l'autre sur un même chromosome, ils seront transmis ensemble à tous les enfants de cet individu.Par contre, si ces deux gènes sont loin l'un de l'autre sur un même chromosome, une certaine proportion des enfants de cet individu n'obtiendront pas ces deux gènes.La fréquence à laquelle les enfants d'un individu obtiennent deux gènes de façon simultanée est donc une mesure de la distance qui les sépare.Les unités des cartes génétiques sont les centimorgans (cM), du nom du généticien américain Thomas Hunt Morgan.Un cM représente une chance de 1 p.cent que deux gènes soient séparés par recombinaison dans la génération suivante.On sait maintenant que, chez les humains, 1 cM correspond à environ un million de bases.La carte génétique humaine existante contient des gènes qui se retrouvent à environ tous les 10 cM le long des chromosomes.Les généticiens sont en train d'identifier de nouveaux gènes de façon à augmenter la résolution de cette carte à 1 cM.La fusion cellulaire somatique est une des techniques spécialisées qui permettent de déterminer le chromosome humain spécifique sur lequel un gène particulier est situé.La carte physique sera constituée de l'ensemble des fragments de chromosomes humains clonés dans des vecteurs de clonage à l'aide d'enzymes de restriction.L'électrophorèse sur gel d'agarose est la technique principale utilisée pour isoler, cloner et déterminer l'ordre de ces fragments le long des chromosomes.Le séquençage de tous les nucléotides qui constituent le code génétique entreposé dans les chromosomes humains, sera l'étape la plus instructive du Projet du génome humain: elle nous révélera le message génétique nécessaire au développement et au fonctionnement d'un être humain.Elle promet aussi d'être la plus longue et la plus onéreuse.Par contre, des innovations technologiques dans les techniques indiquées, spécialement en ce qui concerne l'électrophorèse sur gels de polyacrylamide, pourraient rendre cette étape réalisable en moins de 10 ans.L'identification des gènes humains à partir du code génétique nécessitera l'utilisation conjointe d'ordinateurs puissants et de techniques expérimentales de plusieurs domaines de la biologie.Chaque chromosome est une molécule d'ADN en double hélice.Si l’ADN avait un diamètre de 1 cm, la longueur totale des 24 chromosomes mis bout à bout serait de 5000 km et les 3 milliards de nucléotides (ou bases) que l’on veut répertorier se succéderaient à tous les 1,6 mm! 11 n’y a que 4 types de nucléotides — l’adénine, la cytosine, la guanine et la thymine (représentées par les lettres A, C, G et T) — et leur ordre spécifique constitue l’information génétique nécessaire à la formation et au fonctionnement d’un être humain.Les maladies génétiques humaines sont fréquemment le résultat de la perte ou du changement de l’ordre d’à peine quelques-unes de ces 3 milliards de bases.Par exemple, des chercheurs canadiens ont récemment découvert que la fibrose kystique est une maladie souvent causée par une protéine défectueuse produite par la perte de seulement trois nucléotides dans un gène en ayant normalement 44401.LA STRATÉGIE La stratégie de choix pour établir la séquence des nucléotides des 24 chromosomes serait évidemment de purifier chacune de ces molécules chromosomiques pour ensuite les séquencer d’un bout à l’autre.Une telle approche non seulement garantirait que nous avons séquencé tous les gènes contenus sur chaque chromosome, mais elle nous donnerait aussi l’ordre exact de ces gènes ainsi que la distance qui les sépare le long de chaque chromosome.Malheureusement, cette stratégie simple et élégante n’est pas réalisable avec les outils dont nous disposons actuellement.Par exemple, nos techniques de séparation de molécules d’ADN ne nous permettent pas encore de purifier des molécules dont la taille excède 10 millions de bases (10 Mb) alors que les plus petits chromosomes humains ont plus de 50 Mb.On doit donc avoir recours à des enzymes (dites «de restriction») qui vont couper ces chromosomes à des endroits précis.Chacune de ces enzymes reconnaît une séquence de nucléotides spécifique et coupe les doubles hélices d’ADN chaque fois qu’elle rencontre cette séquence.On peut donc se servir de ces enzymes pour couper les chromosomes en petits fragments qui peuvent être séparés par des techniques d’électrophorèse sur gel d’agarose (figure 1). INTERFACE MAI • JUIN 1991 FIGURE 1 Électrophorèse de l'ADN sur un gel L'ADN est un polyélectrolyte qui se déplace vers l'électrode positive dans une chambre d'électrophorèse.Malheureusement, sa vitesse ne dépend pas de sa taille si l'électrophorèse se fait en phase fluide, ce qui ne permet pas de séparer des molécules différentes.La chambre est donc remplie d'un gel submergé d'une solution saline pour que ce gel serve de tamis.L'électrophorèse sur gel peut servir à séparer des fragments d'ADN de 10 à 1000 bases (sur gel de polyacrylamide; c'est le séquençage de l'ADN — figure 3), de 1000 à 40 000 bases (sur gel d'agarose) ou de 40 000 à 8 000 000 de bases (avec des champs pulsés sur un gel d'agarose; utile pour la cartographie de l'ADN).Dans ce qui suit, les notes en italiques entre parenthèses s'appliquent au séquençage sur gel de polyacrylamide alors que le texte principal renvoie au gel d'agarose.a) L'échantillon à étudier, noté i, est un mélange de quelques dizaines (centaines) de fragments d'ADN à double (simplej brin de tailles différentes.Le gel d'agarose (polyacrylamide) est coulé dans la chambre d'électrophorèse.Les pores du gel ont un diamètre d'environ 2 000 angstroms (50 angstroms), soit le diamètre d'un globule de quelques milliers de bases (quelques bases).L'échantillon est introduit dans le gel et un voltage est appliqué pour engendrer un champ d'environ 3 volts/centimètre (30 volts/centimètre).Un second échantillon, ii, composé de molécules de tailles connues, est ajouté en parallèle pour procurer un étalon qui sert à estimer la taille des molécules (inconnues) de l'échantillon.b) Après quelques heures, les plus petites molécules ont atteint l'extrémité du gel.Celui-ci est alors photographié après que les molécules d'ADN ont été rendues visibles, par exemple, par l'ajout d'un colorant comme le bromure d'éthidium.Chaque bande sur le gel correspond à un ensemble de molécules d'ADN d'une même taille.Normalement, mais pas toujours, les molécules les plus rapides (les bandes le plus loin du point d'origine) sont les molécules les plus petites.La taille des molécules peut être estimée en comparant avec l'étalon ii.Toutes les molécules plus grosses que la taille critique L*=environ 40 000 bases (2 000 bases) forment une large bande unique et diffuse, et ne peuvent donc pas être séparées.Les bandes peuvent être extraites du gel pour utilisation ultérieure.c) Schéma simplifié d'un système de champs pulsés (PFGE) à symétrie hexagonale du genre de ce qui est disponible commercialement.La direction ou la polarité du champ peut être changée périodiquement (ici, entre deux séries d'électrodes formant un angle de 120 degrés) pour augmenter le pouvoir de résolution sur gel d'agarose.Avec un tel dispositif, on peut séparer des molécules de 1 000 à 8 000 000 de bases en quelques jours.Des puises de 0,1 à plus de 10 000 secondes peuvent être nécessaires, dépendamment de la taille des molécules à séparer.Un système en champs pulsés plus simple et facile à construire ne fait que rajouter un chronomètre qui peut renverser périodiquement la polarité des électrodes dans le montage (a): c'est le système FIGE.w w H H H H dllISH M H e rH fd nJ tji X H 436518,| 388016 291012 1 145506 19676 97004 48502 12188 8453 4822 4324 3675 4822 4324 d) Exemples de photographies de gels d'agarose1 (nous remercions notre collègue, le D' Robert Charlebois, du Département de biologie, pour ces photographies).Les fragments d'ADN séparés proviennent de la digestion du génome de H.volcanii avec les enzymes de restriction Bam HI et Bgl II.Des marqueurs (ou étalons) sont aussi présents pour mesurer les tailles moléculaires inconnues.Sans champs pulsés (à droite), les molécules de plus de 40 000 bases forment une large bande intense.L'utilisation de champs pulsés permet ici d'isoler des fragments de près de 500 000 bases (à gauche), ce qui correspond à la taille de plus gros fragments produits par ces enzymes.Source 1.CHARLEBOIS, R.L., HOFMAN, J.D., SCHALKWYK, C, LAM, W.et DOOLITTLE, W.F.«Genome Mapping in Halobacteria», Journal canadien de microbiologie, 1989, vol.35, p.21-29. 18 INTERFACE MAI • JUIN 1991 FIGURE 2 Clonage des fragments d'ADN 1 2 VECTEURS DE CLONAGE FRAGMENTS ADN CHROMOSOMIQUE UGATTON PURIFICATION DU FRAGMENT OBTENU CULTURE EN MASSE DE CETTE CELLULE INTRODUCTION DE B MOLECULES HYBRID DANS LES BACTERIES REPERAGE DE LA CELLULE AYANT LE FRAGMENT CONTENANT LE GÈNE VOULU Les techniques de clonage ont toutes une stratégie similaire qui comprend tout d'abord: 1 ) la purification de l'ADN que l'on veut cloner; 2) la coupure de cet ADN en fragments plus petits à l'aide d'enzymes de restriction; 3) la ligation (introduction grâce à l'enzyme ligase) de cet ADN dans des minis-chromosomes (vecteurs) capables de se répliquer dans des bactéries; 4) l'introduction de chacune de ces molécules hybrides dans les bactéries.La capacité de réplication des vecteurs permet de produire de 10 à 40 copies du fragment d'ADN que l'on veut étudier par les cellules bactériennes.Le clonage comprend ensuite: 5) le repérage de la cellule contenant le fragment qui contient le gène voulu; 6) la culture en masse de cette cellule et 7) la purification du fragment voulu pour en obtenir les quantités nécessaires en vue des expériences subséquentes.Les différences majeures entre les techniques de clonage consistent dans le type de vecteurs utilisés et dans le type de cellules à l'intérieur desquelles ces vecteurs vont se répliquer.Les plasmides, les phages lambda et les cosmides sont des vecteurs de cellules bactériennes à l'intérieur desquels on peut cloner des fragments d'ADN étranger de moins de 10 000 bases, de 10 000 à 15 000 bases ou de 40 000 à 50 000 bases respectivement.Les YAC [Yeast Artificial Chromosomes) sont des vecteurs de levures à l'intérieur desquels on peut cloner des fragments d'ADN étranger de 100 000 à 1 000 000 de bases.Note Cette figure est adaptée d'une illustration publiée dans La Recherche: JORDAN, B.«Les cartes du génome humain», La Recherche, 1989, vol.20, p.1486-1494.LES DÉFIS On a accompli au cours des 10 dernières années des progrès techniques considérables.Les enzymes de restriction qui ne coupent que très peu fréquemment, les vecteurs nécessaires au clonage de fragments de plus de 15 000 bases ainsi que les techniques d’électrophorèse indispensables à la séparation de ces fragments sont toutes, en effet, de récentes innovations.L’obtention de la carte physique de tous les chromosomes humains complétera bientôt la deuxième étape du On rencontre cependant une autre difficulté: étant donné que la grande majorité de ces enzymes coupent les chromosomes en moyenne à toutes les 4 000 bases, nous produirions ainsi à partir des chromosomes humains plus de 750 000 fragments, que nous devrions ensuite isoler, cloner et ordonner sur les chromosomes.Heureusement, cinq enzymes de restriction découvertes récemment coupent moins fréquemment, soit en moyenne à toutes les 65 000 bases.Elles faciliteront la solution de notre casse-tête géant en divisant nos 3 000 millions de bases en moins de 50 000 fragments.Ceux-ci pourront être clonés de façon à en obtenir de grandes quantités (figure 2) et leur ordre sur les chromosomes dont ils proviennent constituera la «carte» physique recherchée.Les travaux visant à obtenir la carte physique détaillée de certains chromosomes humains sont déjà très avancés et tous les chromosomes devraient être cartographiés d’ici quelques années2.projet.La troisième consistera à établir la séquence de tous les clones de fragments de chromosomes obtenus.Elle sera facilitée par le fait que les clones obtenus durant la deuxième étape permettront de procéder de façon ordonnée le long de chacun des chromosomes.Cela assurera que tous les gènes seront séquencés et évitera que les mêmes fragments ne soient séquencés de façon répétée.Toutefois, cette troisième étape promet d’être encore plus laborieuse et nécessitera encore plus d’innovations technologiques que la deuxième.Le problème le plus important à surmonter est la résolution toujours très limitée des gels de séquençage (figure 3).Alors que l’on peut maintenant séparer des fragments d’ADN de plusieurs millions de bases sur des gels d’aga-rose, on ne peut toujours pas analyser plus de 500 bases par gel de polyacrylamide.Il est facile de voir l’importance de cette limitation: si on suppose qu’un chercheur ou une chercheuse dans un laboratoire bien équipé puisse idéalement produire 20 séquences de 500 bases quotidiennement, ajoutant ainsi 10 000 nucléotides à la banque de données par jour, on doit en déduire que 100 chercheurs mettraient plus de 3000 jours à sé-quencer les 3 milliards de bases présentes dans le génome humain! En fait, les techniques de séquençage décrites à la figure 3 comprennent plusieurs étapes préliminaires et subséquentes qui rendent difficile la production de plus de 20 séquences par semaine par chercheur ou chercheuse.Les étapes préliminaires consistent notamment 1) à produire et à purifier des brins d’ADN simples de la région à séquencer et 2) à synthétiser les amorces d’ADN qui serviront à initier la synthèse du brin expérimental.Quant aux étapes subséquentes, elles visent en particulier 1) à «lire» les résultats obtenus, c’est-à-dire l’ordre des nucléotides A, C, G, T et 2) à cataloguer les séquences obtenues dans un système informatique pour établir les chevauchements qui permettront de les joindre bout à bout.Ces étapes sont présentement sur le point d’être complètement automatisées à l’aide d’innovations en robotique3.En effet, des robots devraient bientôt pouvoir produire et purifier les brins d’ADN simples de départ, ainsi qu’automatiser les réactions enzymatiques.L’innovation la plus spectaculaire provient du laboratoire de Leroy 19 INTERFACE MAJ • JUIN 1991 FIGURE 3 Technique de séquençage enzymatique SÉQUENCE INCONNUE SÉQUENCE CONNUE I I I I I I I I I I I I I ' l"l I I I I I ' I I "I I I I I I I I I I I I I ' GGCACGACT ACAGCTACC TGG TAGTCCTTCAGCTA ADN À BRIN SIMPLE DIRECTION CAGGAAGTCGAT DE LA SYNTHÈSE____I I I I I I I I I I I I , AMORCE BRIN COMPLÉMENTAIRE DÉSOXYNUCLÉOTIDES -G- -T- -C- -G- -G- -C- -G- -T- ?ADN-POLYMÉRASE ^ W W W W UN QUART DE CE MÉLANGE RÉACTIONNEL EST AJOUTÉ A QUATRE TUBES CONTENANT UN DIDESOXYNUCLEOTIDE DIFFÈRENT AMORCE A-C-CA-T- L A-T-G-G-A-C-CA-T- L A-T-G-T-C-G-A-T-G-G-A-C-CA-T- A CGT ORIGINE Ægg 160 140 w —~5S 120 5*.5ÜW_ 100 i » j h il i m D 1 1)1 80 w m 5S — w Z w £ ••555 a ÉLECTROPHORÈSE ¦ “ 60 40 - " S QUELQUES-UNS DES FRAGMENTS PRODUITS PAR L'INCORPORATION ALÉATOIRE DE ddATP DURANT LA SYNTHÈSE DU BRIN COMPLEMENTAIRE 1 _ DIRECTION DE LECTURE DES BASES Cette technique consiste à synthétiser un ensemble de brins d'ADN complémentaires à partir d'un brin d'ADN simple dont on veut établir la séquence.La synthèse est commencée à l'aide d'une amorce radioactive (ou fluorescente) et est effectuée par une enzyme (l'ADN-polymérase) qui incorpore des désoxynucléotides (dATP, dCTP, dGTP et dïïP) ainsi que des didésoxynucléotides (ddATP, ddCTP, ddGTP et ddTTP).L'amorce sert non seulement à commencer la synthèse des brins complémentaires à un endroit précis, mais fournit aussi le groupe chimique 3'-0H nécessaire à la poursuite de la synthèse par l'ADN- polymérase.L'ADN-polymérase est une enzyme qui polymérise l'ADN, c'est-à-dire qu'elle lie les quatre désoxynucléotides bout à bout pour produire un long brin d'ADN.Les désoxynucléotides sont les constituants normaux de l'ADN (acide désoxyribonucléique); ce sont des molécules composées d'un sucre, le désoxyribose (d), d'une base (adénine=A, cytosine=C, guanine=G et thymine^) et d'un groupe de trois phosphates (TP).Les didésoxynucléotides sont des dérivés synthétiques des désoxynucléotides auxquels on a enlevé le groupe 3'-OH situé sur le désoxyribose.Cette modification rend impossible la poursuite de la synthèse d'un brin d'ADN par l'ADN-polymérase.L'incorporation de didésoxynucléotides entraîne donc l'arrêt de la synthèse des deuxièmes brins.Cette terminaison est spécifique de chacun des didésoxynucléotides, et la longueur des fragments synthétisés est contrôlée en variant les proportions des deux types de nucléotides (d et dd).Les fragments ainsi synthétisés ont différentes longueurs et peuvent être séparés par électrophorèse sur gel de polyacrylamide.Il ne reste plus ensuite qu'à «lire» le gel en commençant par le bas.Si le fragment le plus lointain, donc le plus court, se trouve dans la colonne des fragments se terminant en T, la séquence recherchée commence par T.Si le fragment juste avant est de la colonne A, on en déduit que A succède à T.On recompose ainsi, nucléotide après nucléotide, la séquence étudiée.Hood du California Institute of Technology4.On y a mis au point quatre nucléotides fluorescents pour automatiser l’électrophorèse.Un rayon laser fait la lecture de la séquence et l’information acquise est directement transmise à un ordinateur.Ces systèmes de séquençage automatiques peuvent analyser jusqu’à 20 séquences simultanément et se vendent environ 150 000 dollars chacun.Quoiqu’un tel système automatisé accélère grandement la vitesse à laquelle les séquences peuvent être lues et emmagasinées, il souffre toujours de la même limitation que le séquençage manuel: on ne peut toujours sé-quencer que 500 nucléotides à la fois car ces derniers sont séparés par électrophorèse sur des gels de polyacrylamide.L'ÉLECTROPHORÈSE ET LES REPTILES Toute amélioration des techniques d’électrophorèse représente un gain appréciable d’efficacité autant pour la cartographie que pour le séquençage.La recherche en ce domaine est donc très active.La température, le tampon, le gel et le champ électrique sont autant de paramètres qui doivent être optimisés en fonction de la séparation recherchée.Oubliez le tâtonnement! Mais comment l’ADN se déplace-t-il durant l’électrophorèse sous l’influence du champ électrique?Les acides nucléiques sont, en fait, d’énormes ions appelés «polyélectrolytes», qui migrent à vitesse constante en solution sous l’effet combiné des forces de friction et électriques.Mais la molécule doit traverser un véritable labyrinthe constitué des pores formés par la structure réticulée du gel (figure 4).Si la molécule n’est pas trop grosse, elle garde sa conformation globulaire compacte, typique des polymères en solution, et le gel agit alors comme un tamis, retardant davantage les plus gros globules parce que ces derniers doivent emprunter des chemins plus tortueux pour traverser le labyrinthe5.Pour un globule beaucoup plus gros que la taille moyenne des pores du gel, le modèle du tamisage prédit bien sûr une vitesse nulle.Pourtant, on observe qu’au-delà d’une certaine taille, les molécules ont plutôt une vitesse indépendante de leur masse.et pas nulle du tout! Des globules ayant 5,10 ou même 20 fois la taille des pores traversent le gel aussi «facilement» les uns que les autres6. 20 INTERFACE MAI • JUIN 1991 Le Français Pierre-Gilles de Gen-nes et l’Anglais Sam F.Edwards ont introduit dans les années 70 le concept de «reptation» des polymères.Selon ce modèle, les longs polymères forcés à se déplacer dans un milieu dense comme un gel doivent le faire tête (ou queue!) première, comme un serpent dans une plantation de maïs, tout simplement parce que sous forme de globules compacts, ils seraient incapables de progresser7.Plusieurs théoriciens ont appliqué avec succès ce concept de mouvement moléculaire reptilien au problème de l’électrophorèse dans un gel (figure J).L’idée est simple: quand le globule d’ADN est trop gros pour entrer dans les pores, l’ADN doit se déplier pour traverser le gel «tête» première, comme un serpent.électrique! Les prédictions de ce modèle sont en surprenant accord avec les observations des biochimistes.Le modèle indique que la dynamique est caractérisée par une compétition entre trois types de conformations.D’une part, un petit serpent se déplace dans le labyrinthe avec une conformation globulaire «éponge», pour laquelle la vitesse décroît inversement avec la masse: dans ce cas, la séparation par électrophorèse est facile8.D’autre part, les plus longs serpents s’orientent dans la direction du champ électrique et se déplacent presque en ligne droite dans le labyrinthe: ils sont alors comme dans un tuyau et leur vitesse ne dépend plus de leur longueur car ils ignorent qu’il y a un gel.C’est dans ce dernier cas que l’électrophorèse en champ électrique constant cesse d’être utile9.Mais le modèle fait plus qu’expliquer ces caractéristiques bien connues de l’électrophorèse10.En effet, il prédit aussi que dans le cas des molécules de taille intermédiaire, la tête et la queue du serpent ne peuvent pas décider qui sera en avant! À cause de ce jeu de souque à la corde, où le serpent prend une conformation en fer à cheval, ces molécules sont «trappées» dans le gel et possèdent ainsi la vitesse la plus faible".En d’autres mots, la théorie prédit que les bandes que les biologistes croient être disposées par ordre croissant de masse sur leurs gels peuvent être dans un autre ordre! Personne n’avait jamais vérifié ce simple fait avant que Marc Lalande et Chantal Turmel, de l’Institut de biotechnologie, à Montréal, n’observent une telle inversion partielle des FIGURE 4 Modèle du tamis DIRECTION DU MOUVEMENT O FIBRES tXJ GEL O O o O O Le gel peut être représenté par une structure tridimensionnelle composée de fibres rigides (d'agarose ou de polyacrylamide) soudées aléatoirement.La figure montre une coupe à deux dimensions où les fibres (les cercles vides) sont perpendiculaires au plan de la page.En solution, l'ADN, un polymère chargé négativement, prend une conformation globulaire compacte.Sous l'effet du champ électrique, qui attire ici les globules vers la droite, les petits globules traversent plus facilement le tamis et se retrouvent donc à l'avant.Les plus gros globules progressent difficilement car il y a peu de pores assez grands pour les accueillir.Le gel agit comme un tamis aléatoire qui ralentit les globules en fonction de leur diamètre.Ce modèle prédit qu'une molécule globulaire qui est plus grosse que le plus gros pore ne pourra entrer dans le gel.Cela est contraire aux observations indiquant qu'au-delà d'une certaine taille critique, tous les globules on la même vitesse.Le modèle du tamis s'applique typiquement aux molécules de moins de 1 000 bases dans l'agarose.bandes sur leurs gels d’agarose, en 198712.De récentes simulations sur ordinateur13 et des observations expérimentales spectaculaires14-15 ont démontré que c’est bien la compétition entre ces trois types de conformations moléculaires qui est à la base de l’électrophorèse de grosses molécules sur gel d’agarose.Nous croyons que c’est aussi le cas pour l’électrophorèse sur gel de polyacrylamide, mais nous ne savons toujours pas pourquoi les molécules de plus de 10 Mb (les chromosomes humains en ont de 50 à 250; figure 5i) semblent refuser de bouger.Cela ne nous permet donc pas d’envisager leur séparation par électrophorèse.LES CHAMPS PULSÉS ET LES MEGABASES Avant 1984, on ne pouvait séparer, sur gel d’agarose, que des molécules d’ADN de moins de 40 000 bases environ, car au-delà de cette taille, les forces électriques alignent nos molécules, ce qui annule l’effet séparateur du gel.Pour contourner ce problème, Charles Cantor et son étudiant David Schwartz16, qui étaient alors à l’Université Columbia, eurent l’idée d’alterner la direction du champ entre deux directions approximativement orthogonales, et ce, à une fréquence telle que les molécules n’auraient jamais le temps de s’orienter.De cette façon, le serpent ne saurait plus où donner de la tête! (figure 5) L’effet fut éclatant: de 0,04 Mb, on passa à quelques Mb du jour au lendemain! S’ensuivit une avalanche de recherches théoriques et de percées techniques sur les champs pulsés croisés (PFGE — Pulsed Field Gradient Gel Electrophoresis).L’idée est donc de garder l’ADN dans un état d’orientation incomplète.En champs alternatifs orthogonaux, la vitesse nette est, selon la diagonale, entre les deux directions choisies.Les modèles de type reptation donnent une bonne description,, de ce système devenu depuis un produit commercial à succès.Bien sûr, l’utilisation de champs croisés requiert une modification majeure des équipements traditionnels et demeure donc fort chère.En 1986, nouveau coup de théâtre: le groupe de Maynard Oison de l’Université Washington à Saint- 21 INTERFACE MAI • JUIN 1991 Louis aux États-Unis, découvre qu’en renversant la polarité du champ électrique pour de courtes périodes de temps (par exemple, pour 1 seconde à toutes les 3 secondes), on peut aussi séparer d’énormes fragments d’ADN18.Cette méthode (FIGE — Field Inversion Gel Electrophoresis) ne nécessite que l’ajout d’un dispositif à chronomètre aux équipements déjà utilisés dans les laboratoires et est donc, en principe, plus simple que le système PFGE.Mais il y a fréquemment un hic avec la méthode FIGE: alors que des molécules de taille moyenne (p.ex., 0,8 Mb) ont une vitesse nulle, les plus grosses (p.ex., 2 Mb) peuvent avoir la même vitesse que les plus petites (p.ex., 0,1 Mb)19! En d’autres mots, les molécules sont séparées, mais dans un ordre imprévisible (c’est-à-dire que les bandes peuvent être inversées).Rien de surprenant donc dans le fait que le système FIGE n’ait pu se tailler une place de choix malgré sa simplicité! Depuis, trois méthodes ont été suggérées pour rendre le système FIGE plus fiable.La plus simple consiste à varier la fréquence des pulsations durant la séparation pour éliminer cette inversion20.Cela peut se faire, non sans danger toutefois, de façon totalement empirique.Une autre méthode est d’utiliser des pulsations plus intenses, mais de plus courte durée, vers l’avant afin que le champ moyen soit nul durant la séparation.Cette méthode étonnante, suggérée par le modèle de reptation et appelée ZIFE (Zero Integrated Field Electrophoresis), permet à l’utilisateur ou l’utilisatrice de choisir la taille moléculaire au-delà de laquelle les molécules ont une vitesse négligeable21.Finalement, un groupe européen a démontré que si les changements de polarité du système FIGE se faisaient à des intervalles aléatoires, les problèmes d’inversion disparaissaient22.Les physiciens ont récemment mis en évidence le fait que ce système fonctionne à cause de la formation accrue de conformations en fer à cheval immédiatement après chaque changement de polarité.Pour élucider le mystère FIGE, il aura fallu des méthodes expérimentales complexes et des simulations sur superordinateur23'24! Que réserve le futur?Il reste à optimiser les différents systèmes pulsés.En fait, il est encore difficile de choi- sir ses conditions expérimentales pour réussir la séparation recherchée.La compagnie Biorad vient de mettre sur le marché un système automatisé qui choisit lui-même les conditions (un système expert en quelque sorte).C’est certainement la direction à suivre.Mentionnons enfin la découverte que des fluctuations du champ électrique d’une durée de 0,1 seconde ou moins améliorent grandement la séparation des molécules de 1 à 10 Mb25.C’est dire que ces molécules énormes réagissent autant à des pulsations d’une heure (temps en général nécessaire pour des molécules d’une telle taille) qu’à des «hésitations électriques» 10 000 fois plus courtes! Encore inexpliqué, ce phénomène promet de faciliter davantage la manipulation de ces gros fragments d’ADN.Le nombre d’articles scientifiques qui mentionnent le recours aux champs pulsés croît exponentiellement.C’est une des raisons pour lesquelles la cartographie du génome est maintenant possible.LES REPTILES ET LE SÉQUENÇAGE En moins de cinq ans, la taille maximale des fragments d’ADN séparables par électrophorèse sur agarose a fait un bond incroyable d’un facteur 200 grâce aux champs pulsés.Où en est l’autre électrophorèse, celle sur polyacrylamide, étape essentielle du séquençage?Là, le tableau est moins reluisant.Tout comme il y a 10 ans, on en est encore à environ 500 bases lues par gel.Les champs pulsés semblent être un échec dans ce cas.En séquençage, le progrès des dernières années s’est limité exclusivement à l’automatisation du processus.Puisque le chiffre de 500 bases représente la limite apparemment intrinsèque, les technologues ont entrepris de réduire l’effort et le temps nécessaires pour obtenir chaque séquence de 500 bases.C’est ainsi que s’est développée depuis cinq ans la famille des sé-quenceurs automatiques déjà décrits plus haut.Plus récemment, on a vu la mise au point de systèmes d’électrophorèse où le gel de polyacrylamide est coulé dans un capillaire.Ces systèmes exploitent le fait que le petit diamètre des capillaires (de l’ordre de 0,1 mm) élimine presque totalement le problème de surchauffe engendré par le courant électrique qui circule (l’effet Joule).On peut donc utiliser des champs 10 fois plus élevés et réduire par un même facteur le temps nécessaire pour lire la séquence26.Bien sûr, chacune de ces deux dernières approches bénéficierait aussi grandement d’une augmentation de la limite de 500 bases.Pourquoi les champs pulsés ne semblent-ils pas améliorer le séquençage?En fait, nous croyons que c’est parce que la limite de 500 bases ne correspond pas à la grosseur des molécules pour laquelle la vitesse de migration cesse d’être inversement proportionnelle à la taille moléculaire.FIGURE 5 Modèle de reptation de l'ADN dans un gel o\o GLOBULE- ÉPONGE MOLÉCULE ORIENTÉE O O CONFORMATION FER À CHEVAL o) ° ° a CONFORMATION BOOMERANG CONFORMATION ZIG-ZAG O O O STREPTAVIDINE/ ADN olo/o a q NOEUD O VO a) Selon le modèle de reptation de l'électrophorèse sur gel, les grosses molécules d'ADN incapables de traverser le gel sous forme globulaire compacte (figure 4) doivent se déplier pour faire de la reptation entre les obstacles.b) Reptation en forme globulaire «éponge» typique pour des molécules de 1000 à 40 000 bases dans l'agarose.L'ADN progresse tête première, mais plusieurs fibres du gel traversent le globule.La vitesse V décroît alors selon 1 /L, où L est la longueur de la molécule8.c) Reptation en conformation orientée, typique des grosses molécules (plus de 40 000 bases dans l'agarose).La molécule ne sent presque plus l'influence du gel et sa vitesse ne dépend plus de sa taille8.d) Lorsque la molécule est «frappée» dans une conformation en fer à cheval, la vitesse est négligeable.Ce type de conformation peut dominer dans le cas des molécules de taille intermédiaire, ce qui mène alors à une inversion des bandes sur le gel".e) Dans des champs orthogonaux, la molécule ne s'oriente pas totalement le long de l'axe d'un des champs électriques et sa vitesse demeure dépendante de sa taille17.f) Une autre conformation possible en champs orthogonaux est celle dite en «zig-zag».g) La queue de streptavidine reste bloquée.La molécule d'ADN doit alors rebrousser chemin et essayer un autre sentier plus large27.h) Conformation comportant un noeud.Il est possible que les chromosomes humains intacts n'avancent pas dans le gel à cause de telles anomalies. 22 En d’autres mots, la limite de résolution du séquençage sur gel de polyacrylamide n’est pas due à l’alignement des molécules, comme c’était le cas avec le gel d’agarose (or, c’est seulement sur des molécules alignées que les champs pulsés ont un effet), mais plutôt au fait que même en phase globulaire (pour laquelle la vitesse décroît pourtant inversement avec la taille moléculaire), les molécules n’ont pas des vitesses suffisamment différentes! Par exemple, alors que des molécules de 50 et 51 bases ont des vitesses qui diffèrent par environ 2 p.cent, les vitesses des molécules de 1 000 et 1 001 bases ne diffèrent que par 0,1 p.cent, ce qui est insuffisant dans la pratique.Reste-t-il un espoir pour le séquençage traditionnel?Peut-on aller au-delà des 500 bases sans avoir à décupler le champ, utiliser des capillaires et ajouter un pulseur?Nous croyons que oui.Même si les champs pulsés n’ont que peu d’effets, il reste d’autres variables à exploiter.Deux viennent à l’esprit: la chimie de l’ADN et la nature du champ électrique.Il y a un an, l’un de nous, Guy Drouin, explora avec des collègues une approche originale27.Ils ajoutèrent une protéine électriquement neutre, la streptavidine, au bout de chaque molécule d'ADN à séparer.Cette protéine globulaire est trop grosse pour se faufiler à volonté dans le labyrinthe du gel de polyacrylamide (figure 5).Le mouvement du couple ADN/streptavidine s’arrête donc chaque fois que l’ADN s’est engagé dans un pore trop petit pour que la streptavidine puisse suivre: la molécule doit alors rebrousser chemin et emprunter un autre corridor.Puisque ce recul se fait contre les forces électriques, il est fort peu probable et les résultats expérimentaux indiquent que la vitesse nette diminue alors exponentiellement avec la taille de l’ADN.Cette chute rapide permettrait, en principe, de séquencer plus de 1000 bases sur un seul gel.Mais les problèmes sont nombreux et jusqu’à présent, la pire embûche semble être un élargissement considérable et inexpliqué des bandes sur le gel, ce qui rend difficile la lecture de la séquence.Nous sommes en train de faire une étude théorique et expérimentale approfondie pour déterminer si la streptavidine peut ouvrir la porte au séquençage à grande échelle.D’autres modifications chimiques de l’ADN sont aussi possibles; ainsi, l’un de nous, Gary Slater, vient de démontrer théoriquement qu’un effet analogue à celui de la streptavidine peut être obtenu en neutralisant la charge électrique sur les bouts de l’ADN.Par ailleurs, nous cherchons présentement à modifier l’aspect géométrique du champ électrique pour allonger les séquences lisibles.Par exemple, si le champ électrique augmente spatialement à mesure que l’ADN s’éloigne de son point de départ, les molécules plus rapides (donc plus petites) atteignent les régions à champ élevé plus tôt, ce qui les fait accélérer.Le résultat prévisible est une plus grande séparation entre les différentes molécules.Malheureusement, les bandes élargissent aussi considérablement.Nous explorons la possibilité de construire des champs à géométrie complexe qui garderaient les bandes étroites tout en augmentant la séparation entre les grosses molécules.Ici, théories et expériences vont main dans la main.Enfin, le gel, le tampon et la température peuvent aussi être manipulés.Nous préférons varier le champ électrique pour des raisons de simplicité.Mentionnons toutefois qu’il n’est pas impossible que la géométrie même des pores du gel puisse être choisie en fonction du séquençage visé: il faudra ici un effort considérable du côté de la chimie des gels.Augmenter la limite supérieure du séquençage n’est donc pas une conséquence évidente des progrès enregistrés en électrophorèse sur agarose.Il faudra une étude théorique et expérimentale détaillée avant qu’on ne puisse faire des progrès majeurs.L’absence d’orientation moléculaire, qui rend l’ADN moins sensible aux influences extérieures, ainsi que la différence minime de taille entre les molécules, compliquent sensiblement notre tâche.CONCLUSION Quoique les innovations en électrophorèse soient présentement parmi les plus utiles au Projet du génome humain, des progrès dans les domaines de la chimie, du clonage des gènes, de la robotique et de l’informatique joueront aussi un rôle important.Par exemple, mentionnons la mise au point de méthodes de séquençage par dégradation chimique d’ADN marqué à l’aide de molécules fluorescentes28, le perfectionnement des méthodes de clonage29, l’automatisation des manipulations multiples engendrées dans ce projet30, ainsi que le développement de logiciels et d’ordinateurs spécialisés pour manipuler et analyser les données obtenues31.Le Projet du génome humain changera la façon dont les biologistes feront leur recherche: ils pourront désormais se concentrer sur la fonction de chacun des gènes et sur leur rôle dans les maladies humaines, plutôt que de passer la majeure partie de leur temps à essayer de les isoler.Une des conséquences indirectes de ce projet sera bien sûr le grand nombre d’innovations qu’il aura suscitées et qui pourront être appliquées à d’autres domaines.Par exemple, l’électrophorèse sur gel pourrait bientôt être utile pour la caractérisation des polymères industriels32.De plus, notons que le projet a fait progresser considérablement la théorie des polymères.Si les projets Spoutnik et Appolo ont engendré plusieurs des technologies qui nous entourent, que nous réservent les retombées du Projet du génome humain?¦ Références 1.MARX, J.L.«The Cystic Fibrosis Gene Is Found», Science, 1989, vol.245, p.923-925.2.STEPHENS, J.C., CAVANAUGH, M.L., GRADIE, M.I., MADOR, M.L.et KIDD, K.K.«Mapping the Human Genome: Current Status», Science, 1990, vol.250, p.237-244.3.SMITH, V., BROWN, C.M., BANKIER, A.T.et BARRELL, B.G.«Semiautomated Preparation of DNA Templates for Large-Scale Sequencing Projects», DNA Sequence, 1990, vol.1, p.73-78.4.SMITH, L.M., KAISER, R.J., SANDERS, J.Z.et HOOD.L.E.«The Synthesis and Use of Fluorescent Oligonucleotides in DNA Sequence Analysis», Methods in Enzymology, 1987, vol.155, p.260-301.5.CHRAMBACH, A.et RODBARD, D.«Polyacrylamide Gel Electrophoresis», Science, 1971, vol.172, p.440-451.6.McDonnell, m.w., simon, m.n.et STUDIER, F.W.«Analysis of Restriction Fragments of T7 DNA and Determination of Molecular Weights by Electrophoresis in Neutral and Alkaline Gels», J.Mol.Biol., 1977, vol.110, p.119-146.7.De GENNES, P.-G.«Entangled Polymers», Physics Today, 1983, June, p.33-39.8.LUMPKIN, O.J., DEJARDIN, P.et ZIMM, B.H.«Theory of Gel Electrophoresis of DNA», Biopolymers, 1985, vol.24, p.1573-1593.9.Loc.cit.10.McDONNELL, M.w.et coll.Loc.cit.11.NOOLANDI, J., ROUSSEAU, J., SLATER, G.W., TURMEL, C.et LALANDE, M.«Selftrapping and Anomalous Dispersion of DNA in Electrophoresis», Phys.Rev.Lett., 1987, vol.58, p.2428-2431.12.Loc.cit.13.DEUTSCH, J.M.«Theoretical Studies of DNA During Gel Electrophoresis», Science, 1988, vol.240, p.922-924.14.SMITH, S.B., ALDRIDGE, P.K.et CALLIS, J.B.«Observation of Individual DNA Molecules Undergoing Gel Electrophoresis», Science, 1989, vol.243, p.203-205.15.SCHWARTZ, D.C.et KOVAL, M.«Conformational Dynamics of Individual DNA Molecules During Gel Electrophoresis», Nature, 1989, vol.338, p.520-522.16.SCHWARTZ, D.C.et CANTOR, C.R.«Separation of Yeast Chromosome-Sized DNAs by Pulsed Field Gradient Gel Electrophoresis», Cell, 1984, vol.37, p.67-75.17.SLATER, G.W.et NOOLANDI, J.«Effect of Nonparallel Alternating Fields on the Mobility of DNA in the Biased Reptation Model of Gel Electrophoresis», Electrophoresis, 1989, vol.10, p.413-428.18.CARLE, G.F., FRANK, M.et OLSON, M.V.«Electrophoretic Separations of Large DNA Molecules by Periodic Inversion of the Electric Field», Science, 1986, vol.282, p.65-68.19.Loc.cit.20.Loc.cit.21.TURMEL, C., BRASSARD, E., FORSYTH, R., HOOD, K., SLATER, G.W.et NOOLANDI, J.«High-resolution Zero Integrated Field Electrophoresis of DNA», dans Electrophoresis of large DNA molecules, E.Lai, B.W.Birren, éd., Cold Spring Harbor Laboratory Press, 1990, p.101-131.22.HELLER, C.et POHL, F.M.«Field Inversion Gel Electrophoresis With Different Pulse Time Ramps», Nucleic Acids Res., 1990, vol.18, p.6299-6304.23.DEUTSCH, J.M.«Explanation of Anomalous Mobility and Birefringence Measurements Found in Pulsed Field Electrophoresis», J.Chem.Phys., 1989, vol.90, p.7436-7445.24.HOLZWARTH, G., WHITCOMB, R.W., PLATT, K.J., CRATER, G.D.et McKEE, C.B.«Velocity of Linear DNA During Pulsed Field Gel Electrophoresis» dans Electrophoresis of large DNA Molecules, E.Lai, B.W.Birren, éd., Cold Spring Harbor Laboratory Press, 1990, p.43-53.25.TURMEL, C., BRASSARD, E., SLATER, G.W.et NOOLANDI, J.«Molecular Detrapping and Band Narrowing With Frequency Modulation of Pulsed Field Electrophoresis», Nucleic Acids Res., 1990, vol.18, p.569-575.26.LUCKEY, J.A., DROSSMAN, H., KOS-TICHKA, A.J.et coll.«High Speed DNA Sequencing by Capillary Electrophoresis», Nucleic Acids Res., 1990, vol.18, p.4417-4421.27.ULANOVSKY, L, DROUIN, G.et GILBERT, W.«DNA Trapping Electrophoresis», Nature, 1990, vol.343, p.190-192.28.ROSENTHAL, A., SPROAT, B., VOSS, H.et coll.«Automated Sequencing of Fluorescently Labelled DNA by Chemical Degradation», DNA Sequence, 1990, vol.1, p.63-71.29.CARRANO, A.V., de JONG, P.J., BRANSCOMB, E., SLEZAK, T.et WATKINS,B.W.«Constructing Chromosome- and Region-Specific Cosmid Maps of the Human Genome», Genome, 1989, vol.31, p.1059-1065.30.CATHCART, R.«Advances in Automated DNA Sequencing», Nature, 1990, vol.347, p.310.31.ROBERTS, L.«New Chip May Speed Genome Analysis», Science, 1989, vol.244, p.655-656.32.SMISEK, D.L.et HOAGLAND, D.A.«Electrophoresis of Flexible Macromolecules: Evidence for a New Mode of Transport in Gels», Science, 1990, vol.248, p.1221-1223. Ministre des Communications Minister of Communications Ep®"p msmm kj-iO.-i-'O/ CANADA L’honorable The Honourable Marcel Masse S 'w Message de l’honorable Marcel Masse Ministre des Communications Dans la conjoncture de globalisation des rapports, nous devons manifester la richesse de notre diversité.Qu’elle s’exprime par les arts ou les sciences, la langue française en est le signe ; elle porte des valeurs et des traditions qui ont profondément marqué la civilisation universelle.L’apport d’organismes comme l’Association canadienne-française pour l’avancement des sciences est, dans la perspective du dynamisme de cet instrument de communication, essentiel et fondamental.Je salue donc cordialement les membres de l’ACFAS réunis à l’occasion de leur 59e congrès et leur souhaite une rencontre enrichissante et productive.Marcel Masse Ottawa, Canada K1A 0C8 % Québec MESSAGE DU PREMIER MINISTRE Au nom du gouvernement du Québec, je tiens à adresser mes cordiales salutations à tous les participants et participantes au cinquante-neuvième congrès de 1'Association canadienne-française pour l'avancement des sciences.Comme par le passé, cet événement constitue un prestigieux forum où les questions touchant 1 'évolution de la recherche sont à 1 'ordre du jour.Facteur de première importance du développement des peuples, le progrès scientifique pose aujourd'hui un défi de taille à notre collectivité.La contribution qu’apportent à ce débat les membres de l'ACFAS mérite pleinement d’être soulignée, tout comme leurs efforts significatifs visant à promouvoir la place qu'occupe la langue française au sein de cette sphère d’activités.Je souhaite de fructueux échanges à tous les congressistes et formule le voeu que cette rencontre connaisse un franc succès.Québec 1991 Robert Bourassa '¦ !• •' '' : Que peut-on dire de ia productivité de nos institutions de recherche québécoises?Commenta-t-elle évolué au cours des dernières années?Ce sont à ces questions que tentent de répondre les auteurs, en s'intéressant NON SEULEMENT AUX SOMMES INVESTIES EN RECHERCHE, MAIS ÉGALEMENT AUX PUBUCATIONS SAVANTES.Yves Gingms enseigne l’histoire des sciences à l'Université du Québec à Montréal.Il est également CHERCHEUR AU CENTRE DE RECHERCHE EN DÉVELOPPEMENT INDUSTRIEL ET TECHNOLOGIQUE /CREDIT].MICHEL lECLERC EST CONSEILLER EN POLITIQUE SCIENDFIQUE AU M/N/STÉlîf DE L'ENSEIGNEMENT SUPÉRIEUR ET DE IA SCIENCE.Christine Médaille est agente de recherche au CREDIT.U RECHERCHE SCIENTIFIQUE AU QUÉBEC: PRODUCTION ET PRODUCTIVITE DE 1980 A1988 PAR YVES GINGRAS, MICHEL LECLERC ET CHRISTINE MEDAILLE JUIN 26 En novembre dernier, le Fonds FCAR a tenu un colloque sur le thème «La recherche universitaire au Québec: son bilan et son avenir».Comme il est d’usage en ces circonstances, les personnes qui ont organisé la rencontre ou qui y ont participé, ont cherché à mesurer la performance de la recherche québécoise en utilisant comme indicateurs le niveau d’investissement en R-D ainsi que le nombre de diplômés et diplômées de deuxième et troisième cycles.Toutefois, alors que ce dernier indicateur est une bonne mesure de la productivité de la recherche, le premier ne constitue qu’un input et ne nous dit rien sur l’efficacité de l’utilisation qui est faite des sommes investies.Au Québec, les quelques travaux consacrés à l’analyse du développement de la recherche scientifique se sont généralement limités à des discussions centrées sur la valeur des ressources financières investies, sans qu’on porte jamais une attention suffisante au fait que les budgets alloués à la recherche doivent servir à produire essentiellement deux choses: des diplômés et diplômées de deuxième et troisième cycles, et des connaissances nouvelles, véhiculées le plus souvent par des publications.Si les données concernant les diplômes font habituellement partie des analyses sur l’état de la recherche au Québec, cela n’est pas encore le cas pour les publications.Or, à l’heure des bilans, il nous semble qu’il est temps de compléter le tableau de la recherche scientifique au Québec, en tenant compte de cet élément fonda- mental de l’activité scientifique que constituent les publications savantes.En combinant ainsi des mesures d’in-put (dollars consacrés à la recherche universitaire) à des mesures d’output (les publications), on sera mieux en mesure d’évaluer la performance réelle des institutions de recherche québécoises.Le présent article a une visée pédagogique: sensibiliser ceux et celles qui s’intéressent à la question de l’évaluation de la recherche scientifique au Québec — et plus particulièrement les «décideurs» et « décideuses» — aux méthodes qui sont utilisées couramment dans d’autres pays, et présenter quelques résultats qui montrent l’intérêt de ces méthodes.Après avoir décrit la base de données utilisées, nous situerons la production québécoise dans l’ensemble canadien avant de jeter un coup d’oeil plus détaillé sur la distribution des publications scientifiques québécoises par institution et par champ disciplinaire.Il ne s’agit pas de présenter une étude détaillée mais de brosser un tableau de la recherche scientifique au Québec en utilisant des indicateurs qui restent encore peu coutumiers ici.L'UTILITÉ DU SCIENCE CITATION INDEX FIGURE 1 Nombre total de publications scientifiques entre 1980 et 1988 30 000 25000 20000 15 000 10000 •-•.» 0 -1-1-1-1-1-1-1 1974 1976 1978 1980 1982 1984 1986 1988 Canada - Québec -Ontario De 1980 à 1988, la croissance du volume des publications québécoises est de 38 p.cent, alors qu'elle est de 28 p.cent pour le Canada et de 22,5 p.cent pour l'Ontario.Toutefois, cette dernière province produit environ 47 p.cent des articles canadiens, contre 15 p.cent pour le Québec.Depuis près de 20 ans maintenant, la sociologie des sciences a mis au point des outils de mesure de la productivité scientifique fondés sur l’utilisation du Science Citation Index (SCI) et de sa contrepartie pour les sciences sociales, le Social Science Citation Index (SSCI), auquel s’est ajouté le Arts and Humanities Citation Index (AHCI).Toutes ces banques de données sont produites par lTnstitute for Scientific Information, dirigé par Eugene Garfield.On connaît maintenant assez bien les avantages et les inconvénients de ces outils, de même que la signification statistique des résultats qui en sont issus.Sans entrer dans les détails, soulignons qu’il est généralement admis que le SCI permet de construire des indicateurs fidèles de la production scientifique globale d’un pays, bien qu’il soit d’utilisation plus délicate sur le plan individuel2.Le SCI contient 27 INTERFACE MAI • JUIN 1991 des informations sur les publications parues dans environ 3000 revues scientifiques réparties partout dans le monde.Pour les disciplines scientifiques (sciences pures et appliquées, génie, sciences biomédicales), il est également reconnu que les revues recensées dans le SCI sont celles qui sont le plus couramment utilisées par les scientifiques.Cela n’est par contre pas le cas en sciences sociales, où un grand nombre de revues locales d’importance ne sont pas recensées dans le SSCI.En somme, alors que le SCI est une source fiable pour l’étude de la production dans les disciplines scientifiques, le SSCI ne le serait pas vraiment si l’on voulait faire une étude comparable pour les sciences humaines et sociales.Il faudrait alors compléter les données en dépouillant manuellement bon nombre de revues québécoises et canadiennes.Pour cette raison, notre étude se limite aux disciplines scientifiques, et exclut tout le secteur des sciences humaines et sociales.Il faut aussi noter que le nombre de revues recensées fluctue au cours des années et qu’il faut prendre en compte ce facteur dans l’interprétation des variations annuelles.Ainsi, entre 1978 et 1982, le nombre de revues scientifiques françaises recensées est passé de 140 à 119, soit une baisse de 15 p.cent3.En 1988, ce nombre est passé à 91.Quant aux revues canadiennes, 46 étaient recensées en 1985 et 41 en 1988.TABLEAU 1 Nombre de publications par discipline au QUÉBEC Québec, en Ontario et au Canada en ONTARIO 1990 CANADA Nb % Nb % Nb % Génie 526 9 1108 9 2267 8 Chimie 528 9 1375 11 2839 11 Math, et inform.200 4 451 4 964 4 Physique 420 7 877 7 1901 7 Total des 4 secteurs 1674 29 3811 31 7971 30 Publications totales 5683 100 12 209 100 26776 100 La répartition des publications selon les principales disciplines est à peu près la même au Québec, en Ontario et au Canada.Les publications recensées par le SCI incluent non seulement les articles proprement dits, mais également d’autres types de documents comme les lettres, notes, articles de synthèse, corrections, résumés de communications, discussions, éditoriaux, comptes rendus de livres et de logiciels, de même que des chronologies.Comme nos données incluent l’ensemble des documents recensés, nous utilisons le terme «publications».Au cours de la période 1980-1988, les articles proprement dits constituent toujours environ les deux tiers du total des documents.Notons également que l’année de référence correspond à l’année au cours de laquelle les documents sont insérés dans les banques de données, plutôt qu’à celle de leur publication.Dans la pratique, certains documents publiés à la fin d’une année sont intégrés à la banque de données au cours de l'année suivante.Les données recueillies sont évidemment sujettes à une certaine marge d’erreur, mais, en dépit de celle-ci, nous croyons que les tendances globales ressortent de façon suffisamment claire pour nous permettre de tirer des conclusions justes.Nous avons défini les champs disciciplinaires selon le critère de l’affiliation départementale.Ainsi, un article est classé en «chimie» ou en «mathématiques» selon que l’une des personnes qui l’a rédigé est affiliée à l’un ou l’autre des départements correspondants.Cette façon de procéder entraîne qu’un même document peut être classé simultanément dans plusieurs catégories si un auteur ou une auteure a plus d’une adresse institutionnelle ou qu’un article est signé par TABLEAU 2 Répartition des publications par discipline selon les provinces en 1990 QUEBEC ONTARIO CANADA Nb % Nb % Nb % Génie 526 23 1108 49 2267 100 Chimie 528 19 1375 48 2839 100 Math, et inform.200 21 451 47 964 100 Physique 420 22 877 46 1901 100 Total des 4 secteurs 1674 21 3811 48 7971 100 Total des publications 5683 21 12 209 46 26 776 100 En 1990, le Québec a produit 21 p.cent des articles scientifiques canadiens, contre 46 p.cent pour l'Ontario. plus d’une personne.Ainsi, un article écrit en collaboration par un chimiste et une physicienne sera recensé à la fois en chimie et en physique.Pour cette raison, la somme des documents pour chaque discipline est supérieure au nombre total de documents publiés.Il en va de même pour la classification par institution.Un article écrit conjointement par des professeurs de l’Université McGill et de l’Université Laval est compté une fois pour McGill et une fois pour Laval4.L'ÉVOLUTION DE LA PRODUCTION, SCIENTIFIQUE QUEBECOISE Comme l’indique la figure 1, le nombre total de publications en provenance du Québec et recensées par le SCI a augmenté de façon assez régulière au cours des 15 dernières années.Globalement, la croissance du volume des publications québécoises est de 38 p.cent entre 1980 et 1988, alors qu’elle est de 28 p.cent pour le Canada et de 22,5 pour l’Ontario.Cette dernière province produit environ 47 p.cent des articles canadiens, avec une tendance à la baisse entre 1980 (48 p.cent) et 1988 (46 p.cent), alors que le Québec est responsable d’environ 15 p.cent du total canadien avec une tendance à la hausse entre 1980 (14,3 p.cent) et 1988 (16,2 p.cent).Notons que la croissance rapide du nombre de publications canadiennes entre 1984 et 1986 n’est pas due à une variation du nombre de revues canadiennes recensées par le SCI, nombre qui est resté stable au cours de cette période.Elle reflète donc soit une augmentation réelle du nombre de publications produites, soit une présence accrue dans les revues internationales recensées par le SCI5.En ce qui concerne la répartition des publications selon les principales disciplines, le tableau 1 indique qu’elle est à peu près la même au Québec, en Ontario et au Canada.Le domaine du génie, par exemple, compte pour 9 p.cent du total des articles publiés au Québec en 1990 (la proportion était la même en 1988).En Ontario, la proportion est la même alors qu’elle est de 8 p.cent pour l’ensemble du Canada.En chimie, au contraire, le Québec semble moins actif que l’Ontario et que l’ensemble du Canada: 9 p.cent des publications proviennent de ce secteur comparativement à 11 p.cent en Ontario et au Canada.Pour ce qui est de la part des articles canadiens provenant du Québec, le tableau 2 montre qu’en 1990, elle était de 21 p.cent comparativement à 46 p.cent pour l’Ontario.Cette différence est directement reliée à l’investissement en R-D des deux provinces.En effet, la figure 2 montre qu’il existe une relation linéaire (r2=0,982) entre les dépenses intérieures brutes en R-D (DIRD) d’une province et le nombre de publications qu’elle produit, la corrélation entre ces deux variables étant de 0,991.Une relation semblable unit d’ailleurs le produit intérieur brut (PIB) des pays et leur volume de publications6.Les DIRD sont elles aussi reliées étroitement au produit intérieur brut, le PIB (corrélation de 0,991).De façon générale, donc, la production scientifique d’un pays est directement reliée à son activité économique globale.Il est intéressant de constater qu’il n’y a pas de corrélation (elle baisse à 0,59) entre l’indicateur DIRD/PIB, habituellement utilisé, et le volume de publications.En termes clairs, la relation entre la DIRD et le nombre de publications d’un pays ne fait que confirmer la conviction commune selon laquelle il suffit d’investir davantage en R-D pour accroître du même coup l’activité de recherche, mesurée ici par le volume de publications.A la lumière de ces données, on voit que l’écart entre le Québec et l’Ontario s’explique essentiellement par le niveau des investissements en R-D.On retrouve l’Ontario au sommet de la courbe des investissements en R-D, suivie du Québec, des provinces de l’Ouest et des provinces de l’Atlantique.Connaissant maintenant la place du Québec dans l’ensemble canadien, comparons les institutions francophones et anglophones du Québec.Comme l’indique le tableau 3, la croissance entre 1980 et 1988 fut plus forte dans les universités francophones (52,6 p.cent) que dans les universités anglophones (38,7 p.cent).Entre 1980 et 1988, la croissance globale de la production scientifique universitaire a été de 44,8 p.cent.FIGURE 2 Relation entre les DIRD et le nombre de publications des provinces canadiennes en 1988 4000 c?3500 | 3000 | 2500 g 2000 S 1500 “ 1000 500 0 -500 -2000 0 2000 4000 6000 8000 10 000 12 000 14 000 PUBLICATIONS Il existe une relation linéaire entre les dépenses intérieures brutes en recherche et développement (DIRD) d'une province et le nombre de publications qu'elle produit. TABLEAU 3 Nombre de publications par type d'institution de 1980 à 1988 1980 1982 1984 1986 1988 UNIVERSITÉS Anglophones 1631 1776 1715 2107 2263 Francophones 1637 1657 1638 2201 2498 Total 3208 3358 3278 4208 4646 HÔPITAUX Anglophones 473 466 614 693 655 Francophones 803 737 689 974 91 Total 1243 1176 1283 1625 1526 ORGANISMES GOUVERNEMENTAUX Gouvernement du Québec 90 94 64 92 110 Gouvernement du Canada 194 167 188 249 388 Autres organismes 287 290 267 375 397 Total Québec 4276 4347 4234 5493 5938 Canada 22 289 21 718 22 283 27 858 28 626 Le nombre de publications a connu une croissance plus forte de 1980 à 1988 dans les universités francophones (52,6 p.cent] que dans les universités anglophones (38,7 p.cent).Par contre, les hôpitaux francophones ne semblent pas avoir connu de croissance importante (14 p.cent] par rapport à leurs homologues anglophones (38,4 p.cent].Pendant cette même période, la croissance de la production scientifique universitaire a été de 44,8 p.cent et celle des hôpitaux, de 22 p.cent.Fait à noter, les organismes ont une production savante non négligeable.De leur côté, les organismes gouvernementaux du Québec ou du Canada domiciliés au Québec ont une production savante non négligeable (,tableau 3).Ils totalisent près de 500 publications en 1988.Cependant, alors que la production des premiers est demeurée relativement stable (autour de 100), celle des seconds a doublé, ce qui reflète sans doute l’ouverture au Québec de nouveaux laboratoires fédéraux.La catégorie «autres organismes» inclut surtout des industries et institutions privées, et ce secteur a crû au même rythme que l’ensemble de la production québécoise.Le tableau 5 illustre l’évolution de la production scientifique québécoise pour les principales disciplines.La chimie semble avoir connu la croissance la plus rapide de 1980 à 1988 (63 p.cent), suivie de la physique (57 p.cent) et du génie (54 p.cent).Les secteurs de la biologie-médecine (31 p.cent) et des mathématiques (17 p.cent) ont crû moins vite que la Dans l’ensemble, la part des publications provenant (en partie au moins) des universités a augmenté légèrement, passant de 75 p.cent en 1980 à 78 p.cent en 1988 après avoir atteint 77 p.cent en 1982 et 1984, et 76 p.cent en 19867 La part des publications universitaires produites par les institutions francophones n’augmente que faiblement après 1982: de 51.2 p.cent en 1980, cette part baisse à 49,3 p.cent en 1982, pour atteindre 52.3 p.cent en 1986 et 53,7 p.cent en 1988.Comme la proportion était d’environ 52 p.cent en 1974, il n’y a donc pas eu de croissance importante de la part des universités francophones dans l’ensemble des universités québécoises au cours des 15 dernières années*.En effet, au cours des années 1980, les universités francophones regroupaient 70 p.cent des professeures et des professeurs des universités québécoises oeuvrant dans les secteurs des sciences naturelles, du génie et des sciences biomédicales, alors qu’ils produisent à peine plus que la moitié du total des publications.On peut en conclure que le corps professoral des universités francophones est moins productif que celui des universités anglophones9.Dans les hôpitaux, la croissance des publications dans les institutions francophones n’a été que de 14 p.cent, comparativement à 38,4 p.cent dans les hôpitaux anglophones, le secteur hospitalier dans son ensemble ayant vu sa production augmenter de 22 p.cent entre 1980 et 1988.La croissance de la production scientifique dans les hôpitaux francophones a donc été moins grande que dans les hôpitaux anglophones, contrairement à la tendance observée dans le secteur universitaire.Il faudrait plus de recherches pour analyser le phénomène.S’il n’indique pas une stagnation réelle des hôpitaux francophones (considérés globalement et non individuellement), il peut témoigner soit d’une difficulté accrue de publier dans les revues les plus reconnues, soit de l’atteinte d’un rythme de croisière par ces institutions.Le tableau 4 montre l’évolution du nombre de publications pour les principaux hôpitaux et centres de recherche médicaux.TABLEAU 4 Nombre de publications québécoises par hôpitaux et par centres de recherches médicaux entre 1980 et 1988 1980 1982 1984 1986 1988 PRINCIPAUX HÔPITAUX FRANCOPHONES CHU-Laval 120 107 94 113 118 CHU-Sherbrooke 76 51 32 34 27 Ste-Justine 105 98 96 170 124 Institut de cardiologie de Montréal 34 56 54 46 41 Institut de recherches cliniques de Montréal 119 125 136 205 157 Institut Armand-Frappier 54 52 43 62 71 PRINCIPAUX HÔPITAUX ANGLOPHONES Montreal Children's 70 59 71 83 72 Montreal General 138 181 219 204 206 Montreal Neurological 42 45 58 75 97 Royal Victoria 138 135 170 182 129 Sir Mortimer B.-Davis 53 37 74 98 96 Jewish ENSEMBLE DES HÔPITAUX 1243 1176 1283 1625 1526 La croissance plus importante de la production scientifique dans les hôpitaux anglophones que dans les hôpitaux francophones pourrait être le signe, pour ces derniers, soit d'une difficulté accrue de publier dans les revues les plus reconnues, soit de l'atteinte d'un rythme de croisière. 30 moyenne pour l’ensemble des secteurs (35 p.cent).Les hôpitaux, on l’a vu, n’ont pas connu une forte croissance, ce qui se reflète dans le secteur biologie-médecine.Il est probable, cependant, que le secteur universitaire de la biologie ait crû plus fortement que la moyenne, mais cela reste à vérifier.Si l’on s’attarde maintenant à la performance des principales universités (tableau 6), il ressort que ce sont les institutions francophones qui ont TABLEAU S Nombre de publications québécoises par discipline entre 1980 et 1988 1980 1982 1984 1986 1988 DISCIPLINES Chimie 346 345 307 397 564 Mathématique 162 150 141 176 190 Génie 320 349 357 478 494 Physique 265 321 290 387 416 Biologie-médecine 2400 2423 2351 2915 3149 Publications non classées 974 982 967 1424 1483 Total des publications classées 3302 3365 3267 4069 4455 La chimie semble avoir connu la croissance la plus rapide de 1980 à 1988 (63 p.cent), suivie de la physique (57 p.cent) et du génie (54 p.cent).Les secteurs de la biologie-médecine (31 p.cent) et des mathématiques (17 p.cent) ont crû moins vite que la moyenne pour l'ensemble des secteurs (35 p.cent).le plus accru leur production entre 1980 et 1988, alors que les institutions anglophones ont eu une croissance inférieure à la moyenne de l’ensemble, qui est de 44,8 p.cent.Pendant que les universités McGill et Concordia ont vu le nombre de leurs publications croître de 39,7 p.cent et de 35 p.cent respectivement, l’Ecole polytechnique de Montréal a accru sa production de 106 p.cent au cours de cette période.Le réseau de l’Université du Québec, incluant les instituts nationaux de la recherche scienti -fique (INRS), a augmenté sa production de 89 p.cent, suivi par l’Université Laval avec 88 p.cent.Viennent ensuite les universités de Sherbrooke (33 p.cent) et de Montréal (24 p.cent).Le tableau 7 nous indique la répartition des publications des trois principales universités québécoises selon les quatre champs disciplinaires retenus.Ce tableau montre que même si l’Université McGill publie globalement autant que les universités de Montréal et Laval réunies, ce n’est pas le cas pour l’ensemble des disciplines.Selon les données de 1988, les secteurs prédominants de l’Université McGill sont la chimie, avec 39 p.cent de la production québécoise dans ce secteur, et le génie avec 40 p.cent.L’Université de Montréal — incluant l’École polytechnique —, pour sa part, se distingue en génie, en mathématiques et en physique.A l’Université Laval, seule la physique s’écarte sensiblement de la moyenne de l’institution.Pour des raisons techniques, nous n’avons pu recueillir de données pour le secteur biomédical, qui entretient des relations complexes avec les hôpitaux.Malgré cela, ce tableau montre bien l’utilité de données quantitatives pour mettre en évidence les secteurs les plus actifs d’une province ou d’une institution.Enfin, le tableau 8 indique la part que les principales disciplines occupent dans la production scientifique totale des trois principales universités.On voit que l’Université McGill investit particulièrement dans le secteur biomédical, les quatre champs disciplinaires retenus ne représentant que 28 p.cent des publications issues de cette institution comparativement à 40 p.cent pour l’Université de Montréal et 30 p.cent pour Laval.Ce tableau permet aussi de comparer l’activité de chacune des institutions dans un champ disciplinaire donné avec la moyenne du Québec dans le même secteur.Cela confirme les secteurs les plus actifs que nous avons relevés plus haut pour chacune des- institutions: le génie pour les universités McGill et de Montréal, la chimie pour l’Université McGill, la physique et les mathématiques pour l’Université de Montréal, la physique pour l’Université Laval.Notons que 65 p.cent de toutes les publications du Québec proviennent de ces trois universités.LA PRODUCTIVITÉ DES CHERCHEUSES ET,CHERCHEURS AU QUEBEC Au-delà de ce survol des principales conclusions que l’on peut tirer d’une analyse de la production scientifique des chercheuses et chercheurs québécois, on peut aussi se demander de quelle façon cette production scientifique est reliée à d’autres indicateurs comme le nombre de profes-seures et de professeurs ou l’importance des subventions obtenues.On pourra ainsi obtenir une mesure de la TABLEAU 6 Nombre de publications québécoises par université entre 1980 et 1988 1980 1982 1984 1986 1988 UNIVERSITES Concordia 200 215 190 246 271 McGill 1437 1568 1528 1869 2008 Laval 408 486 467 611 769 Montréal 782 738 690 936 975 Ecole polytechnique 92 105 114 167 190 Sherbrooke 229 236 235 288 305 UQ 203 186 178 322 384 Total des publications universitaires 3208 3358 3278 4208 4646 Ce sont les institutions francophones qui ont le plus accru leur production entre 1980 et 1988.En effet, alors que les universités McGill et Concordia ont vu le nombre de leurs publications croître de 39,7 p.cent et 35 p.cent respectivement, l'Ecole polytechnique de Montréal a accru sa production de 106 p.cent au cours de cette période.Le réseau de l'Université du Québec, incluant les INRS, a augmenté sa production de 89 p.cent, suivi par l'Université Laval (88 p.cent).Viennent ensuite les universités de Sherbrooke (33 p.cent) et de Montréal (24 p.cent). TABLEAU 7 Répartition des publications des trois principales universités québécoises, selon les quatre champs disciplinaires retenus en 1988 Université McGill Université de Montréal et jcole polytechnique Université Laval Somme des 3 universités* Génie 40% 35% 15% 90% Chimie 39% 19% 9% 67% Math, et inform.27% 40% 11% 78% Physique et météorologie 26% 30% 24% 80% Pour les 4 disciplines* 35% 29% 14% 78% Pour le Québec 34% 19% 13% 66% ‘Total non corrigé pour les collaborations interuniversitaires Même si l'Université McGill publie globalement autant que les universités de Montréal et Laval réunies, ce n'est pas le cas pour l'ensemble des disciplines.Selon les données de 1988, les secteurs prédominants de l'Université McGill sont la chimie, avec 39 p.cent de la production québécoise dans ce secteur, et le génie avec 40 p.cent.L'Université de Montréal, pour sa part, se distingue en génie, en mathématiques et en physique.A l'Université Laval, seule la physique s'écarte sensiblement de la moyenne de l'institution.productivité des institutions engagées dans la recherche universitaire et enfin dépasser les simples mesures du degré d’investissement, dont nous avons noté les limites dans notre introduction.La figure 3 synthétise ces données, pour les trois universités les plus actives en recherche, en indiquant la proportion des professeures et professeurs d’université à plein temps en sciences, en génie et en sciences biomédicales affiliés à chacune des trois principales universités10, le pourcentage des publications scientifiques québécoises provenant de chacune de ces institutions et celui des subventions octroyées par le CRSNG, le CRM et le Fonds FCAR en 1986-87".Cette comparaison permet de voir directement que l’Université McGill est beaucoup plus productive que les universités francophones par unité de professeur (33 p.cent des publications et 23,9 p.cent du corps professoral) et un peu moins par unité de dollar (35 p.cent des subventions), l’Université de Montréal (incluant l’École polytechnique) est, pour sa part, moins productive par dollar (19 p.cent des publications avec 25 p.cent des subventions) et par professeur (24,2 p.cent du corps professoral).De même, l’Université Laval produit moins d’articles (15 p.cent) que sa part de subventions (23 p.cent) et que sa part de professeures et professeurs (19,1 p.cent).Conjointement, ces trois institutions recueillent 83 p.cent de l’ensemble des subventions, mais produisent seulement 65 p.cent des articles.Cela souligne le fait que les autres universités réussissent tout de même à produire 35 p.cent des articles avec 17 p.cent des subventions et 23 p.cent du corps professoral.Naturellement, des variations existent aussi selon les disciplines.En chimie, par exemple, le nombre de professeures et professeurs est à peu près le même pour les trois universités (29 à l’Université McGill, 27 à l’Université de Montréal et 20 à l’Université Laval)12, alors que le nombre de publications est très différent: 221 à l’Université McGill, 105 à l’Université de Montréal et 48 à l’Université Laval.Il faut aussi noter que le coût d’une publication n’est pas le même pour toutes les disciplines; la physique nucléaire, par exemple, nécessite davantage d’investissements que les mathématiques.Cela pourrait expliquer que pour ces trois institutions, le pourcentage de subventions est supérieur au pourcentage d’articles.Une étude plus approfondie devrait être entreprise pour mieux comprendre la productivité de l’Université McGill par professeur: est-elle due à la présence de chercheuses et chercheurs postuniversitaires qui ne sont pas comptabilisés dans le corps professoral?Les chercheurs sont-ils mieux équipés et ont-ils davantage de techniciens et d’assistants de recherche?Des cultures institutionnelles différentes pourraient également expliquer les différences observées.On pourrait continuer cet exercice en comparant chacune des disciplines en fonction des universités et en identifiant les secteurs les plus productifs.Ce n’est toutefois pas l’objectif du présent texte.Celui-ci vise plutôt à TABLEAU 8 Pourcentage des publications des universités selon les disciplines en 1988 Montréal et Total UNIVERSITÉS McGill École polytechnique Laval Québec Nb % Nb % Nb % Nb % Génie 198 10 173 15 75 10 494 8 Chimie 221 11 105 9 48 6 564 9 Math, et inform.44 2 64 6 17 2 161 3 Physique et météorologie 94 5 110 10 88 12 362 6 Autres disciplines 1451 72 679 60 541 70 4357 74 Total des publications de l'université 2008 100 1131 100 769 100 5938 100 Ce tableau confirme que les secteurs les plus actifs sont: le génie pour les universités McGill et de Montréal; la chimie pour l'Université McGill, la physique et les mathématiques pour l'Université de Montréal et la physique pour l'Université Laval. montrer qu’il est possible de construire des indicateurs de productivité qui relient les input aux output et qui peuvent mettre en évidence les forces et les faiblesses de chacune des universités de façon bien plus convaincante que les simples comparaisons de niveaux d’investissement par secteur, du type de celles faites dans le document sur le bilan de la recherche universitaire au Québec mentionné dans l’introduction.En conclusion, il est important de rappeler que les méthodes présentées ici peuvent être raffinées mais que cet exercice donne déjà une idée préliminaire des résultats de l’activité scientifique québécoise.A titre d’exemples de travaux qui nous renseigneraient sur la vitalité de la recherche, mentionnons que l’on pourrait étudier les collaborations internationales entre chercheurs québécois et étrangers.A l’heure de la «concertation» entre établissements québécois, on pourrait également étudier les collaborations entre les diverses institutions québécoises13.La scientométrie offre donc des méthodes utiles à ceux et celles qui s’intéressent à l’évaluation de la production scientifique d’un pays.Malgré leurs limites, il serait dommage de ne pas les utiliser, même s’il est inévitable que les résultats obtenus deviennent des enjeux entre les institutions «observées», qui auront parfois intérêt à mettre en cause la validité de telles analyses lorsque leurs résultats ne refléteront pas l’image qu’elles ont d’elles-mêmes.¦ Références 1.Une partie de cette recherche a été financée par la Direction du développement scientifique du ministère de l’Enseignement supérieur et de la Science du Québec.2.Voir LEYDESDORFF, L.«The Science Citation Index and the Measurement of National Performance in Terms of Number of Publications», Scientometrics, vol.17, 1989, p.111-120; ANDERSON, Joe et al.«On-line Approaches to Measuring National Scientific Output: a Cautionary Tale», Science and Public Policy, vol.15, n° 3, juin 1988, p.153-161.3.GARFIELD, E.«French Research: Citation Analysis Indicates Trends Are More Than Just a Slip of the Tongue», Current Contents, n° 23, 6 juin 1988, p.9 et du même auteur: «Hos ISI Selects Journals for Coverage: Quantitative and Qualitative Considerations», Current Contents, n° 22, 28 mai 1990, p.5-13.FIGURE 3 Comparaison entre les publications, les subventions et les professeurs de trois universités québécoises McGill Montréal et Laval et Autres Polytechnique CHUL universités UNIVERSITÉS 2 0% ¦ Publications 1988 ?Subventions 1986-1987 (CRSNG, CRM, FRAR) ?Professeurs 1988 L'Université McGill est beaucoup plus productive que les universités francophones par unité de professeur et un peu moins par unité de dollar.L'Université de Montréal (incluant l'Ecole polytechnique) est, pour sa part, moins productive par dollar et par professeur, tout comme l'Université Laval.4.Le «génie» inclut toutes les formes de génie: génie chimique, physique, électrique, civil, etc.Les mathématiques incluent statistiques, mathématiques appliquées, informatique et «computer science».La physique comprend la météorologie, l’astronomie, l’astrophysique et les «space sciences».La chimie ne comprend que les départements de chimie.Le secteur biomédical inclut les sciences biologiques et médicales de même que tous les articles provenant des hôpitaux.On pourrait naturellement définir les catégories de façon différente, mais celles que nous avons utilisées nous semblent adéquates.5.Au cours des années 1980, le Canada est d’ailleurs l’un des rares pays de l’OCDE (avec le Japon et les Pays-Bas) à voir sa part de publications croître par rapport au total mondial.Voir Ben R.MARTIN et al., «Recent Trends in the Output and Impact of British Science», Science and Public Polity, vol.17, n° 1, 1990, p.14-26.6.Voir D.J.de SOLLA PRISE, «Measuring the Size of Science», Proceedings of the Israel Academy of Science and Humanities, vol.4, 1969, p.98-111; H.INHABER, «Scientists and Economic Growth», Social Studies of Science, vol.7, 1977, p.517-524.7.Ce calcul ne tient pas compte des collaborations entre différentes institutions, de sorte que le total dépasse quelque peu 100 p.cent.Si l’on corrige le total pour tenir compte du fait qu’une publication écrite par deux personnes est comptée deux fois, la contribution des universités est d’environ 65 p.cent du total des publications (63,8 p.cent en 1980 et 65,7 p.cent en 1988).8.Voir Michel AMYOT, «La langue de publication des chercheurs québécois et français selon les données de l’Institute for Scientific Information, 1974-1980», dans L’avenir du français dans les publications et communications scientifiques et techniques, vol.3 (Documentation du Conseil de la langue française, vol.13, Québec, 1983), p.175-183.Étant donné que cette étude ne retenait que le premier auteur ou la première auteure des articles alors que nous les retenons tous, le chiffre de 52 p.cent pour l’année 1974 n’est pas exactement comparable aux chiffres obtenus dans notre étude.Il donne toutefois une bonne indication de la stabilité de la part des publications produites par les universités francophones.9.En 1979, la proportion était de 72,9 p.cent (voir AMYOT, op.cit., p.178) et en 1988, elle était de 69,4 p.cent du total des professeures et professeurs à temps plein, selon les données de l’enquête sur le personnel enseignant, octobre 1988, qui nous ont été transmises par le MESS.10.Selon les données de l’enquête sur le personnel enseignant, octobre 1988, MESS.11.Conseil de la science et de la technologie, Science et technologie.Rapport de conjoncture 1988, Québec, 1988, tableau 3.5, p.94.Les données pour le Fonds FCAR ont été compilées à partir du rapport annuel 1986-87.12.Selon les données de l’enquête sur le personnel enseignant, octobre 1988, MESS.13.Des recherches dans ce sens sont actuellement menées par Yves Gingras et Michel Leclerc. mt ÏÊÈ&M Smm mm •»».Pour atteindre un développement durable, il est essentiel de mettre en valeur nos ressources naturelles dans le respect des grands équilibres de la planète.Cela suppose que nous pourrons contrôler de mieux en mieux les impacts de toutes nos opérations sur les ressources, que nous pourrons éliminer le gaspillage et que nous apprendrons à utiliser l’énergie, comme chacune de nos ressources, de la façon la plus efficace possible.Ce défi, c’est la recherche scientifique qui nous aidera à le relever, tout comme elle nous a permis hier d’apprendre à tirer de mieux en mieux profit des ressources naturelles.C’est la recherche qui détient la clé de ce développement durable auquel nous aspirons tous.C’est pourquoi il me fait plaisir, en tant que ministre de l’Énergie et des Ressources, de m’associer à ce 59e congrès de l’Association canadienne-française pour l’avancement des sciences et de souhaiter le plus fructueux des congrès à tous ceux qui participeront à ce grand forum d’échange de connaissances.Lise Bacon vice-première ministre et ministre de l’Énergie et des Ressources Gouvernement du Québec Ministère de l’Énergie et des Ressources 34 J 1 INTERFACE MAI • JUIN 1991 mf *1 h LE PROJET DU GÉNOME HUMAIN: FAUT-IL CRAINDRE LA SCIENCE?DRESSER SYSTEMATIQUEMENT LA CARTE PHYSIQUE DE L'ENSEMBLE DU GÉNOME HUMAIN ET «SÉQUENCER» UNE À UNE LES QUELQUE TROIS MILLIARDS DE PAIRES DE NUCLÉOTIDES CONTENUES DANS LES QUELQUE 100 000 GÈNES RÉPARTIS SUR LES 46 CHROMOSOMES: C’EST LÀ L’ESSENTIEL D’UN DES PROJETS LES PLUS AMBITIEUX QUE LES SCIENTIFIQUES N’AIENT ENTREPRIS À CE JOUR, LE PROJET DU GÉNOME HUMAIN.SCIENCE-FICTION?PAS DU TOUT.CERTES, IL S’AGIT LÀ D’UN ÉNORME DÉFI TECHNOLOGIQUE, MAIS IL EST RÉALISABLE.CE PROJET MOBILISE MÊME DÉJÀ D’IMPORTANTES RESSOURCES HUMAINES, FINANCIÈRES ET MATÉRIELLES DE LA PART DE NOMBREUX PAYS, DONT LES ÉTATS-UNIS, LA FRANCE, L’ANGLETERRE ET LE JAPON.MAIS QUE DIRE DE CE MÉGAPROJET DU POINT DE VUE ÉTHIQUE ET SOCIAL?LA CONTROVERSE EST VIVE ET INTERFACE SE DEVAIT DE CONTRIBUER À LA RÉFLEXION SUR CE SUJET QUI CONCERNE NON SEULEMENT TOUS LES SCIENTIFIQUES, MAIS AUSSI LE PUBLIC.NOUS VOUS PROPOSONS DONC DEUX TEXTES SUR CETTE QUESTION, QUI FERA D'AILLEURS L’OBJET D’UN COLLOQUE LORS DU PROCHAIN CONGRÈS DE L’ACF AS, À SHERBROOKE.CES TEXTES SONT SUIVIS D’UN ARTICLE SUR LA CRÉATION DE LA SECTION QUÉBÉCOISE DU MOUVEMENT POUR LA RESPONSABILITÉ SCIENTIFIQUE, CRÉATION QUI AURA LIEU DANS LE CADRE DE CE COLLOQUE, LE 22 MAI 1991. *3 î » h i m !;;j ülÜÜÏÜiLll ii ni Mil ««Mill « ¦ ® ¦ ¦ ¦ HONO IUUJ il*»: ¦ T : ; :;r «JT 'j. 36 INTERFACE MAI • JUIN 1991 Jean Dausset a obtenu le prix Nobel de médecine en 1980.Ses recherches en immuno-hématologie l’ont mené à la découverte du système HLA (Human Leucocyte Locus A) et de son rôle dans le rejet des greffes.Il a fondé avec le Pr Daniel Cohen le Centre d’étude du polymorphisme humain (CEPH).Il est également directeur de la branche française du Projet de cartographie et de séquençage du génome humain (projet HUGO).VERS UN AVENIR RÉFLÉCHI PAR JEAN DAUSSET If être humain ne doit plus subir son sort car il peut désormais orienter sa destinée vers un avenir réfléchi.Cette assertion peut sembler orgueilleuse, mais elle reflète I bien la domination de la nature que l'être humain, grâce à la science, a progressivement acquise.Cependant, si toute conquête libère l'être humain de multiples fardeaux, elle peut aussi bien l’enchaîner s’il n’y prend garde.La compréhension puis la maîtrise de la molécule d’ADN qui transmet et perpétue la vie sur la terre, sont parmi les plus belles conquêtes dans l’histoire humaine, et il est encore difficile d’en apprécier les immenses bénéfices, mais aussi les dangers.À chaque avancée de la connaissance, l’esprit humain s’inquiète, l’inconnu l’effraie.Mais nous savons bien que rien n’arrête sa curiosité insatiable, curiosité qui fait d’ailleurs sa grandeur.L’être humain est prêt à assumer tous les risques pour en savoir plus sur lui-même et son environnement.En une génération de chercheurs, la structure et la composition de la molécule d’ADN ont été connues.Le message de la vie a été décodé.Et les outils nécessaires à sa transformation, sa «manipulation» (mot détestable par sa connotation péjorative) ont été forgés et exploités.C’est de cette exploitation qu’il est question maintenant.Elle fait l’objet, heureusement, d’un large débat de société.Déjà, les retombées bénéfiques sont multiples.Les bactéries trouvées dans la nature sont depuis des siècles des auxiliaires apprivoisées par l’humain (bien des fermentations qui font le plaisir de la table leur sont dues).Des bactéries, désormais reprogrammées, effectuent d’autres tâches primordiales pour notre bien-être, aidant, par exemple, à la dépollution ou à la fabrication de précieux produits thérapeutiques.Sur les animaux dits «supérieurs», les exploits sont nombreux, qu’il s’agisse des bovins sécrétant dans leur lait des molécules utiles ou des souris dans lesquelles des gènes ont été introduits, servant de modèles pour l’étude des maladies humaines.Nous n’insisterons pas sur ces faits, dont le côté sensationnel a trop souvent été exploité par les médias.Nous nous limiterons ici aux espoirs et aux craintes que suscite l’application de ces techniques au génome humain.Le premier principe que l’on doit établir fermement est que l’ADN fait partie intégrante du corps humain et que le corps humain dans toutes ses parties, qu’il s’agisse d’organes, de tissus, de cellules ou de matériel génétique — c’est-à-dire d’ADN — dans son intégralité, est inaltérable.Il ne peut être considéré comme une chose; on lui doit donc le respect.En conséquence, le corps humain et tous ses éléments n’ont pas de prix et ne peuvent être source de profit, comme cela a été maintes fois répété, en particulier par le Comité national d’éthique français.Il en découle que l’ADN ne peut être breveté.Seuls les procédés utilisés pour son application à des buts thérapeutiques peuvent éventuellement l’être.Le deuxième principe sur lequel toute notre philosophie doit reposer est aussi clair: la maîtrise de notre patrimoine génétique ne peut être utilisée qu’au bénéfice de l’être humain.On a déjà versé beaucoup d’encre pour expliquer le bien-fondé du grand Projet du génome humain.C’est certainement un programme grandiose qui doit être mené à bien, mais encore faut-il le rationaliser, le proportionner en fixant les priorités.Le but n’est pas simplement de connaître l’enchaînement des quatre bases, des quatre «lettres» qui composent le filament de trois milliards et demi de nucléotides.Présenté de la sorte, l’objectif apparaît comme un défi technologique prodigieux, mais sans grande signification heuristique.À quoi cela pourrait-il servir de déchiffrer un livre sans que nous en connaissions la langue et, à fortiori, la syntaxe?Une telle façon d’aborder la question est tendancieuse et injuste.En effet, après maintes discussions et réflexions des spécialistes, on en arrive aujourd’hui à une notion plus pragmatique: celle de commencer cette lecture par les parties du génome, qui produisent les milliers de protéines qui nous composent.Pour cela, il suffit d’utiliser une copie du programme qui s’exprime dans le cytoplasme de chaque cellule sous forme d’ARN et qui correspond aux protéines spécifiques des fonctions des tissus et des organes dans lesquels cet ARN aura été prélevé.C’est le but que s’est fixé le programme français et c’est, depuis peu, celui qui a été adopté aux Etats-Unis.La sagesse a prévalu.Enfin, il a été implicitement décidé de s’attaquer aux parties du génome que l’on sait être importantes, tant pour comprendre le fonctionnement normal que pour expliquer les anomalies génétiques observées dans certaines familles.De cette connaissance fondamentale, acquise par une méthodologie systématique, découleront, sans aucun doute, de nouveaux concepts, de nouvelles perspectives ouvrant des portes utiles à notre santé.L’éthique nous impose de nous attaquer en priorité à l’étude des maladies génétiques, répandues et souvent très graves, dont souffrent des milliers de familles atteintes entre autres d’hémophilie, de thalassémie, de mucoviscidose ou de myopathie.Localiser sur les chromosomes le gène responsable et en établir les altérations, en comprendre le mécanisme normal et pathologique, représentent un devoir.C’est le seul moyen pour pouvoir espérer un jour en corriger les effets néfastes.C’est dans ce but qu’en 1984, quatre ans avant le lancement par les Américains du Projet du génome humain, nous avons, avec Daniel Cohen, créé le Centre d’étude du polymorphisme humain (CEPH).Le principe en est simple: permettre à de nombreux laboratoires répartis dans le monde de travailler sur le même matériel familial (60 familles avec une moyenne de 8 enfants) et d’établir ainsi des repères — on dit aussi des «marqueurs» — tout le long des 23 paires de chromosomes.C’est grâce à ces repères que l’on peut ensuite localiser les gènes des maladies génétiques, premier pas en vue de les isoler 37 INTERFACE MAI • JUIN 1991 et de les analyser.Déjà, les gènes de la mucoviscidose et de la myopathie de Duchêne ont été localisés de la sorte, ainsi que d'autres.Nous sommes heureux d’avoir pu contribuer à ces découvertes, grâce à cette collaboration internationale.On sait qu’il y a plus de 3 000 maladies génétiques.Il y a donc encore beaucoup à faire.Mais notre ambition ne se limite pas aux maladies monogéniques (dues à une mutation d’un seul gène).Nous pensons nous attaquer également aux maladies dues à la présence malencontreuse chez un même individu de plusieurs gènes nécessaires au déclenchement de maladies comme l’hypertension, le diabète ou certains cancers.La même méthodologie pourra être appliquée.C’est un travail de longue haleine.Il est néanmoins à notre portée, je veux dire à la portée de la communauté scientifique internationale.Tous ces travaux devraient conduire à une nouvelle médecine, la médecine prédictive.Car ne vaut-il pas mieux prévenir que guérir et pour prévenir, il faut prédire.Cette médecine prédictive permettra à chacun et chacune de gérer sa propre santé d’une façon plus rationnelle; elle permettra d’établir une médecine préventive non plus à l’aveugle et de masse — comme l’était, par exemple, la vaccination — mais de développer une véritable médecine individuelle.Je ne pense pas qu’il faille agiter comme un épouvantail la possibilité que la connaissance plus approfondie de notre patrimoine génétique puisse entraîner les angoisses qu’elle peut faire naître chez certains, ou des abus comme l’utilisation de ces connaissances par les compagnies d’assurances ou les employeurs.Toute découverte et tout progrès humains ont deux faces, Tune bénéfique et l’autre néfaste.Mais dans le cas qui nous intéresse ici, les bénéfices sont tellement supérieurs aux risques que nous devons nous réjouir de cette nouvelle percée de la génétique moléculaire.Car la thérapeutique génique est au bout de la route.Pouvoir introduire chez une personne malade le gène correcteur n’est plus de la science-fiction.Toutefois, il ne faut pas confondre cette technique, qui s’apparente à une simple greffe, avec l’introduction d’un gène dans une cellule reproductrice.La modification serait alors héréditaire, transmise de génération en génération.Dans l’état actuel de nos connaissances, il est essentiel de ne pas modifier le patrimoine génétique de l’humanité, que nous serions capables de détériorer plutôt que d’améliorer.Tous ces problèmes très graves seront évoqués dans le cadre d’un colloque, au Canada, consacré à l’éthique de la génétique (59e Congrès de l’Acfas, Sherbrooke, mai 1991) et au cours de la séance de fondation de la branche québécoise du Mouvement universel pour la responsabilité scientifique (MURS), dont la mission est de faire prendre conscience à tous de la responsabilité de la science face à l’avenir de l’être humain.En effet, celui-ci ne doit plus subir son sort car il peut désormais orienter sa destinée vers un avenir réfléchi.! UNIVERSITE il IA VAL Océanographie, Polymères, Catalyse, Génétique moléculaire^ Biologie végétale des interactions plantes-pathogènes, Entomologie, Minéralurgie, Matériaux de pointe, Pyrolyse des déchets, qu'il s'agisse d'approfondir vos connaissances en sciences pures ou appliquées Réhabilitation des ouvrages en béton, Assainissement des eaux, Génie routier, Communications, Optique, Photonique et laser, vous trouverez à la Faculté des Sciences et de génie de l'Université Laval un domaine de recherche répondant à vos aspirations.Vision et systèmes numériques, Systèmes mécaniques, Systèmes experts, Astrophysique, Physique des surfaces.Pour information : Vice-Doyen à la Recherche Faculté des sciences et de génie, Université Laval, Sainte-Foy, Québec, tél.: (418) 656-2788 PRATT & WHITNEY CANADA ¦"«a® P O U V O I R IMAGINATION UNE PROBLÉMATIQUE ÉTHIQUE ET SOCIALE PAR MARCEL J.MÉLANÇON, BRUNO LECLERC, RICHARD GAGNÉ ET SUZANNE NOOTENS INTERFACE MAI • JUIN 1991 Le Projet de cartographie et de séquençage du génome humain (projet HUGO) place la génétique dans une situation similaire à celle de la physique avant la fission nucléaire ou à celle de l’aérospatiale avant le voyage Apollo.S’il annonce une ère nouvelle pour les sciences et technologies biomédicales, en particulier pour la génétique médicale, il porte aussi la même ambivalence: d’une part, des risques certains et, d’autre part, des avantages indéniables.En déchiffrant son propre code génétique, l’être humain aura accès à l’information qui définit son identité biochimique.Il pourra corriger les «erreurs de programmation» qui sont à l’origine des maladies génétiques, mais il pourra aussi reprogrammer son génome, dans un avenir plus lointain.Un vif débat s’est amorcé à ce sujet dès 1986, tant dans le milieu scientifique que dans le public.En France, par exemple, deux mouvements peuvent illustrer les tendances.D’un côté, le MURS (Mouvement universel pour la responsabilité scientifique) — présidé par le Prix Nobel de médecine Jean Dausset, directeur de la branche française du projet HUGO — soutient qu’il faut acquérir des connaissances sur le génome, mais en limiter les utilisations au bénéfice de l’humanité.De l’autre côté, le mouvement GEL (Génétique et liberté) s’oppose catégoriquement au projet parce que celui-ci, dit-on, donnera lieu à un nouvel eugénisme et à des applications desservant les individus.Aux Etats-Unis, le Council for Responsible Genetics met l’accent sur la discrimination génétique qui découlerait de ce projet.Voici, en résumé, les principaux arguments apportés en faveur et à l’encontre du projet, arguments qui peuvent constituer une problématique éthique et sociale de la cartographie et du séquençage du génome humain.LES CRAINTES ENGENDRÉES Mises à part les discussions concernant l’opportunité d’investir des sommes considérables pour ce projet (n’y aurait-il pas des besoins plus urgents ou des recherches plus productives?) ainsi que les questions d’approche (faut-il «séquencer» l’ensemble du génome ou analyser prioritairement les parties codantes?), l’argument le plus important contre le projet HUGO concerne l’avènement A’un nouvel eugénisme.En effet, la connaissance détaillée du matériel génétique humain et le développement de technologies qui en découleraient, pourraient susciter une relance de l’eugénisme.C’est cet argument qui a retardé le démarrage du programme européen en raison, notamment, des réticences du gouvernement allemand.Rappelons que l’«eugénisme» définit une idéologie qui est nettement antérieure à la formation du concept par Francis Galton en 1883.Déjà Platon (IV' siècle av.J.-C.) en avait posé les fondements dans La République.L’eugénisme est à la fois un mouvement idéologique et politique qui tente de se fonder sur des bases scientifiques.Les adeptes de ce mouvement s’opposent à ce que la reproduction soit laissée au hasard et au gré des individus, en vue de la remplacer par une sélection artificielle.Pour Francis Galton, la science et le progrès étant inséparables, on pourrait améliorer la race humaine par des méthodes scientifiques à la façon dont les horticul- teurs procèdent.Ses présupposés scientifiques étaient explicites: les caractères humains (bio-psycho-sociaux) sont transmissibles héréditairement.Le célèbre biologiste français Jean Rostand est plus près de nous.Dans son livre L’Homme, il s’inscrit dans le mouvement eugéniste.«Conscients du péril qui menace l’espèce, les partisans de l’Eugénique souhaitent substituer à la sélection naturelle d’autrefois une sélection artificielle, volontaire et qui, celle-là, porterait non pas sur les individus mais sur leurs germes.Il y a deux manières d’opérer la sélection: soit en écartant de la reproduction les individus capables de transmettre de mauvais gènes (et c’est l’Eugénique négative), soit en favorisant la reproduction des individus capables de transmettre de bons gènes (et c’est l’Eugénique positive).«(.)L’Eugénique positive représente donc, à tous égards, un très grand espoir, peut-être le plus ambitieux de tous les espoirs humains.Mais l’humanité acceptera-t-elle de se discipliner elle-même et d’user, pour son élévation, des moyens que lui confère la biologie?Ces moyens, ils sont de nature à lui inspirer quelque répugnance.Et les adversaires de l’Eugénique positive ne laissent pas d’avoir une position forte quand ils protestent au nom de la liberté, de la dignité individuelles.(.) Là encore, et comme pour l’Eugénique négative, il appartiendra à la collectivité de se prononcer et d’opter ou pour la stagnation, voire la déchéance génétique, ou pour le progrès indéfini.A elle d’assumer ses responsabilités.Quand elle sera pleinement avertie des possibilités de grandeur que lui ouvrirait la sélection organique, elle les balaiera avec ses scrupules et des dégoûts, et se prononcera en connaissance de cause pour ou contre cette discipline reproductrice par quoi elle aurait chance d’atteindre à ses sommets1.» Aucun généticien, biochimiste, biologiste ou philosophe ne tiendrait un tel discours aussi ouvertement aujourd’hui et ne prônerait explicitement de telles méthodes.C’est cependant ce genre d’idéologie et de politique sociale que veulent dénoncer dès à présent certains opposants au projet HUGO.Selon eux, les risques pour les prochaines générations sont trop grands, les moyens dont on disposera seront trop puissants et l’idéologie sera trop tentante pour que des groupes d’individus ou des États ne succombent pas à la tentation de faire des politiques pour améliorer l’espèce humaine au détriment de la dignité et des droits de la personne.Ces opposants craignent également le développement non plus d’un eugénisme d’État, mais d’un eugénisme privé, où les couples décideraient librement, sans contrôle ni contrainte d’État, de sélectionner à leur convenance les caractéristiques génétiques des enfants à naître («bébés parfaits», «bébés à la carte»).Bref, un eugénisme qui procéderait de manière souple et individualisée, en fonction des valeurs dominantes des sociétés.Une seconde question relative au projet HUGO a trait au sens de l'existence.Toute personne sait qu’elle va mourir.Cependant, elle vit, agit, se mobilise et construit comme si elle était immortelle.Elle vit d’espoir en l’avenir.À mesure que Marcel J.Mélançon et Bruno Leclerc sont professeurs-chercheurs en bioéthique, le premier au Département de philosophie du Collège de Chicoutimi et le second, au Collège de Rimouski.Richard Gagné travaille au Département de génétique du Centre hospitalier de l’Université Laval (CHUL) et Suzanne Nootens est professeure à la Faculté de droit de l’Université de Sherbrooke.Ces quatre personnes font partie du Groupe de recherche en génétique et éthique du Québec (GÉNÉTHIQ). 40 INTERFACE MAI • JUIN 1991 les marqueurs génétiques et les gènes des maladies seront découverts, il sera possible de savoir par anticipation si le génome d’une personne la «destine» à mourir naturellement de telle ou telle maladie, à un âge donné et dans les conditions spécifiques de cette génopathie.La maladie de Huntington pourrait en être un exemple.Quel serait, dans la même veine, l’impact du diagnostic prédictif de la maladie d’Alzheimer sur la vie et sur son sens?Comment gérer cette information s’il n’y a pas de thérapie disponible?Comment soutenir les personnes prédisposées mais n’ayant pas encore manifesté les symptômes cliniques?La médecine prédictive nécessitera une nouvelle philosophie et une nouvelle approche, comparativement à la médecine traditionnelle, dans les relations interpersonnelles ou patient-médecin, ou encore, dans les relations avec, par exemple, les compagnies d’assurance-vie et d’assurance-maladie.Une troisième série de craintes a trait aux risques pour la vie privée et la confidentialité.Les recherches en génétique, en génétique des populations, en génétique médicale, les investigations ou dépistages dans les familles et populations à risque, le stockage de l’ADN, attirent déjà l’attention sur le contrôle et la circulation des données recueillies concernant les personnes et les familles à l’occasion de ces recherches.Certains craignent que le projet HUGO, lorsqu’il aura atteint son objectif, ne décuple les risques pour la vie privée et pour la confidentialité des données sur le patrimoine génétique des individus.Ils s’inquiètent du mode de gestion du pedigree des individus et des familles dans plusieurs générations et de la systématisation d’éventuels fichiers de généalogies médicales familiales.N’en arrivera-t-on pas au contrôle de la génétique des individus et des populations?Au port de la carte d’identité génétique et au permis génétique de procréation?Au contrôle social du corps et de la reproduction?Des membres du Council for Responsible Genetics sont très sensibles aux diverses formes de «discrimination génétique».L’intolérance sociale, toujours latente, pourrait aboutir à la discrimination entre les individus, populations ou régions, porteurs de «bons» et de «mauvais» gènes.Les compagnies d’assurances pourraient éventuellement exiger les dossiers génétiques, les informatiser et faire des échanges intercompagnies.Les employeurs pourraient aussi discriminer à l’emploi et n’engager que des travailleurs sans «fragilité» génétique.Un dernier risque entrevu porte sur le long terme.Il consisterait à reprogrammer le code génétique humain à des fins non thérapeutiques.Dans un avenir encore lointain, les connaissances sur la nature et le fonctionnement du génome pourraient donner lieu à une intervention en ce sens.Cela pose une série de questions fondamentales.Qui déciderait de cette modification?Selon quels critères?Dans quel but?Qu’est-ce qui fait le génie: les gènes ou l’environnement?L’idée même de programmer l’être humain ne relève-t-elle pas d’une conception réductiviste?Une conception où la complexité bio-psycho-sociale de l’humain et de son identité propre est réduite au statut de mécanisme génétique programmable.Une conception où l’humain est non seulement objet de science, mais aussi objet de technique.Tels sont les principaux arguments des opposants au Projet de cartographie et de séquençage du génome humain: la pente est trop dangereuse, les risques sont trop élevés, il faut dès maintenant renoncer à s’y engager.LES ESPOIRS SOULEVÉS Face à ces risques, auxquels sont exposées les générations actuelles ou futures, une seconde série d’arguments militent en faveur du projet.Ils ont trait aux bienfaits à court et à long termes, ainsi qu’aux mécanismes de sécurité à mettre en place maintenant et plus tard pour éviter que de tels risques ne deviennent une réalité.L’élément central repose sur la distinction entre l’acquisition des connaissances et l’utilisation de ces connaissances à l’intérieur de limites préservant l’humain.D’une façon générale, on soutient qu’il y a beaucoup à gagner à se libérer du hasard et de l’ignorance concernant le génome humain.Le bond technologique que ferait faire le projet HUGO aux méthodes d’étude de l’ADN serait immense.On pourrait comprendre les gènes et leur fonctionnement, le déclenchement et le fonctionnement des maladies génétiques héréditaires ou acquises, mettre au point des traitements ou prévenir l’expression de ces maladies.Pour d’autres maladies, telles les maladies multifactorielles, une détection précoce pourrait, par modification du style de vie, en retarder l’évolution ou permettre de les traiter par une thérapie appropriée.Il pourrait en être de même pour le diagnostic des «fragilités génétiques» prédisposant à des maladies comme le rhumatisme, l’asthme ou certaines maladies mentales.Une fois le génome séquencé, les informations recueillies et les biotechnologies mises au point, la thérapie génique par transfert de gènes, actuellement au stade expérimental, pourrait devenir aussi courante que la transplantation d’organes.LES MÉCANISMES DE CONTRÔLE ET DE SÉCURITÉ Nous sommes devant un dilemme: ou bien interdire toute recherche parce qu’elle comporte des risques importants, ou bien miser sur les avantages certains en démarquant des frontières à ne pas franchir pour éviter ces risques.Sur quels mécanismes de contrôle et de sécurité pouvons-nous compter pour éviter que des «dérapages» ne se produisent à l’occasion du projet HUGO?L’interdisciplinarité est de plus en plus nécessaire dans l’évaluation de l’orientation de certains types de recherche.Spécialistes de sciences pures et de sciences humaines, représentants du public, décideurs politiques doivent se donner un langage commun pour analyser la nature ainsi que la portée des recherches et interventions en génétique humaine.Les associations de chercheurs et les corporations professionnelles se dotent de plus en plus de codes de déontologie.Les revues scientifiques voient également, dans leurs publications, à ce que les résultats de recherche soient conformes à l’éthique.Des comités d’éthique nationaux ou locaux analysent les protocoles de recherche et d’expérimentation.Des groupes ou centres de recherche en bioéthique tentent de suivre les progrès scientifiques et technologiques.Les organismes subventionnaires d’Etat oeuvrent aussi pour établir des lignes directrices en matière d’éthique de la 41 INTERFACE MAI • JUIN 1991 recherche.Outre un pouvoir financier, ces organismes détiennent un pouvoir moral.Enfin, des lignes directrices internationales ont été proposées par le Conseil de l’Europe aux Etats membres.Ces mécanismes de contrôle ne sont pas infaillibles et n’offrent pas de garantie absolue de sécurité.Ils permettent cependant d’évaluer les risques entraînés et les bienfaits escomptés, de prévoir les abus possibles, de fixer des limites et d’encadrer les orientations en sciences, en l’occurrence en génétique.Ils seront encore plus sécuritaires quand l’ensemble des pays établiront des normes internationales en matière de recherche et d’intervention dans le patrimoine génétique humain.La mise en place et le fonctionnement des instances déontologiques supposent que les chercheurs reconnaissent leur responsabilité morale et sociale nouvelle.Ils doivent être lucides: on ne peut pas admettre de science sans conscience, surtout lorsqu’il est question des investigations et des interventions dans le génome de notre propre espèce.Ils ne peuvent s’arroger le droit, en tant qu’individus ou en tant que corps professionnel, de décider des orientations à donner à une société: ces orientations relèvent de la société elle-même et il est périlleux de l’ignorer.Cependant, pour que la société fasse des choix éclairés, les scientifiques doivent l’informer sur la nature de leur recherche et sur les conséquences de ses applications.Les publications vulgarisées, les débats et colloques publics figurent parmi ces moyens.L’Etat peut intervenir par législation si l’appel à la responsabilité des chercheurs ne suffit pas, si des abus manifestes se produisent ou se profilent à l’horizon.Ces lois peuvent forcer à ne pas franchir certaines frontières et, si celles-ci sont franchies, à user de sanctions.Les citoyens aussi doivent prendre leurs responsabilités.Dans des sociétés démocratiques, il leur appartient de se prononcer sur le projet de société à définir et à mettre en oeuvre.Ils ne doivent pas laisser se dessiner en dehors d’eux des orientations telles qu’un point de non-retour soit atteint et qu’il y ait trop d’intérêts en jeu pour faire marche arrière.Les développements scientifiques et technologiques concernant l’avenir de la génétique humaine sont affaire de décision collective et de consensus entre spécialistes de différentes disciplines, de divers groupes sociaux et du public informé.Cela n’a rien de commun avec des sondages d’opinion publique, versatile par nature.Les médias ont et auront un rôle crucial à jouer dans ces débats.Leur liberté d’expression doit être préservée pour qu’ils puissent assumer ce rôle de courroie de transmission de l’information entre les laboratoires et la société, et susciter la discussion publique.CONCLUSION Ce qui est inédit n’est pas nécessairement interdit.La cartographie et le séquençage du génome humain présentent de nombreux espoirs, mais suscitent aussi des craintes.Ce projet soulève des questions sociales, éthiques et philosophiques qui remettent en cause les valeurs acceptées concernant la défini- tion de l’être humain, le pouvoir d’intervention de l’État sur le corps humain, la recherche scientifique et le développement technologique en matière de génétique humaine.La technique progresse sans cesse.On sait et on saura de plus en plus comment faire techniquement.Responsables à l’égard des générations futures, nous devons, en tant que collectivité, nous poser les questions suivantes: que faire?Pourquoi le faire?Au bénéfice de qui le faire?Dans quelles limites le faire?Les réponses reviennent, en dernière analyse, à l’ensemble des citoyens et citoyennes dans le contexte de débats critiques, documentés et démocratiques.! Référence 1.ROSTAND, J.L'Homme, Paris, Éditions Gallimard, 1962, p.141 et p.151-152.Grandir au Québec.Nous y croyions en 1911.Nous y croyons aujourd’hui.No tous sommes ici depuis 1911.Aujourd’hui, notre équipe compte quelque 2 500 employés.A Montréal.A Bromont.Ailleurs au Québec.Et nous serons là demain.Ensemble.Au nom du progrès.IBM est une mar«|iie déposée d'international Business Maehines Corporation.IBM Canada Liée, compagnie affiliée, est un usager inscrit.S87Ï m '\ '/// W&£ A ALCAN SUR LES MARCHÉS MONDIAUX, LA MATIÈRE GRISE SERA TOUJOURS UNE MATIÈRE PREMIÈRE.Pour Alcan, investir dans le développement des compétences, c’est développer un sens intelligent du leadership.Par des séminaires multi-professionnels, des conférences d’envergure mondiale et des groupes interdisciplinaires, elle favorise la circulation des idées et le transfert des compétences.Ses programmes d’échanges internationaux demeurent une source de croissance et d’enrichissement pour elle et pour ses employés, comme ils l’ont été pour Marie O’Hagan.Cadre québécois, elle est aujourd’hui vice-présidente, Alcan (Bermuda) Limited.ALCAN.UNE FORCE SENSIBLE.PUBLICITÉ BLOUIN COULOMBE DUBÊ A 43 INTERFACE MAI • JUIN 1991 UN MOUVEMENT QUEBECOIS POUR IA RESPONSABlUTf SCIENTIFIQUE: LE MURS-QUEBEC PAR RAYMOND D.LAMBERT ET AAARCELJ.MÉLANÇON En cette fin de millénaire, nombreux sont ceux et celles qui se questionnent sur l’avenir de la planète et le devenir de la vie, en particulier, de celle de l’humain.Les défis d’ordre social, culturel, scientifique, politique, économique et autres, auxquels nous sommes confrontés, deviennent de plus en plus urgents.Guerre et paix, développement durable et exploitation anarchique de la nature, biotechnologie et dignité humaine, intérêts communs et besoins particuliers, abondance et misère s’opposent parfois dans l’inextricable complexité des problèmes qui surgissent.La création des outils par les premiers humains tout comme le développement technoscientifique moderne s’inscrivent dans une même démarche: réduire la pression du milieu, assurer notre survie, améliorer notre qualité de vie et accroître notre prospérité.Sous certains aspects, nous avons magnifiquement réussi.L’augmentation prodigieuse de notre population planétaire, tout comme aujourd’hui son contrôle, reflètent essentiellement l’efficacité certaine de nos outils agricoles, médicohy-giéniques et de nos techniques de construction, d’élevage et de prédation.Court-circuitant ainsi la pression de la nécessité — celle qui, chez les autres espèces vivantes, entraîne l’élimination des plus faibles et la sélection de mieux adaptés —, nous avons assuré notre survie et notre prolifération.Mais ces objectifs louables d’interventions autour de l’humain ont, à cause même de nos succès, à cause des concentrations de population et à cause de la surconsommation, parfois dérapé à un point tel que la qualité de l’environnement, l’équilibre de la biosphère et la vie sur la planète sont maintenant menacés.De plus, la capacité destructrice de nos armes militaires est devenue telle que leur utilisation massive entraînerait probablement notre anéantissement.Finalement, en intervenant dans l’humain, la technoscience impose maintenant de nouvelles tâches: redéfinir les concepts d’humain et de personne en regard de la vie initiale (le statut de l’embryon humain en laboratoire) et de la vie terminale (le statut de la vie humaine en coma dépassé); fixer des limites aux expérimentations sur l’être humain et sur l’embryon ainsi que réfléchir sur le sens et le devenir de l’humain (le Projet de cartographie et de séquençage du génome humain en est un lieu privilégié).On le voit à l’évidence, le développement technoscientifique a été bénéfique dans son ensemble, mais il a aussi conduit ou peut conduire à des applications nettement moins désirables et parfois condamnables.Cette constatation, d’une importance primordiale, entraîne que nous ne pouvons, en toute conscience, continuer de développer aveuglément la technoscience.On ne peut prêter d’intentions à la technique sauf celles que nous programmons.En conséquence, les fabriquants de technologie, tout comme les usagers et les preneurs de décisions, ne sont pas forcément innocents.La guerre du Golfe nous l’a récemment rappelé (voir Yves Gingras, INTERFACE, vol.12, n°2, 1991, p.4 et D.E.Koshland, Science, vol.251, n° 497, 1991, p.4993).Une réflexion, en tant que scientifique et en tant que citoyen ou citoyenne, sur les bénéfices et les risques, et une évaluation globale de ceux-ci lors de l’application d’une technologie, sont donc devenues indispensables.Nous en avons l’obligation morale.Mais, puisque les conséquences à long terme sont dans certains cas impossibles à cerner, l’approche utilitariste pourra se révéler inapte.Il faudra donc s’interroger au sujet des valeurs sur lesquelles se fondent nos décisions.La philosophie et plus particulièrement l’éthique, mais aussi toutes les disciplines scientifiques des sciences dites humaines, sont ici interpellées au même titre que celles des sciences dites exactes.Or, la meilleure façon de freiner la mise en place d’un tel processus est de mettre la société devant un fait accompli, tout comme une bonne façon de court-circuiter la discussion et la réflexion sur le sujet consiste à planifier et à exécuter le développement technoscientifique dans le secret des laboratoires.Il faut donc en appeler à beaucoup de transparence de la part des scientifiques et à beaucoup de clairvoyance de la part des penseurs.Cependant, accorder aux femmes et hommes de sciences le soin de décider de l’usage des techniques serait leur reléguer un pouvoir qu’ils n’ont pas nécessairement la compétence d’assumer et, surtout, qui irait à l’encontre de nos processus démocratiques (voir L.Wolpert, Br.Med.J., vol.298,1991, p.941).Il y a donc une limite à ce que l’on peut exiger des scientifiques.Afin d’établir un forum propice aux échanges sur ces sujets, une branche québécoise du Mouvement universel pour la responsabilité scientifique (MURS) a été mise sur pied et sera officiellement fondée, le 22 mai 1991, lors du Congrès de l’Acfas qui se tiendra à Sherbrooke (encadré 1).En effet, nous avons été mandatés par le professeur Jean Dausset, Prix Nobel de médecine et président du MURS-FRANCE, pour procéder à la fondation d’un tel mouvement.Avec le MURS-QUÉBEC, les scientifiques disposeront d’un outil pour favoriser leurs réflexions et discussions quant à leur responsabilité face à la nature, à l’orientation et aux conséquences de leurs recherches.1.LES OBJECTIFS DU MURS Les objectifs du Mouvement universel pour la responsabilité scientifique (MURS) sont: • «d'établir un forum permanent où les hommes de science et de culture se réuniront et se concerteront avec d'autres personnes intéressées pour mettre en évidence et discuter les problèmes qui peuvent résulter pour l'Humanité du développement de la science et de ses applications; • d'inciter à une prise de conscience générale des questions qui se posent à la société et à ses membres en confrontant les évaluations des bienfaits et des risques de ce développement; • de servir de tribune pour porter à la connaissance du public les résultats de ces débats et pour formuler les options destinées à ceux qui ont la responsabilité des décisions; • de stimuler une réflexion prospective rigoureuse sur l'Homme et la planète et sur les mesures à prendre dès aujourd'hui pur garantir leur avenir.» Raymond D.Lambert travaille au Centre de recherche du CHUL.Il enseigne également au Département d’obstétrique-gynécologie à l’Université Laval.Marcel J.Mélançon est professeur-chercheur en bioéthique au Département de philosophie du Collège de Chicoutimi. 2.LE MURS ET LES DROITS DE L'HOMME Le Mouvement universel pour la responsabilité scientifique (MURS) a proposé en 1989 l'ajout d'un nouvel article à la Déclaration universelle des droits de l'homme: Les connaissances scientifiques ne doivent être utilisées que pour servir la dignité, l'intégrité et le devenir de l'Homme, mais nul ne peut en entraver l'acquisition.Les membres du MURS ont également émis le souhait que l'Organisation des Nations Unies se prononce solennellement sur les trois points suivants: • toute source d'énergie ne doit être utilisée qu'au bénéfice de l'Homme sans atteinte à la biosphère; • le patrimoine génétique de l'Homme, dans l'état actuel de nos connaissances, ne doit pas être modifié de façon héréditaire (ce qui n'exclut pas le traitement des maladies génétiques par modification du patrimoine génétique des cellules non reproductives d'un malade); • le corps humain dans tous ses éléments, cellules, tissus et organes, n'a pas de prix et ne peut donc être source de profit.La course aux armements, la dégradation de l’environnement, la misère humaine nous interpellent spécifiquement, car les solutions à ces défis passent par notre savoir, nos technologies, notre sagesse et notre sens de l’humain.La solution ne peut donc consister à bannir la technologie et son développement, mais plutôt à être circonspects dans nos choix technologiques et sociaux.Ce n’est pas nous directement qui décidons de mettre au point une nouvelle arme ou de créer de nouvelles espèces de vie et ce n’est pas nous qui finançons ces projets.Toutefois, nous avons encore la liberté de refuser de participer à toute expérience technoscientifique ne respectant pas le principe fondamental qui s’apparente au nouvel article que le MURS propose de faire ajouter à la Déclaration universelle des droits de l’homme: «Toute invention ne devrait être faite qu’avec l’intention d’aider l’humanité et de ne jamais lui faire de tort» (encadré 2).Car nous, chercheuses et chercheurs, ne pouvons nous disculper de toute responsabilité face à l’usage que font de nos découvertes, nos dirigeants politiques, militaires et scientifiques.Dans ce contexte, il faut réclamer de ces derniers qu’ils s’engagent dans des activités pacifiques — ce qui signifie qu’ils doivent respecter les vies humaines — et qu’ils définissent avec sagesse la planification et les limites du développement technoscientifique.Nous devons aussi admettre que la solution à certains problèmes repose moins sur la technologie que sur le sens du partage.Les sciences que nous pratiquons ont, en effet, souvent pour objet l’amélioration du bien-être de populations déjà bien nanties.Les investissements massifs dans certains secteurs de la science et de la technologie, et en particulier, dans le projet de cartographie et de séquençage du génome humain, se font-ils au détriment de la lutte contre la misère, la pauvreté et l’exploitation que l’on rencontre surtout dans ce que l’on appelle le Tiers Monde?Pour atteindre les objectifs mentionnés plus haut, le MURS-QUEBEC se propose d’organiser colloques et conférences au cours desquels les scientifiques de diverses disciplines, les décideurs publics et les représentants de la communauté, seront appelés à réfléchir et à échanger sur un sujet spécifique.Ce sera le cas, par exemple, le 22 mai 1991 à Sherbrooke, lors du colloque, au Congrès de l’Acfas, intitulé «La cartographie et le séquençage du génome humain: la responsabilité scientifique et sociale».Le Projet du génome humain est grandiose.Il vise à analyser les quelque 3 milliards de paires de bases alignées sur quelque 100 000 gènes répartis sur les 46 chromosomes contenant l’information génétique qui définit biochimiquement l’être humain.Ce projet constitue un lieu privilégié de réflexion sur les espoirs et les risques liés inévitablement à la technoscience.Les conclusions de ces séances de réflexion quant aux retombées positives ou négatives d’un développement technologique particulier, pourront être acheminées aux personnes ou organismes concernés.Ainsi pourrons-nous suggérer certaines solutions aux problèmes nouveaux posés par la science et mettre en valeur les possibilités qu’elle offre.Le MURS-QUÉBEC accueillera comme membre toute personne ou institution qui, en accord avec les objectifs du mouvement, désire participer directement ou indirectement au travail de réflexion relié à ces objectifs et s’engage à ne pas utiliser le mouvement à des fins politiques.Plus particulièrement, les scientifiques de toutes les disciplines sont conviés à participer à nos activités.Il s’agit là, croyons-nous, de la meilleure garantie que tout le développement technoscientifique ne nous fera pas perdre le sens de l’humanité et que la science se fera au service de l’humain et non pas l’inverse.Toute personne désirant devenir membre du MURS-QUÉBEC peut communiquer avec la professeure Marguerite Roberge, présidente du comité de recrutement et de sélection, à l’adresse suivante: Département de physique, Pavillon Alexandre-Vachon, bureau 1632, Université Laval, Sainte-Foy (Québec) G1K 7P4, téléphone: (418) 656-3560 ou 2454, télécopieur: (418) 656-2623.* Vj)£ De plus en plus de Québécois et Québécoises délaissent l’eau du robinet pour utiliser plutôt de l’eau embouteillée.Méfiance?Recherche d’un goût plus «pur»?Afin de mieux comprendre ce comportement, des scientifiques du Département de médecine du travail et d’hygiène du milieu (MTHM) de l’Université de Montréal ont entrepris une recherche de concert avec le Comité de santé environnemental des départements de santé communautaire (DSC) du Québec et l'Association québécoise des techniques de l’eau.A l’aide d’un sondage effectué auprès de 1016 personnes en octobre 1990, Élisabeth Hudon, étudiante à la maîtrise en médecine du travail et hygiène du milieu, a voulu préciser le degré de confiance des Québécois face à l’eau du robinet, ainsi que leur perception du risque pour la santé que comporte l’utilisation de cette eau.D’entrée de jeu, 40 p.cent des personnes interrogées disent consommer de l’eau embouteillée, ce qui représente un accroissement significatif par rapport à 1988 (Sorécom), alors que 30 p.cent affirmaient en boire.L’eau de source obtient la faveur (77 p.cent), contre 23 p.cent pour les autres eaux: minérale, en vrac ou déminéralisée.L’eau du robinet est par contre largement utilisée pour préparer soupes, jus ou café (88 p.cent), ou encore, pour étancher sa soif (60 p.cent), tandis que seuls les irréductibles (4 p.cent) disent utiliser l’eau embouteillée pour laver fruits et légumes.Afin de mesurer les critères qui font préférer à certains l’eau embouteillée à l’eau du robinet, on a demandé aux répondants de juger leur eau à partir de ses aspects organoleptiques (goût, couleur, odeur) et physicochimiques (microbes, produits chimiques et minéraux).Ainsi, 54 p.cent des personnes interrogées considèrent que l’eau embouteillée est meilleure au goût que l’eau du robinet, bien que cette dernière soit classée de bonne à passable par plus de 85 p.cent des gens.Soulignons que 90 p.cent des Québécois sont alimentés par aqueduc et que 45 p.cent de cette eau provient du fleuve Saint-Laurent.En ce qui concerne les paramétres physicochimiques, les opinions sont moins tranchées: 56 p.cent des personnes considèrent que l’eau embouteillée est meilleure que l’eau du robinet, même si une proportion similaire de gens juge quand même cette dernière de bonne à passable.Mais c’est le fort pourcentage de personnes indécises qui parle le plus ici: une personne sur quatre se dit incapable de porter un jugement sur la qualité chimique ou minérale de l’eau, peu importe sa provenance.Cette donnée particulière, selon Elisabeth Hudon, peut être reliée au degré de compréhension de l’information accessible à la population.A ce sujet, 80 p.cent des répondants avouent ne jamais avoir fait de démarche particulière pour se renseigner sur la qualité de l’eau du robinet ou sur celle de l’eau embouteillée.Concernant la diffusion de l’information, 47 p.cent se disent bien ou très bien informes, contre 53 p.cent qui s'estiment lésés concernant cet aspect.La confiance accordée aux sources d'information est par ailleurs également très révélatrice.Dans l’ordre, on fait confiance d'abord aux experts scientifiques (39 p.cent), aux journalistes (24 p.cent), aux organismes gouvernementaux (16p.cent) et en dernier lieu, aux industries (5,5 p.cent).Où sont nos politiciens dans tout cela?En bout de SCIElcMjfrLIPS EAU POTABLE: DU ROBINET À LA BOUTEILLE ADMISSIBILITE DE LA RECHERCHE DU TRAVAIL Créé à l’occasion du dixième anniversaire de l'IRSST, le PRIX DE LA RECHERCHE EN SANTÉ ET EN SÉCURITÉ DU TRAVAIL vise à : ^ Reconnaître et souligner une importante contribution en recherche, dans le domaine de la santé et de la sécurité du travail ^Couronner l’ensemble d’une carrière ou souligner des percées significatives ^Attirer l’attention sur l’importance des connaissances scientifiques et de leur application en santé et en sécurité du travail ^ Promouvoir l’avancement de la recherche en santé et en sécurité du travail au Québec ^ Toute personne qui dans son domaine de compétence scientifique a contribué de façon remarquable à l'avancement de la recherche en santé et en sécurité du travail.^ La personne candidate doit œuvrer ou avoir œuvré au Québec.Elle peut être rattachée au secteur universitaire, gouvernemental, privé, industriel, syndical ou à un organisme international.Le prix est décerné à des personnes et non à des institutions.^1 Les membres du jury mandatés pour sélectionner le lauréat ne sont pas admissibles les années où ils exercent leurfonction de jurés.^ Le prix ne peut être décerné à plus d’une personne.^ Le prix ne peut être décerné à titre posthume.PROPOSITION DE CANDIDATURE Les propositions doivent être adressées, avant le 15 août de chaque année.Toute personne intéressée peut proposer un candidat.Elle doit alors présenter un dossier au : Président du jury de sélection Institut de recherche en santé et en sécurité du travail du Québec 505, boulevard de Maisonneuve Ouest Montréal (Québec) H3A3C2 REMISE DU PRIX Le prix est décerné au lauréat, à l’automne de chaque année.Renseignements: IRSST Direction des communications (514) 288-1551, poste 212 A à 3 F Un montant de 10 000 $ accompagné d’une œuvre d’art sont attribués annuellement IRSST Institut de recherche en santé et en sécurité du travail du Québec ¦ M !*] .1 l‘l v l .:V ¦ MMSS5: ¦- m f~4 ft JUGULER L'OSTEOPOROSE ligne: jls récoltent.1,1p.cent de la faveur populaire! Saute d’humeur ou sjgne des temps, cés chiffres donnent .quand même matièré à réflexion à nos représentants officiels.Au moment de mettre le présent arti-Vle sous presse, les chercheurs n’avaient pa's terminé l’analyse exhaustive des ( données en matière de perception du risque.Un aperçu de ces données: 26 p.cent des répondants comparent le risque que représente l’eau pour la santé à celui que comportent l’alcool, la cigarette, le café et même, chose surprenante, les fruits, les légumes et la viande! L’étude met également ert question la pertinence des appareils.de traitement de l’eau, ainsi que l’absence de contrôle gouvernemental pour plusieurs catégories d’eau embouteillée.La diffusion finale des résultats de la recherche est prévue pour le prochain congrès de l’Acfas, qui aura lieu en mai à Sherbrooke.L'équipe de recherche est composée d'Élisabeth Hudon du DSC de Saint-Luc.de Pierre Lainesse du DSC Hôtel-Dieu de Lévis et de Joseph Zayed, professeur au Département de MTHM.Les personnes suivantes ont également travaillé à la conception du questionnaire: Denis Gauvin, du DSC du CHUL, Claudine Léonard, du DSC Charles-Lemoyne et Robert Rousseau, du DSC de Verdun.ALAIN FORTIER Suppléments de calcium, exercice physique, absorption d’oestrogènes: l’incertitude persiste encore en ce qui concerne le traitement de l’ostéoporose.Cependant, de nouvelles voies prometteuses apparaissent: des chercheurs de l’Institut des sciences biologiques du Conseil national de recherches du Canada (CNRC) sont sur le point d’apporter une contribution importante à la lutte contre cette maladie.Ils tentent d’en bloquer le développement en agissant sur une certaine hormone, l’hormone parathyroïdienne (PTH), qui serait en cause dans l’apparition de cette affection.Sécrétée par les glandes du même nom, situées de part et d’autre de la glande thyroïde, la PTH assure tant chez l’être humain que chez les vertébrés terrestres la régulation de la concentration de calcium dans les liquides extra-cellulaires: sa fonction principale est de prévenir l’hypocalcémie.Elle intervient au niveau des reins pour diminuer l’élimination du calcium et favoriser sa réabsorption, de même que dans la région intestinale où elle agit par l’intermédiaire de la vitamine D3.Cependant, cette hormone induit également une dégradation du tissu osseux qui, bien que physiologique et normale, peut devenir, une fois déséquilibrée, pathologique et causer l’ostéoporose.«Chez la femme ménopausée, la concentration des oestrogènes diminue, ce qui, en augmentant l’effet hyper-calcémiant de la PTH physiologique.pourrait accélérer la dégradation de l’os et provoquer l’ostéoporose.On pense que la quantité de la PTH physiologique a un rôle majeur à jouer dans ce processus.A de fortes doses, on remarque une résorption du tissu osseux, tandis qu’à de faibles doses, l’hormone aurait un effet stabilisant», soutient Hervé Jouishomme, chercheur à l’Institut.L’ostéoporose entraîne la perte de calcium, et la dégradation de la structure de l’os menace particulièrement la femme ménopausée et la prédispose aux fractures.«Il faut intervenir afin de contrecarrer les effets de la PTH physiologique en synthétisant des analogues structuraux qui prendront sa place sur les sites récepteurs.Si on arrive à bloquer ces sites, on pourra provoquer une baisse de la PTH physiologique et ainsi réduire ses effets négatifs», explique M.Jouishomme.En morcelant la longue chaîne protéique de l’hormone parathyroïdienne (PTH) et en modifiant un à un ses acides aminés, les chercheurs de l’Institut des sciences biologiques tentent donc de mieux connaître les relations entre la structure et le fonctionnement en vue de produire une version inoffensive de cette molécule.Ils pourront, d’une part, y localiser précisément les sites de fixation pour les conserver et, d’autre part, éliminer les sites actifs biologiquement et indésirables, soit ceux qui induisent l’ostéoporose. s«i Is % 1 « -ye «Toutefois, l’hormone PTH est produite en quantité infime dans le corps humain et son extraction à partir des fluides biologiques coûte très cher.De même, le coût de sa synthèse à l’aide des méthodes chimiques est exorbitant: 2 000 $ pour un milligramme, ce qui rend impensable une production commerciale», explique Sadiq Hasnain, chercheur et responsable de la liaison industrie-CNRC pour ce projet.De fait, une industrie pharmaceutique torontoise est fortement intéressée par le potentiel de la molécule synthétique et la mise au point d’un traitement efficace.Ainsi, pour synthétiser la molécule désirée, la biologie moléculaire prendra la relève.Le procédé consiste d’abord à synthétiser le gène humain pour ensuite l’introduire dans une bactérie productrice, E.coli, afin de permettre l’expression du gène.Par la suite, l’ensemencement et la multiplication des bactéries en fermenteur demeurent des étapes mécaniques que l’on a réussi à mettre au point en laboratoire.«La production de PTH en grande quantité est impérative pour l’obtention de contrats industriels.Déjà, la multiplication va bon train.Une fois standardisé et bien rodé, ce système très prometteur sera facilement transférable pour la production commerciale», rapporte Sadiq Hasnain.Par contre, l’extraction et la purification sont des opérations fort complexes, compte tenu de la structure et du poids important de la molécule.En laboratoire, l’utilisation d’une technique sophistiquée de chromatographie HPLC permet de séparer le principal contaminant de la molécule.À grande échelle, cette technique devient très coûteuse et devra être remplacée; les chercheurs pensent déjà qu’en refroidissant rapidement les cellules après fermentation, on pourrait contourner le problème.À l’heure actuelle, les chercheurs souhaitent donc identifier les sites de fixation de l’hormone pour compéti-tionner avec la molécule endogène en s’attardant davantage aux 34 premiers acides aminés de la chaîne protéique.Idéalement, une chaîne encore plus courte de 20 à 30 acides aminés serait plus stable et plus facile à manipuler ou à synthétiser.BRIGITTE LAMONTAGNE TOM DEVECSERI ENTRE LA BACTERIE ET LE VIRUS: LA MITOCHONDRIE La preuve est maintenant faite: les mitochondries, ces organelles qui sont à la cellule ce que les poumons sont à l’organisme, seraient en fait des corps étrangers qui ont infecté les cellules il y a des centaines de millions d’années.D’origine bactérienne et non cellulaire comme on l’a toujours pensé, les mitochondries auraient même conservé une partie de leur code génétique archaïque (ADN et ARN) et synthétiseraient des protéines tout comme le noyau de la cellule.C’est ce que montrent hors de tout doute les recherches de Frantz Lang, biologiste à l’Université de Montréal.Mais ce n’est pas tout.Un autre biologiste montréalais, Gregory Brown, de l’Université McGill, a constaté que là ne s’arrête pas l’excentricité du code génétique résiduel des mitochondries.Dans certaines variétés de maïs, l’ARN mitochondrial se reproduit sans passer par l’intermédiaire habituel du code génétique.L’ARN du maïs, du moins celui trouvé dans les mitochondries, se copie lui-même, ce qui, cette fois, n’est pas un trait caractéristique des bactéries, mais bien de certains virus! Ce n’est d'ailleurs pas le seul trait viral du code génétique des mitochondries végétales.M.Brown s’est intéressé à la manière dont l’ADN mitochondrial est transcrit en ARN.Il a identifié l’enzyme favorisant cette transcription, l’ARN-polymérase,et lui a trouvé un stupéfiant air de famille avec l’ARN-po-lymérase de certains virus.Même le site du signal promoteur de la transcription sur le ruban d’ADN ressemble à celui des virus: il n’est fait que d’un groupe de bases codantes alors qu’on en trouve plusieurs dans tous les autres cas.Un peu viral, très bactérien, le code génétique des mitochondries n’a pas fini d’étonner.Gregory Brown le rend responsable des cas d'infertilité d’une floppée de plantes cultivées comme le soya, le maïs et toutes les plantes du genre Brassica telles le chou de Bruxelles, le choux-fleur et le brocoli.«Au moment de la maturation des organes mâles de ces plantes, explique M.Brown, la demande énergétique est fort importante.Pour produire du pollen, les anthères (partie supérieure de l’étamine) ont alors besoin d’un nombre accru de mitochondries dans leurs cellules puisque ce sont ces dernières qui génèrent l’énergie.Le code génétique mitochondrial permet d’ordinaire cette recrudescence d’organelles.» Toutefois, si le gène mitochondrial responsable de cette multiplication subit un léger réarrangement lors de la duplication, point d’affaire, comme dirait la Fontaine: il devient incapable de produire un ARN messager efficace et la surproduction de mitochondries n’a pas lieu.Faute d’énergie, pas de pollen et donc pas de reproduction.Alors que dans la plupart des cas, l’association très ancienne des mitochondries d’origine bactérienne et des cellules à noyau réussit bien aux deux partenaires, voici au moins un cas, l’infertilité, où l’ancienne bactérie nuit à son hôte.Mais ce dernier, au cours de l’évolution, a trouvé une parade qui réussit parfois.Certains gènes contenus dans les noyaux des cellules d’anthères interagissent avec les gènes mitochondriaux et suppriment leur action inhibitrice.Le noyau de la cellule reprend ainsi le contrôle des opérations et les anthères produisent du pollen comme il se doit.Cela n’est pas pour surprendre Frantz Lang.«Nous sommes à peu près certains que ce genre de chose s’est reproduit souvent au cours de l’évolution des e»n( Ilots à l’été seule infes sont à ' : * ' - A V; fi^ /• ** •S> JXf DANIEL S.FRIEND, ( BIOLOGIE MOLÉCULAIRE DE LA CELLULE.GARLAND PUBLISHING INC.) euracyotes, soit des cellules à noyau.Les gènes de la mitochondrie, de la bactérie infectante ont dû entrer en compétition avec ceux du noyau.La production de protéines par la mitochondrie a alors été prise en charge par le noyau cellulaire et bien des gènes mitochondriaux ont été ainsi éliminés.» M.Lang se sert d’ailleurs de ce processus de remplacement du code génétique de la bactérie-mitochondrie pour établir l'arbre phylogénétique des différentes mitochondries végétales.Il pose pour principe que plus une espèce végétale sera primitive, plus ses mitochondries auront gardé de leurs gènes originaux.A l’inverse, plus elle sera évoluée, plus les gènes du noyau auront remplacé ceux de la bactérie infectante.C’est d’ailleurs pour faire l’histoire des végétaux que Frantz Lang a été nommé responsable du Centre de séquençage d’acides nucléique l’Université de Montréal 1991.On saura ainsi si une tation bactérienne ou plusieurs l’origine de ces fossiles vivants constituent les mitochondries de vos raniums, de vos astres et de vos propres cheveux.GUY PAQUIN 875^ F Ml* msi À L'ÉCOUTE DES PERSONNES HANDICAPÉES ET DES PILOTES Spectrogrammes de l'énoncé «Flight Research Laboratory».L'image du bas représente un spectrogramme classique, et celle du haut, la représentation d'un modèle informatisé simulant l'action de l'oreille interne.Si la reconnaissance de la parole fait l’objet de nombreux travaux à travers le monde, un système de reconnaissance versatile et performant dans toutes les situations n’est pas encore né.Mais des chercheurs travaillant au Conseil national de recherches du Canada (CNRC) viennent de franchir un pas intéressant dans ce domaine: leur procédure de traitement de signal a permis la mise au point d’un système de reconnaissance efficace, même dans un environnement bruyant.Ces travaux pourraient contribuer à faciliter l’autonomie des personnes handicapées, en leur permettant, par exemple, de faire fonctionner oralement un ordinateur ou un robot, ou encore, de contrôler leur environnement à la maison.Les scientifiques du Laboratoire de recherches en vol, de l’Institut de recherche aérospatiale du CNRC, prévoient effectuer la démonstration de cette technologie dans l’environnement hautement hostile d’un cockpit d’hélicoptère, très bruyant, en utilisant le système de reconnaissance pour contrôler certaines fonctions de l’appareil.Le système de reconnaissance comporte plusieurs parties.La voix, recueillie par un microphone, passe d’abord par une transformation de Fourier rapide suivie par une banque de filtres comportant 32 canaux.La représentation du signal fournie par ces canaux est ensuite traitée par IMELDA (acronyme pour Integrated Mel-scale Linear Discriminant Analysis).IMELDA effectue une transformation matricielle discriminante de cette représentation; les fonctions discriminantes obtenues servent à la génération de «patrons» qui seront utilisés pour comparer les sons.«D faut d’abord générer des patrons modèles pour chaque son ou mot», explique Dariusz Zwierzynski, qui travaille au sein du CNRC mais est employé par la Fondation Neil Squire, un organisme qui vise à mettre la technologie de pointe au service des personnes handicapées.Les patrons obtenus à partir des signaux ultérieurs sont ensuite comparés aux patrons modèles par le processus principal, qui évalue la «distance» entre les deux patrons.Si la distance est grande, le mot capté est probablement différent du mot auquel on le compare.Le système arrive toujours à une réponse, qui peut être fausse si deux patrons correspondant à des mots différents sont semblables. 52 INTERFACE MAI • JUIN 1991 Mesure de dissimilarité et Decision Signal de parole Reseau linéaire discriminant Analyse spectrale comparaison dynamique Pre-traitement Modèles de mot Traitement Schéma du système de reconnaissance de la parole.Dans un environnement bruyant, non seulement le bruit de fond contamine-t-il le signal, mais en plus, un locuteur ou une locutrice a tendance à hausser la voix.L’équilibre spectral est alors modifié.«L’originalité d’IMELDA, explique Claude Lefebvre, informaticien à la Fondation Neil Squire, est d’effectuer une transformation discriminante.Cette transformation est basée sur les caractéristiques de la parole comme la fréquence fondamentale et les transitions consonne-voyelle, alors que les autres systèmes de reconnaissance de la parole traitent le spectre des fréquences obtenues par une simple équation mathématique.» «La transformation discriminante est moins sensible au bruit, dit Dariusz Zwierzynski, ce qui rend le système plus efficace dans des environnements normaux, souvent bruyants.» Les tests effectués avec IMELDA sur des séquences de chiffres prononcés par un locuteur de langue anglaise ont montré qu’avec la transformation discriminante, la proportion d’erreurs de reconnaissance est, dans un environnement calme, environ trois fois plus faible qu’avec les autres transformations.L’avantage est encore plus marqué en présence de bruit ou si le locuteur est stressé (moins de 1 p.cent d’erreurs).Comme pour tous les systèmes de reconnaissance de la parole, l’efficacité est toutefois meilleure quand le système analyse des mots prononcés par un locuteur dont la voix a servi à la génération des patrons (on dit que le système est «dépendant» du locuteur).Le CNRC a vendu sous licence la technologie à la compagnie Marconi, pour les applications en avionique, et à la Fondation Neil Squire, pour celles qui concernent les personnes handicapées.L’usine de Marconi située à Kana-ta, en banlieue d’Ottawa, fabrique actuellement un prototype d’IMELDA.«Nous allons tester tout le système sur un hélicoptère en vol, mentionne Mac Sinclair, directeur du Laboratoire de recherches en vol.Il ne faut toutefois pas croire qu’on va pouvoir piloter uniquement en parlant! Dans des situations de stress, les pilotes préféreront probablement pousser des boutons plutôt que de parler et de dire la bonne chose à l’ordinateur.Mais un système de reconnaissance de la parole pourrait servir à commander l’équipement auxiliaire ou à entrer des données, comme la position de l’avion, sans qu’on ait à utiliser un clavier.Avant qu’un aéronef ne soit complètement commandé par la voix, il va falloir que les ordinateurs deviennent intelligents et qu’ils reconnaissent différentes façons de dire la même chose.» Les personnes handicapées bénéficieront sûrement de nombreuses autres applications dans l’industrie, en pédagogie ou en médecine.RAYNALD PEPIN !«* < Y ' , ¦xm De par leur volonté de définir une place aux femmes et malgré leur fidélité aux valeurs traditionnelles, les Cercles de fermières du Québec ont été sans contredit les précurseurs du féminisme.Figurant comme une des plus importantes associations féminines du Québec, ces cercles, dès leur naissance, aspirent à promouvoir la reconnaissance sociale des femmes.Puis, tout au cours de leur existence, ils soutiennent constamment leur autonomie et leur indépendance en refusant d’être assujettis et manipulés par l’Etat ainsi que par l’Église, laquelle tentera à maintes reprises d’affirmer son hégémonie.Voilà le portrait assez surprenant, loin du stéréotype de la femme rurale québécoise, que l’historienne Yolande Cohen de l’Université du Québec à Montréal nous décrit dans un livre intitulé Femmes de parole.Aboutissement de plusieurs années de recherche, cet ouvrage constitue une fresque analytique de l’histoire des Cercles de fermières du Québec de 1915 à 1990.L’histoire des Cercles de fermières débute dès 1915, grâce à l’initiative d’un agronome du ministère de l’Agriculture, Alphonse Désilets.Ce dernier voyait dans le mouvement des fermières un espoir pour freiner l’exode rural qui LES CERCLES DE FERMIÈRES A L'ORIGINE DU MOUVEMENT FÉMINISTE OFFICE PROVINCIAL DE PUBLICITÉ, QUÉBEC 54 INTERFACE MAI • JUIN 1991 OFFICE PROVINCIAL DE PUBLICITÉ, QUÉBEC s’amorçait déjà à cette époque.Soutenues par l’État, les femmes fermières s’engagent donc alors dans la défense du monde rural par le biais d’une valorisation des activités agricoles et domestiques.Au sein des Cercles de fermières, ces activités sont désormais intégrées sous le vocable «d’industrie domestique» et les femmes qui les pratiquent se dotent par le fait même d’une distinction sociale.Ainsi, en créant les Cercles, les fermières créaient également une profession.Cet aspect fondamental est probablement l’élément distinctif qui caractérise ce rassemblement exclusif de femmes.«Bien que la sociabilité soit le matériau de base qui cimente l’organisation, souligne Yolande Cohen, le Cercle est beaucoup plus qu’un club social.» Les femmes y adhèrent volontairement, paient une cotisation, participent à des réunions statutaires mensuelles et sentent qu’elles doivent donner de leur temps et de leur énergie, malgré les contraintes que leur occasionne la lourde charge de leur besogne familiale.Les fermières se rassemblent pour partager leurs savoirs, pour en acquérir de nouveaux par l’intermédiaire des agronomes du district ou d’institutrices officielles.Elles s’emploient toujours à des activités qui s’inscrivent dans le prolongement de leurs occupations domestiques familiales.«Bonifier la situation des familles» demeure leur préoccupation centrale.Par exemple, on produit collectivement les biens de consommation courants comme les conserves; on confectionne des vêtements artisanaux ou on encourage l’embellissement des demeures et des jardins.«Ces productions remplissent tous les critères d’une ressource économique», selon Yolande Cohen: une ressource économique qui contribue à la subsistance des familles.Étant donné que ces productions sont réalisées dans un lieu public, les fermières conquièrent une reconnaissance publique, et leur Cercle devient un lobby dans la paroisse.Un lobby qui ne se donne pas nécessairement d’objectif politique véritable, si ce n’est de demander des subventions auprès du ministère de l’Agriculture.Ce processus exige toutefois de développer des habiletés de représentation et d’intervention s’exerçant au-delà de la cellule familiale.Par ailleurs, l’élément marquant de l’histoire des Cercles est sans doute la fermeté avec laquelle l’association a maintenu son autonomie et son indé- ****** sïî&sfis mm ¥fcD$ k .; OFFICE PROVINCIAL DE PUBLICITÉ, QUEBEC ques pratiquantes.«Une telle résistance face à l’offensive de l’Église aura probablement eu un rôle important dans le vent de déconfessionnalisation qui ébranla le Québec à la suite de la Seconde Guerre mondiale», fait remarquer Yolande Cohen.Cette détermination face à l’autonomie, les Cercles de fermières n’ont jamais cesser de la réaffirmer.Ainsi, en 1967, les Cercles de fermières ne s’engagent pas dans le processus entrepris par le clergé pour fusionner les différentes associations de femmes telles que l’UCF et les Cercles d’économie domestique (CED), au sein de l’Association féminine d’éducation et d’action sociale (AFEAS).Aujourd’hui, les Cercles de fermières comptent 60 000 membres qui s’adonnent, dans les zones rurales comme urbaines, à de multiples activités culturelles et artisanales.Même si l’appellation de «fermière» en fait sourire plus d’un en 1990, il n’en demeure pas moins que ces Cercles ont réussi à élever cet attribut au rang de profession féminine à laquelle on rattache de multiples savoir-faire.De plus, il faudra se souvenir que ces mêmes fermières sont à l’origine de houles qu’on peut qualifier de révolutionnaires: la déconfessionnalisation et le féminisme.PAULINE GRAVEL pendance vis-à-vis de l’État et de l’Église, malgré certaines accusations.En effet, alors que les Cercles participent à une entreprise de modernisation de l’agriculture que l’État souhaitait mettre de l’avant par le biais de son ministère de l’Agriculture, ils sont accusés d’être inféodés à l’État.Les recherches de Yolande Cohen confirment bien qu’il n’en est rien puisque, notamment, les subventions que les Cercles reçoivent sont minimes.Les Cercles utilisent plutôt l’assistance de l’État pour s’assurer une reconnaissance publique et par là, pour affirmer avec plus de fermeté leur autonomie.Toutefois, cette volonté d’indépendance est ressentie comme une incartade par le clergé et particulièrement l’épiscopat de certaines régions de l’Es-trie et de Trois-Rivières.Comme les Cercles de fermières refusent d’organiser leur fédération sur des bases diocésaines plutôt que sur des bases agronomiques, le clergé riposte en créant en 1940 une autre association, l’Union catholique des fermières (UCF), puis ultérieurement l’Union catholique des femmes rurales (UCFR).Ces associatons rivales instaurent une déchirante scission au sein des paroisses, scission qui isole les Cercles dans une espèce de groupement laïque, alors que leurs membres demeurent de bonnes catholi- neurs étaient repartis en affaires.Mais DES ENTREPRENEURS QUI ONT LA TÊTE DURE Les entrepreneurs qui ont fait faillite ne tirent pas toujours des leçons de leurs déboires, du moins selon Claude Lalon-de, professeur en sciences économiques et administratives à l’Université du Québec à Chicoutimi (UQAC).Ce dernier a comparé les résultats d’enquêtes sur les pratiques de gestion effectuées à sept ans d’intervalle auprès d’entrepreneurs et d’entrepreneures du Sague-nay-Lac-Saint-Jean.Lors du premier sondage, Claude La-londe avait quantifié les pratiques de 100 entrepreneurs ayant fait faillite.Lors de la récession de 1981-1982, 48 p.cent des répondants seulement exerçaient une certaine forme de management.Ainsi, l’encadrement du personnel, la direction ainsi que le contrôle des dépenses et de l’inventaire faisaient partie des tâches d’un entrepreneur sur deux seulement.Dix ans après avoir essuyé une première faillite, la moitié des entrerire- voilà où le bât blaisse: en 1990, seulement 42 p.cent ont déclaré tenir compte “de certaines pratiques de gestion, soit” encore moins que lors du premier son-_dage! Les secteurs les plus délaissés de-_ puis la dernière récession sont la formation continue, l’évaluation et la -sélection du personnel.Ces secteurs,-pourtant névralgiques pour la PME, ont été mis de côté par plusieurs entrepreneurs, tandis que dans d’autres entreprises, la consultation et la participation à la décision connaissent une plus_ grande popularité.En ce qui concerne les aspects financiers, les entrepreneurs - d’aujourd’hui s’occupent moins de l’in-ventaire et du prix de revient, et sont moins portés à l’analyse de la situation " financière qu’auparavant.Ces statistiques font dire à Claude -Lalonde que les faillites ne changent-pas le comportement des gens d’affaires, qui préfèrent oublier ce triste passage de leur vie professionnelle.«Dès le“ lendemain de sa faillite, on cherche à oublier l’expérience, au lieu d’en exa- _ miner les causes.Pourtant, même si cela est pénible, l’examen des raisons de l’échec est fondamental pour éviter qu’il ne se reproduise», estime “M.Lalonde.La solution, selon le chercheur de - l’UQAC, serait que les universités et les -collèges québécois travaillent de concert avec les entrepreneurs.Un entrepreneur ou une entrepreneure avertis tireraient probablement mieux leur -épingle du jeu, en plus de trouver un soutien affectif et, peut-être, de précieux conseils.«Mais les entrepreneurs “de PME sont des gens individualistes,-de dire Claude Lalonde, et il est parfois difficile de les faire penser en fonction d’un effort collectif.» Dans cet esprit,-M.Lalonde participe depuis quelques _ années à la mise sur pied du «Regroupe- _ ment des entrepreneurs victimes d’insolvabilité», pour aider ces derniers à -cheminer à travers la dure école de la— faillite.En termes de répercussions sur l’éco-1.nomie, la faillite d’une PME a un effet g multiplicateur qui peut atteindre trois = - fois le montant de sa dette initiale.ALAIN FORTIER 57 INTERFACE MAI • JUIN 1991 •I .;C'.: ' ", -;> ::: -flL .c ./L ; i£i; LA RÉGÉNÉRATION DES NERFS, LUEUR D'ESPOIR POUR LES PARAPLÉGIQUES i#^'.¦« 1 MICRON Micrographie électronique d'un axone terminal (rétio-colliculaire) régénéré dans le cerveau d'un rat adulte.Vingt et un mois plus tôt, l'oeil et le cerveau avaient été connectés par un greffon composé d'un nerf périphérique.Les grains noirs sur le terminal indiquent qu'il contient le marqueur radioactif transporté le long de l'axone qui a repoussé de l'oeil vers le cerveau (barre = 1 micron).Vous pensez que les nerfs adultes sectionnés ne se régénèrent pas?Détrompez-vous.Depuis une dizaine d’années, le docteur Albert J.Aguayo et son équipe de l’Université McGill mettent à mal ce dogme neurologique.Non seulement l’équipe du Centre de recherche en neurosciences a-t-elle réussi à stimuler la croissance d’axones adultes sectionnés, mais encore a-t-on vu des axones relancer leurs filaments vers les cibles neuronales appropriées et rétablir avec elles des connexions synaptiques efficaces, exactement comme le font les neurones de l’embryon.La régénération des nerfs adultes chez de petits rongeurs est maintenant une réalité.De quoi faire luire un espoir, si faible et si lointain soit-il, aux yeux des paraplégiques victimes d’accidents à la moelle épinière.Dans le système nerveux central, responsable de nos mouvements volontaires, toute rupture des axones — de longs filaments transmettant l’influx nerveux — est irréversible dans des conditions normales.Quand l’axone, qui peut mesurer jusqu’à un mètre de long dans la moelle épinière, est sectionné, le corps même de la cellule d’où il est parti se désintègre rapidement.Ainsi, non seulement la ligne de transmission est détruite, mais le central qui émettait les signaux l’est aussi.Le docteur Aguayo a montré expérimentalement que si on greffait du tissu nerveux à l’endroit où l’axone était sectionné, non seulement ce dernier reprenait sa croissance comme dans l’embryon, mais encore le corps cellulaire lui-même était sauvé de la désintégration qui le frappe généralement quelques jours après la rupture de son axone.Les travaux révolutionnaires d’Aguayo trouvent leur origine lointaine dans une hypothèse émise dans les années 20 par le célèbre neurologue espagnol Santiago Ramon Y Cajal.Selon ce dernier, la croissance des nerfs dans les embryons de mammifères dé- 58 INTERFACE MAI • JUIN 1991 pend de substances présentes dans le milieu ambiant des cellules nerveuses et non des propriétés intrinsèques de celles-ci.Vers 1960, la neurologue Rita Levi-Montalcini isole une protéine, le facteur de croissance (FC) des nerfs, qui, quand elle est dans l'environnement de la cellule nerveuse, en stimule la croissance et la multiplication.Les axones se mettent alors à pousser comme de la mauvaise herbe.Le docteur Aguayo, quant à lui, avait constaté une grande différence entre le comportement des cellules du système nerveux central (SNC) et de celles du système périphérique: tronçonnées, les premières obéissent au dogme et meurent, tandis que les secondes manifestent une certaine tendance à la régénération.Se pouvait-il que la gaine protectrice des axones périphériques, la gaine de Schwann, contienne du facteur de croissance?Et hypothèse plus hardie — pourrait-on greffer une gaine de Schwann périphérique au bout d’un axone sectionné du SNC?Si oui, l’axone ainsi pourvu d’une gaine allait-il se remettre à pousser?Fin 1981, Albert Aguayo et Samuel David répondaient oui à toutes ces questions.Ayant sectionné la moelle épinière d’un rat, ils avaient greffé au tronçon d’axone un segment de nerf sciatique (un nerf périphérique à gaine de Schwann) dont ils n’avaient gardé que la gaine.Dans ce tuyau, l’axone sectionné avait repris sa croissance, s’allongeant rapidement de quelques centimètres.Depuis, les recherches d’Aguayo ont montré que deux autres facteurs de croissance peuvent stimuler la régénération des axones.On les trouve soit dans la gaine de Schwann, soit dans le tissu conjonctif (ou glial) entourant les nerfs.Il s’agit du facteur neurotrophique ciliaire et du facteur neurotrophique dérivé du cerveau.Ces enzymes, dans l’embryon, guident les axones vers leurs cibles spécifiques durant la croissance.Le docteur Aguayo entreprit ensuite de montrer qu’on pouvait produire un greffon capable de reformer avec sa cible naturelle une connexion synaptique efficace, de se comporter comme le nerf sain.Albert Aguayo, Garth Bray, Manuel Vidal-Sanz et toute l’équipe du Centre de recherche en neurosciences sectionnèrent en 1987 les nerfs optiques de petits rongeurs juste derrière la rétine.Ils greffèrent au bout restant de l’axone un segment de nerf périphérique.L’axone se mit à se régénérer dans la gaine.Dix semaines plus tard, on implanta l’autre extrémité de l’axone régénéré dans le cortex optique de l’animal, le colliculus supérieur.Non seulement l’axone du nerf optique se dirigea vers les régions qui lui sont propres, mais en plus, il rétablit une connexion fonctionnelle avec le cerveau.Quand on stimule la rétine des rongeurs avec une source lumineuse, on peut en percevoir le signal transmis dans le cerveau par les axones régénérés.Si l’axone en repousse trouve sa cible, c’est que celle-ci émet une substance que recherche le cône de croissance de l’axone.Cette substance n’est rien d’autre que le facteur de croissance.Quand le cône de croissance trouve du facteur de croissance dans son environnement, il accélère son avancée à travers le tissu interstitiel.Des concentrations faibles de facteur de croissance vers les concentrations plus fortes, le cône de croissance est guidé vers sa cible.Quand il l’a trouvée, le lien synaptique est renforcé du fait que l’axone pompe le facteur de croissance vers le corps cellulaire qui s’en nourrit.L’équipe du D' Aguayo a encore pas mal de pain sur la planche.Il faudra élucider la question des relations biochimiques entre cône de croissance et facteur de croissance.Pourquoi le cône de croissance réagit-il aux gradients de facteur de croissance?Des cibles différentes émettent-elles des FC différents, évitant ainsi des connexions aberrantes dans l’embryon?La réponse à ces questions intensifiera la lueur d’espoir pour les victimes d’accidents de la moelle épinière et lèvera un plus grand coin du voile sur la genèse du plus complexe réseau de transmission d’information, le système nerveux humain.GUY FAQUIN LE JEU DE L'ACTUALITÉ POLITIQUE Oui, la création de l’actualité politique est un jeu.Un jeu que les journalistes parlementaires et les membres de l’Assemblée nationale se voient dans l’obligation de jouer compte tenu de leurs divergences au moins partielles d’intérêts.L’objectif?Augmenter son contrôle de l’information et limiter le plus possible sa dépendance face à l’autre camp.Tel est du moins l’un des aspects majeurs que met en lumière la thèse déposée en octobre dernier par Jean Charron, au Département de science politique de l’Université Laval.Pour être choisie comme telle, une nouvelle doit être intéressante sur le plan journalistique, c’est-à-dire qu’elle doit retenir l’attention du consommateur ou de la consommatrice et donc as- rv-p" r: * surer un gain au journaliste ainsi qu’à son média.Évidemment, si la collecte et le traitement de cette nouvelle exigent très peu de ressources, c’est l’idéal.C’est pourquoi, rapporte Jean Charron, la plupart des politiciens, qui ont compris l’importance d’accéder à un espace public pour se faire valoir, tâchent d’adapter leur discours aux particularités de l’exposé journalistique: ils construisent leur discours autour d’un ou de deux points majeurs, personnalisent et dramatisent les enjeux, et créent, dans certains cas, un effet de surprise.Avant d’émettre un communiqué ou de se présenter devant les micros, les élus recherchent aussi des formules-chocs qui résument, de façon percutante, colorée et imagée, leur position.Et tant pis si cela entraîne l’oubli de la complexité ou de l’essence même de leurs dossiers! Bien entendu, il peut arriver qu’une source politique n’ait pas intérêt à ce qu’une information particulière soit publiée.Alors, tout en donnant l’impression de respecter la norme de la transparence, elle réussit souvent à diminuer la valeur ou l’attrait de cette information en la dissimulant, par exemple, dans un volumineux document technique.Une autre façon pour les politiciens de s’assurer du contrôle de l’information consiste à tenir leur appareil administratif dans l’ignorance et à inviter les fonctionnaires à se taire, ce que ces derniers font généralement volontiers.jusqu’à ce qu’ils vivent une frustration ou que la conjoncture politique annonce un changement prochain de gouvernement.Selon Jean Charron, l’efficacité des tactiques auxquelles recourent les politiciens est accrue par le fait que les sources politiques sont en mesure, par des revues de presse ou des échanges informels avec les journalistes, de prévoir quels sujets ces derniers privilégieront.Ils utilisent d’ailleurs cette capacité de prévoir tant les sujets que le temps dont disposent les journalistes pour imposer, le plus subtilement possible, leurs modalités d’échanges.Ce n’est donc pas par hasard qu’ils offriront, par exemple, de donner une courte ou une longue entrevue, exclusive ou non, aux médias écrits plutôt qu’électroniques.Compte tenu des contraintes que chacun des groupes s’impose mutuellement, les occasions de mécontentement ou d’insatisfaction entre le personnel politique et les journalistes se font relativement nombreuses, relève Jean Charron.Néanmoins, l’interdépendance des acteurs rend le conflit peu profitable pour quiconque.Tous tentent donc d’en limiter la portée et la fréquence.A ce chapitre, par exemple, un attaché de presse, fin stratège et négociateur, peut se révéler particulièrement précieux s’il est capable de satisfaire à la fois le journaliste et le politicien.LYNE LAUZON De leur côté, les journalistes parlementaires, littéralement inondés d’informations officielles, coincés dans un horaire chargé et limités par le temps dont ils disposent pour fournir la nouvelle, tentent de décoder et de traduire au mieux le discours de leurs sources.Pour éviter les erreurs, limiter l’influence des élus et diminuer leur dépendance face aux références expertes politiques, les journalistes se rencontrent donc entre eux, discutent et échangent des informations.Cette mise en commun explique au moins en partie la quasi-uniformité des informations politiques d’un média à l’autre. LES CAHIERS DE L'ACFAS Dermeres parutions Les cahiers scientifiques Le paradoxe de la gestion universitaire: pour une nouvelle problématique Consultations publiques et stratégies de planification Une démocratie technologique?Colloque sur la fabrication automatisée Territoires et minorités: de l'Amérique française au lac Meech Bioéthique, méthodes et fondements La pensée économique au Québec français Génétique et éthique: identification et thérapie des maladies génétiques L'Utilisation du processus d'apparition du handicap: approche conceptuelle dans la recherche «Sexe faible» ou travail ardu?Recherches sur la santé et la sécurité des travailleuses L'Actualité de la recherche en lecture Iconographie et image de la Révolution française Les avenues de la science politique: théories, paradigmes et scientificité La paix comme projet de justice Droits - Liberté - Démocratie La série politique et économie La Théorie générale et le keynésianisme Le nécessaire combat syndical La politique économique canadienne à l'épreuve du continen Friedrich Hayek, philosophie, économie et politique Investissement, emploi et échanges internationaux La quête du développement: horizons canadien et africain Vente en librairie (distribution Prologue) ou à l'Acfas I PAR ALAIN FORTIER LA «CHAMBLY»: PREMIÈRE FRAISE «PURE LAINE»! Une équipe de recherche en phyto-technie du collège Macdonald, dirigée par Deborah Buszard, vient de mettre au point un nouveau cultivar de fraise, surpommé «Chambly».Première fraise développée au Québec, la «Chambly» est le résultat de cinq ans de recherche dans les serres de Sainte-Anne-de-Bellevue et à la station de recherche d’Agricul-ture Canada, à Saint-Jean-sur-Ri-chelieu.Les travaux de M" Buszard font suite à une demande de l’industrie alimentaire, notamment des compagnies Kraft et Catelli.On cherchait à obtenir une fraise de transformation idéale: elle devait être ferme, sucrée, d’un beau rouge et bien adaptée aux conditions climatiques du Québec.De plus, la disposition de sa tige devait faciliter sa récolte à l’aide d’une machinerie spécialisée.Jusqu’à maintenant, les cultivars de fraise offerts aux producteurs étaient ceux de deux espèces américaines: la Sparkle, au bon goût sucré, et la Honeoye, dont la taille est généreuse et la récolte abondante.De ce croisement génétique est né un rejeton à la peau ferme et au «cou» allongé, qui permettent de bien séparer la tige du fruit.Deborah Buszard, avec le consentement des nouveaux «parents», a décidé de baptiser la première fraise québécoise «Chambly» en l’honneur de cette ville historique de la vallée du Richelieu.A Agriculture Canada, on a testé la «Chambly» dans des sols argileux et sablonneux du Québec, mais également du Nouveau-Brunswick et de la Nouvelle-Écosse.Le sable s’est révélé un milieu parfait pour la croissance de cette fraise, car l’incidence des maladies de racines s’y trouve réduite et l’uniformité du sol facilite la récolte par machinerie.DEBORAH BUSZARD Ainsi, les producteurs du comté de l’Assomption, qui voient graduellement baisser la demande de tabac, veulent s’orienter vers la culture de la fraise: le sol sablonneux de leur région, nécessaire à la culture du tabac, sera tout aussi indiqué pour la culture de la «Chambly».Autrefois importées du Mexique et de la Pologne, les fraises destinées à la transformation locale (confitures, yogourts, etc.) pourront désormais être cultivées sur place, ce qui diminuera les coûts de transport.Au Québec, on cultive 2 500 hectares de fraises, dont la récolte rapporte environ 14 millions de dollars.Chaque année, on transplante 9 millions de plants.Conseil Science des sciences Council du Canada of Canada Comment accroître le potentiel d’innovation et l’esprit d’entreprise au pays?Deux publications récentes du Conseil des sciences du Canada contiennent justement des recommandations sur la manière d améliorer les stratégies de développement économique des collectivités locales, grâce à un usage plus judicieux de la technologie : « Embrayer le «moteur technologique» (déclaration commune du Conseil des sciences et de 1 Association canadienne de technologie de pointe), 13 p.Initiatives locales, succès mondial (rapport publié en collaboration avec l’Association canadienne de technologie de pointe et la Chambre de commerce du Canada), 45 p.Le Conseil des sciences s est par ailleurs penché sur le rôle des sciences et de la technologie dans le développement du Nord, de même que sur les possibilités offertes au Canada par les sciences et les technologies des régions froides.Deux publications y sont consacrées : La science au service du Nord.Poser les bases de l’autodéveloppement économique (rapport n° 41), 48 p.Exploiter les sciences et les technologies des régions froides (déclaration), 28 p.Pour obtenir gratuitement un exemplaire de Tune ou l’autre de ces publications, communiquer avec le Service des publications du Conseil des sciences du Canada, 100, rue Metcalfe, Ottawa (Ontario) KIP 5M1, tél.: (613) 992-1142; téléc.: (613) 995-0115. ¦ IU«£«*M*»’ V"3’.,r"!wi y Y-.' ' \|ry v.V.; ê ¦ .: -.¦
de

Ce document ne peut être affiché par le visualiseur. Vous devez le télécharger pour le voir.

Lien de téléchargement:

Document disponible pour consultation sur les postes informatiques sécurisés dans les édifices de BAnQ. À la Grande Bibliothèque, présentez-vous dans l'espace de la Bibliothèque nationale, au niveau 1.