Interface : la revue de l'ACFAS, 1 janvier 1994, Janvier
modélisation du climat du global au régional Rosemonde Mandeville du cancer aux champs magnétiques Les levures cobayes de la génétique humaine Le clonage d’embryons humains Association canadienne-française pour l'avancement des sciences adresse de retour: 425, rue De La Gauchetière Est, Montreal (Québec) H2L 2M7 Envoi de publication - Enregistrement n° 6489 01001026651801 Université de Montréal Faculté des études supérieures L’Université de Montréal compte la plus importante faculté des études supérieures au Canada.Elle décerne chaque année environ 275 doctorats et 2 100 maîtrises, certificats et diplômes d’études supérieures spécialisées.La Faculté des études supérieures propose 50 certificats et diplômes d’études supérieures spécialisées, 116 programmes de maîtrise, 75 programmes de doctorat et un programme d’études postdoctorales dans les secteurs suivants : sciences fondamentales et appliquées • aéronautique (Polytechnique) conjoint avec McGill et Concordia • aménagement 3 spécialisations • administration (H.E.C.) 7 spécialisations Ph.D.conjoint avec UQAM, McGill et Concordia • bibliothéconomie et sciences de l’information • chimie • démographie • éducation 11 spécialisations • environnement et prévention • génie (Polytechnique) 12 spécialisations • génie biomédical conjoint avec Polytechnique • géographie • géologie • informatique et recherche opérationnelle • mathématiques • mathématiques de l’ingénieur conjoint avec Polytechnique • physique • psychologie • sciences biologiques • sciences économiques • sciences humaines appliquées • statistique • toxicologie • urbanisme sciences humaines et sociales • administration (H.E.C.) 7 spécialisations Ph.D.conjoint avec UQAM, McGill et Concordia • anthropologie • bioéthique • communication Ph.D.conjoint avec UQAM et Concordia • criminologie • démographie • droit • éducation 11 spécialisations • études allemandes • études anglaises • études françaises • études hispaniques • histoire • histoire de l’art • linguistique et philologie • littérature comparée et générale • muséologie conjoint avec l’UQAM • musique 5 spécialisations • philosophie • psycho-éducation • relations industrielles • science politique • sciences économiques • sciences humaines appliquées • sciences médiévales • service social • sociologie • théologie • traduction • urbanisme pour l’École Polytechnique : Bureau du registraire École Polytechnique de Montréal C.P.6079, succursale A Montréal (Québec) Canada, H3C 3A7 Tél.: (514) 340-4713 sciences de la santé • administration des services de santé • anatomie • biochimie • bioéthique • biologie moléculaire • biopathologie cellulaire • éducation physique • environnement et prévention • ergonomie conjoint avec Polytechnique • génie biomédical conjoint avec Polytechnique • médecine dentaire 4 spécialisations • médecine du travail et de l’environnement • médecine vétérinaire 6 spécialisations • microbiologie et immunologie • nutrition • optométrie • orthophonie-audiologie • pharmacie 6 spécialisations • pharmacologie • physiologie • psychologie • réadaptation • santé communautaire • sciences biomédicales • sciences infirmières • sciences neurologiques • toxicologie • virologie conjoint avec l’Institut Armand Frappier pour l’École des Hautes Etudes Commerciales École des Hautes Études Commerciales 5255, avenue Decelles Montréal (Québec) Canada, H3T 1V6 Tél.: (514) 340-6151 Demandes d’information pour l’Université de Montréal Service des admissions Université de Montréal C.P.6205, succursale A Montréal (Québec) Canada, H3C 3T5 Tél.: (514) 343-6426 VOLUME QU 4 COURRIER 5 COMMENTAIRE LA LOI ET LE DÉSORDRE Roch Denis 60 SCIENCEMONDE BOLIVIE: LE MYSTÈRE DE L’ALTIPLANO RÉSOLU Valérie Borde CHRONIQUES 58 TRANSFERTS 63 SCIENCE-INTER 67 CHERCHEURS RECHERCHÉS 69 SOURCES 72 À SUIVRE INZE • NUMÉRO UN • JANVIER-FÉVRIER 1994 SOMMAIRE * v* g* FACE A FACE 8 Combattre la proliferation du cancer par celle de la connaissance! Bruno Dubuc Qu’il s’agisse du cancer du sein ou de l’effet des champs magnétiques sur l’organisme, il ne faut pas oublier, nous dit Rosemonde Mandeville, que notre corps est un tout.Une bonne raison de diffuser les connaissances sur son fonctionnement.RECHERCHE 14 LA MODELISATION DU CLIMAT Du global au régional Daniel Caya, Stéphane Goyette et René Laprise Quel climat nous réserve l’avenir?Seuls les modèles de simulation du climat peuvent nous permettre d’esquisser une réponse, laquelle se fait d’ailleurs de plus en plus précise.SCIENCECLIPS 46 ET UN JOUR, ELLES FURENT ADMISES À L’UNIVERSITÉ 48 DIÉTÉTIQUE POUR GRANDS BRÛLÉS 49 LA VRAIE VIE D’UN TROTTOIR EN HIVER 50 L’HOMME QUI RÉPERTORIAIT LES ARBRES 26 Cobayes de la génétique humaine Bernard Turcotte Les levures ne doivent plus être considérées comme de simples ouvrières de la fermentation, mais aussi comme de merveilleux petits êtres vivants qui permettent aux scientifiques de décoder les secrets de la génétique humaine.# ENJEUX 34 52 BIOGAZ SOUS CONTRÔLE À LA CARRIÈRE MIRON 54 PARC TECHNOLOGIQUE DE QUÉBEC : UN PREMIER BILAN ,xp oi ' ou science inconsciente?Les points de vue de Raymond D.Lambert, Louise Vandelac, Renée Martin, Abby Lippman et Maureen McTeer, ainsi qu’une entrevue exclusive avec Jerry Hall, le chercheur qui a réussi à cloner des embryons humains.44 La conception d llya Prigogine André Lemelin Le temps est-il une illusion?Les phénomènes que nous vivons sont-ils irréversibles?Réponse d’un Prix Nobel.9^9415 801449936^6^6328 AVIS € ô COURRIER CONSEIL D'ADMINISTRATION 1993-1994 ASSOCIATION CANADIENNE-FRANÇAISE POUR L'AVANCEMENT DES SCIENCES André Boudreau (1er vice-président), langue et linguistique, Université Laval Paul Brazeau (2e vice-président), neuroendocrinologie, Hôpital Notre-Dame Pierre J.Carreau, génie chimique, Centre de recherche appliquée sur les polymères, École polytechnique Jean Doucet, chimie physique, Centre de recherche et de développement Arvida, Alcan International Ltée Colette Dubuisson, linguistique, Université du Québec à Montréal J.André Fortin, biologie, Institut de recherche en biologie végétale, Université de Montréal Nicole Gallo-Payet, médecine, Service d’endocrinologie, Faculté de médecine, Université de Sherbrooke Pierre Gaudet, étudiant, fabrication aérospatiale, École polytechnique Catherine Graham, étudiante, littérature dramatique et théâtre, Université McGill Gilles Jean, énergie, CANMET - LRDE, Énergie, Mines et Ressources Canada François Labrousse, gestion et informatique, Le Groupe C.G.I., Sillery Jean Lafontant, sociologie, Collège universitaire de Saint-Boniface Maryse Lassonde (présidente désignée), neuropsychologie, Université de Montréal Normand Luc Marceau, biologie cellulaire et moléculaire, Centre de recherche, Hôtel-Dieu de Québec Raymond N.Morris, sociologie, Université York, Collège universitaire Glendon, Toronto Bernard Motulsky, affaires publiques, Bourse de Montréal Henri Navert (président sortant), médecine, Phoenix Internationale/Sciences de la vie, Montréal Ginette Ouellette, mathématiques, Collège de Maisonneuve Chantal Saint-Pierre, sciences infirmières, Université du Québec à Hull Jennifer Stoddart, droit civil, Direction des enquêtes, Commission des droits de la personne du Québec Guy Villeneuve (trésorier), administration, Université du Québec à Montréal Francis Weil, physique et mathématiques, Université de Moncton Germain Godbout (secrétaire), chimie, directeur général, Acfas Jean-Marie Demers (archiviste), biologie, professeur retraité, Département des sciences biologiques, Université de Montréal L’Acfas possède une politique éditoriale rigoureuse.Un comité d’édition permanent est mandaté pour superviser la procédure prévue en vue d’une publication sous le nom de l’Acfas; cette procédure comporte une évaluation de chaque texte par un comité formé de spécialistes dans le domaine ou les domaines de la publication.Aucun texte n’est accepté pour publication sans avoir été autorisé par ce comité d’évaluation et par le comité d’édition.Le comité scientifique du congrès annuel est responsable de la sélection des colloques; toutefois, l’acceptation d’une proposition de colloque dans le cadre du congrès ne signifie pas que les textes de ce colloque seront acceptés pour publication sous le nom de l’Acfas.Nous devons donc donner avis que pour toute publication issue du Congrès de l’Acfas ou non, on ne peut se servir du nom de l’Acfas ou de son logo sans notre autorisation.LA PRÉSIDENTE DU CONSEIL D’ADMINISTRATION DE L’ACFAS, MARYSE LASSONDE PERTINENT, PERCUTANT ET UTILE J’ai particulièrement apprécié l’un des articles de votre revue : «La société malade de ses gestionnaires» de M.Alain Chanlat.C’est tout simplement pertinent, percutant et .utile! En effet, il y a sur le marché du travail une prolifération de gestionnaires qui ne sont pas à la hauteur, ce qui a pour conséquence directe d’affecter la santé et l’équilibre des entreprises — privées ou d’État — et de leurs «simples employés».C’est si évident, mais ceci était jusqu’à maintenant le secret le mieux gardé! Bravo à M.Chanlat qui «a osé» écrire sur ce sujet.Bravo à votre revue d’avoir publié son texte.J’ai aimé ce texte parce que M.Chanlat tente d’expliquer ce qui est «humain» dans le monde du travail sans aucun artifice et qu’il remet une juste part de responsabilité à ceux qui prétendent nous gérer pour la CRISE que nous vivons actuellement.Aurons-nous une suite?Je l’espère vivement.Encore merci.Demeurez toujours innovateurs et audacieux.C’est un plaisir de lire Interface! PATRICIA GRONDIN, DORION INTERFACE REVUE BIMESTRIELLE SANS BUT LUCRATIF, INTERFACE EST PUBLIÉE À L’INTENTION DE LA COMMUNAUTÉ SCIENTIFIQUE PAR L’ASSOCIATION CANADIENNE-FRANÇAISE POUR L’AVANCEMENT DES SCIENCES (ACFAS) AVEC L’AIDE DU MINISTÈRE DE L’ENSEIGNEMENT SUPÉRIEUR ET DE LA SCIENCE, DU PROGRAMME SCIENCES ET CULTURE CANADA, DU CONSEIL DE RECHERCHES EN SCIENCES HUMAINES ET DU CONSEIL DE RECHERCHES EN SCIENCES NATURELLES ET EN GÉNIE.DIRECTRICE ET RÉDACTRICE EN CHEF: SOPHIE MALAVOY DIRECTEUR GÉNÉRAL DE L’ACFAS: GERMAIN GODBOUT SECRÉTAIRE DE RÉDACTION: JOCELYNE THIBAULT COMITÉ DE RÉDACTION: PATRICK BEAUDIN, THÉRÈSE BOUFFARD-BOUCHARD, MONA NEMER, DENISE PELLETIER, GARY SLATER, YANICK VILLEDIEU RÉVISION LINGUISTIQUE: HÉLÈNE LARUE DIRECTION ARTISTIQUE: LORTI/MOUSSEAU PUBLICITÉ: PIERETTE LEFRANÇOIS TÉL.: (514) 466-3095 TÉLÉC.: (514) 466-0952 REPROGRAPHIE: PHOTO-SYNTHÈSE IMPRESSION: IMPRIMERIE QUEBECOR SAINT-JEAN LES ARTICLES D’INTERFACE PEUVENT ÊTRE REPRODUITS SANS AUTORISATION À CONDITION QUE L’ORIGINE EN SOIT MENTIONNÉE.POUR TOUTE DEMANDE DE RENSEIGNEMENTS, S’ADRESSER À L’ACFAS, 425, RUE DE LA GAUCHETIÈRE EST, MONTRÉAL (QUÉBEC) H2L 2M7.TÉL.: (514) 849-0045, TÉLÉC.: (514) 849-5558.LA REVUE INTERFACE EST RÉPERTORIÉE DANS POINT DE REPÈRE ENVOI DE PUBLICATION ENREGISTREMENT N° 6489 JANVIER 1994, DÉPÔT LÉGAL: BIBLIOTHÈQUE NATIONALE DU QUÉBEC, PREMIER TRIMESTRE 1994 ISSN 0826-4864 INTERFACE COMMENTAIRE ET LE.DÉSORDRE lie a fort peu retenu l’attention des médias et n’a suscité que de rares interventions publiques avant son adoption, le 15 juin dernier.Pourtant, la loi 198 sur la réduction du personnel et l’imputabilité des sous-ministres et des dirigeants des organismes publics est aujourd’hui une des pièces législatives qui soulève le plus de controverses dans les secteurs de la santé et de l’éducation au Québec.Et pour cause.Ayant été tenus à l’écart du processus d’élaboration de cette loi et privés de leur droit d’être entendus, les organismes visés se sont vus soudainement obligés de procéder à des réductions sans précédent de leur personnel: 20 p.cent du personnel d’encadrement d’ici le 1er avril 1996 et 12 p.cent du personnel des autres catégories d’ici le 1er avril 1998.Largement financées à même les fonds publics, mais disposant d’un statut d’autonomie qui leur a été traditionnellement reconnu, les universités ont pu échapper, à la dernière minute, à l’obligation de devoir appliquer ces quanta de réductions d’effectifs prédéterminées; mais elles n’échappent ni aux compressions budgétaires massives qui viennent de leur être imposées par le gouvernement, ni aux conséquences de ces compressions sur le niveau de leurs effectifs.Le parrain de cette loi, le professeur devenu député Henri-François Gautrin, vantait les mérites de son initiative, en juin dernier, en soulignant qu'il fallait y voir une contribution à l’assainissement des finances publiques du Québec et la marque d’un effort supplémentaire pour «faire plus avec moins».On a pu croire que, par certains de ses aspects, la loi poursuivait de nobles fins: l’imputabilité des sous-ministres et des dirigeants d’organismes publics ou parapublics, la reddition de comptes annuelle à l’Assemblée nationale par chaque établissement, la débureaucratisation des institutions publiques par la réduction des fonctions d’encadrement et de contrôle au profit des fonctions de production.autant de mobiles démocratiques qui paraissaient pouvoir emporter facilement l’adhésion de l’opinion la plus large.Mais pour cela, nul besoin d’une loi qui sabre à grands coups dans le personnel! Il est vite apparu, d’ailleurs, que les objectifs proclamés servaient d’emballage attrayant à une politique qui avait simultanément d’autres visées plus radicales, soit préci- sément la réduction draconienne du nombre d’emplois dans les grands organismes publics.Offensive pêle-mêle et indifférenciée, confondant tout sur son passage — ici le gaspillage de l’appareil gouvernemental, là la diminution brutale d’effectifs déjà insuffisants mais terriblement nécessaires —, la loi 198 devenait ainsi un support législatif tout indiqué pour les compressions budgétaires du gouvernement.Au fur et à mesure que la véritable portée de la loi a pu être comprise, il n’est pas un seul regroupement institutionnel qui n’ait protesté.Car à force de se faire imposer, à coup de réductions budgétaires successives, des «gains de productivité», les organismes voyaient compromise la possibilité d’accomplir la mission qui leur avait été confiée.Comment pouvoir envisager d’autres réductions de personnel, demandait récemment la Fédération des commissions scolaires, alors que le personnel régulier ne suffit pas à la tâche et qu’au cours des dernières années, les commissions ont dû embaucher plus de 10 000 personnes, dans les secteurs professionnel et de soutien, pour faire face à des surcroîts de travail?Et de quelle façon le recours à une plus grande proportion de personnel d’appoint permettra-t-il d’assurer la qualité des services?Ces questions sont aussi au cœur de la réplique que les universités, regroupées au sein de la Conférence des recteurs et des principaux des universités du Québec (CREPUQ), ont formulée à l’égard de la loi Gautrin.En 10 ans, de 1980 à 1990, le personnel des universités s’est accru de 8,9 p.cent, mais le nombre d’étudiantes et d’étudiants a augmenté de 24,5 p.cent.Le nombre de diplômées et de diplômés s’est accru de 45 p.cent — et même de 66 p.cent pour les niveaux de maîtrise et de doctorat —, tandis que les subventions et les contrats de recherche obtenus par les professeures et professeurs augmentaient de 290 p.cent.Par rapport à toutes ces progressions, le nombre de professeurs et de professeures a augmenté, lui, de 15 p.cent.Nouveaux gains de productivité, effort supplémentaire?Mais de quoi s’agit-il, sinon précisément de cela?L’argument massu voulant que les universités devraient elles aussi faire leur part tombe ici à plat, car il est d’ores et déjà démontré que nos institutions ont assumé depuis par Roch Denis Roch Denis ENSEIGNE LES SCIENCES POLITIQUES À l’Université du Québec À Montréal.Il est également PRÉSIDENT DE LA Fédération québécoise DES PROFESSEURES ET PROFESSEURS d’université.5 ACÏ des années, à même la charge de travail de leur personnel, leur pleine part en matière de productivité.La direction de l’Université McGill soulignait récemment que si les gains de productivité qui y sont réalisés sont tout à fait remarquables, ils n’en risquent pas moins de cacher une réduction de la qualité et de la viabilité des programmes de formation au-dessous d’un seuil acceptable.Pour sa part, le Siège social de l’Université du Québec déclarait, dans un rapport au ministère de l’Enseignement supérieur et de la Science, que, pour simplement rattraper la moyenne des universités québécoises au chapitre du rapport élèves-maître, il lui faudrait embaucher dès maintenant près de 400 professeurs et professeures additionnels.Loin pourtant de pouvoir s’engager dans cette voie qui conditionnerait la qualité de la formation des étudiantes et des étudiants, l’Université du Québec s’est vue assener, tout comme les autres établissements, un nouveau train de restrictions financières majeures.PROCHE DE SOUTIEN SCIENTIFIQUE Colloques et congrès 1994-1995 H fin de faire la promotion du français dans le domaine de l'information scientifique et technique, le ministère de l’Éducation et de la Science relance le Programme de soutien au français scientifique pour l'année 1994-1995.Ce programme s’adresse aux milieux universitaire et scientifique québécois.Il comprend deux volets: la tenue de colloques scientifiques québécois et l’organisation de congrès scientifiques internationaux.L’aide versée pour la tenue de colloques scientifiques québécois vise à créer un réseau de communication et d'échange entre les chercheuses et les chercheurs qui s’expriment en français.Par conséquent, seuls les colloques dont le français est la langue officielle utilisée sont admissibles à ce volet.Par ailleurs, l’aide destinée aux congrès scientifiques internationaux vise à soutenir les activités qui se rapportent à ces événements et à encourager les mesures qui favorisent l’usage du français.Les congrès doivent se tenir au Québec et réunir au moins 300 congressistes.Les deux volets du programme accordent la priorité aux projets qui portent sur les sciences appliquées, les sciences pures et les sciences de la santé.Cette priorité a été établie à la suite de résultats d’études qui démontrent que c’est par les publications et les communications liées à ces disciplines que l’usage du français peut être promu de façon significative, Veuillez noter que le dépôt des demandes de subvention doit se faire au plus tard le 25 février 1994 pour le premier volet et le 25 mars 1994 pour le deuxième volet.Pour obtenir plus de renseignements, on peut composer le (418) 644-4736 ou se procurer la brochure intitulée Programme de soutien au français scientifique 1994-1995, en s’adressant à la Direction générale des affaires universitaires et scientifiques, 1033, De La Chevrotière, Édifice Marie-Guyart, Aile René-Lévesque, 4e étage, Québec (Qc) G1R 5K9.H Gouvernement du Québec Ministère de l’Éducation et de la Science Québec:: Les nouvelles coupures de plusieurs centaines de millions de dollars imposées aux universités révèlent une complète ignorance des pressions croissantes qui s’exercent sur l’enseignement et sur la recherche.Elles sont une pure négation des efforts consentis par les personnes qui travaillent dans ces secteurs, comme l’a souligné, de son côté, la Fédération québécoises des professeures et professeurs d’université, dans une déclaration publiée en novembre.L’ampleur des compressions récurrentes qui frappent le réseau universitaire est telle qu’une nouvelle prise de conscience se révèle aujourd’hui nécessaire chez tous les membres du milieu.Et je pense en particulier, ici, aux professeurs et aux professeures.Jusqu’à maintenant, la défense et la promotion de l’institution universitaire se sont faites principalement sur deux plans.D’une part, chaque établissement d’enseignement supérieur et de recherche plaide sa cause devant l’opinion publique pour pouvoir recruter le plus grand nombre d’élèves, et auprès des pouvoirs publics ou privés pour attirer vers lui le maximum de subventions.D’autre part, la défense et la promotion de l’institution universi taire opèrent aussi comme un processus de reconnais sance individuelle, les grands travaux, les grandes créa tions étant sanctionnés par la renommée publique de leurs auteurs et auteures.En d’autres termes, on invite chacun, chacune à défendre et à promouvoir son enseignement, sa part des subventions, sa création scientifique.C’est son université à soi.et le reste, tout compte fait, paraît moins préoccupant.Ces mécanismes de valorisation et de promotion de l’institution universitaire comme facteur essentiel du développement économique, social et démocratique de notre société, vont certes continuer de s’exercer, mais ils ne suffiront plus face aux nouvelles remises en cause de l’université, de son utilité sociale, de sa productivité et de son rôle, remises en cause dont les compressions budgétaires sont le véhicule.Chaque professeur ou professeure, chaque département, chaque discipline peuvent moins que jamais s’en tenir à leurs seules affaires courantes.La défense et l’illustration de l’université vont devoir être prises en charge collectivement parce qu’elles ne résulte ront pas de la simple addition des réalisations ou des honneurs obtenus par chaque établissement et par les per sonnes qui y travaillent.Cette responsabilité incombe à toutes les composantes du milieu universitaire, mais en tout premier lieu aux professeures et professeurs ainsi qu’aux regroupements scien tifiques et syndicaux qui les rassemblent.Des actions concertées sont devenues urgentes et nécessaires.Un dé bat public doit s’engager car les méthodes traditionnelles du lobbying et des pressions ne sont plus adaptées aux nouveaux enjeux.Et quoique certains voudraient en dire, il n’est pas vrai que la crise financière des universités et la planification de leur recul soient une incontournable fatalité contre laquelle rien ne peut être fait ni tenté.N VI E R 6 JA FÉVRIER On recrute des nouveaux pour en faire des anciens de l’UQAM Maîtrises Administration des affaires*, M.B.A.Analyse et gestion urbaines, M.A.(conjointement avec l’ENAP et l’INRS) Art dramatique, M.A.Arts plastiques*, M.A.(programme offert par extension à l’UQAC) Biologie, M.Sc.Chimie, M.Sc.(programme offert par extension à l'UQTR) Communication*, M.A.Danse, M.A.Droit social et du travail*, L L.M.Économique, M.Sc.Éducation, M.Ed.Éducation, M.A.Enseignement au primaire, M.Ed.Études des arts*, M.A.Études littéraires, M.A.Géographie, M.Sc.Gestion de projet*, M.Sc.(conjointement avec l’UQAC, l’UQAH, l’UQAR, l’UQAT et l’UQTR) Histoire, M.A.Informatique de gestion*, M.Sc.A.Intervention sociale*, M.A.Kinanthropologie, M.Sc.Linguistique, M.A.Mathématiques, M.Sc.Muséologie*, M.A.(conjointement avec l'Université de Montréal) Philosophie, M.A.Physique, M.Sc.(entente de collaboration avec l’UQTR) Science politique, M.A.Sciences comptables*, M.Sc.Sciences de la terre, M.Sc.Sciences de l'atmosphère, M.Sc.Sciences de l’environnement, M.Sc.Sciences des religions, M.A.Sexologie*, M.A.Sociologie, M.A.Diplômes de deuxième cycle Études américaines contemporaines (conjointement avec l'UQTR) Études interdisciplinaires sur la mort* Intégration de la recherche à la pratique éducative Intervention ergonomique en santé et sécurité au travail* Météorologie* Systèmes d’information géographique* Doctorats Administration*, Ph.D.(offert en collaboration avec l’École des H.E.C, McGill et Concordia) Communication, Ph.D.(conjointement avec l’Université de Montréal et Concordia) Éducation*, Ph.D.(offert par l’UQAM en association avec l’UQAC, l’UQAH, l’UQAR, l’UQAT et l’UQTR) Études urbaines*, Ph.D.(conjointement avec l’INRS-Urbanisation) Histoire, Ph.D.Linguistique, Ph.D.Mathématiques, Ph.D.Météorologie, Ph.D.(extensionné de McGill) Philosophie, Ph.D.(conjointement avec l’UQTR) Psychologie, Ph.D.Psychologie, D.Ps.Ressources minérales, Ph.D.(programme offert par l'UQAC avec la collaboration de l'UQAM) Science politique Sciences de l'environnement, Ph.D.Sciences des religions, Ph.D.(conjointement avec Concordia) Sémiologie, Ph.D.Sociologie, Ph.D.Renseignements: Registrariat Service aux clientèles universitaires 870, boul.de Maisonneuve Est Local T-3600 Montréal (Québec) H3C 3P8 Tél.: (514) 987-3121 La Fondation de l'UQAM offre des bourses d'études de 4 000 $ à 10 000 $.* programme contingenté Université du Québec à Montréal ,, ,p, FACE À FACE Rosemonde Mandeville combattre la prolifération du cancer par celle de la connaissance! PAR BRUNO DUBUC DU CANCER DU SEIN À L’EFFET DES CHAMPS MAGNETIQUES SUR L'ORGANISME, ROSEMONDE MANDEVILLE A TOUJOURS LA MÊME QUESTION EN TOILE DE FOND: POURQUOI L’ÉQUILIBRE DE NOTRE SYSTÈME IMMU- NITAIRE EST-IL SI SOUVENT PERTURBÉ?SA CONVICTION: NOTRE MODE DE VIE NOUS FAIT OUBLIER QUE NOTRE CORPS EST UN TOUT.SA SOLUTION: DIFFUSER LES CONNAISSANCES SUR SON FONCTIONNEMENT POUR QUE CHACUN COMPRENNE ET SE PRENNE EN MAIN.RENCONTRE AVEC LE MAGNÉTISME D’UNE FEMME D'ACTION.Elle avait choisi la médecine parce qu’elle ne pouvait tolérer la souffrance humaine.«Mais j’étais tellement émo tive que si un malade pleurait, je me mettais à pleurer avec lui!» Elle avait tout de même persévéré pour comprendre la source des maladies, pour essayer d’améliorer les choses mais.«Quand j’ai fini ma médecine, je comprenais moins que lorsque j’ai commencé! J’avais mille et une questions dans la tête et aucun moyen d’y répondre.» Elle, c’est Rosemonde Mandeville, aujourd’hui profes-seure d’immunologie et chercheuse à l’Institut Armand-Frappier (1AF).Mais à cette époque, elle s’appelait encore Rosemonde Sayegh et vivait à Alexandrie, en Égypte.Et la guerre arriva.La guerre des Six Jours et le climat morose qui s’ensuivit.Diplôme de médecine en poche, Rosemonde et son frère aîné décident alors de fuir leur pays pour le Canada.C’est ainsi qu’elle se retrouve à Terre-Neuve, seule province canadienne à employer des médecins étrangers sans les équivalences requises.«Mais la vie était tellement ennuyeuse là-bas que j’ai décidé d’aller à Montréal!» Une décision éclairée puisqu’elle y fera alors une rencontre marquante, celle du Dr Hans Selye, qui l’engage comme assistante de recherche dans son laboratoire.C’est lui qui va lui montrer l’ABC de la recherche scientifique 8 AC et, du coup, lui fournir l’outil qu’elle avait tant cherché.«Il m’a ouvert à ce monde fabuleux et à partir de là, je n’ai jamais regardé en arrière.Surtout, il m’a montré à poser les bonnes questions.» Ce n’est pas pour rien que sur la porte de son laboratoire, on peut lire l’écriteau suivant: «The first step in solving a problem is to see it clearly.» Voilà pour l’essence de la démarche.Qu’en est-il maintenant de la manière?Pour répondre à cette question, Rose-monde Mandeville sort une autre de ses phrases-chocs, aux allures shakespeariennes celle-là : «En recherche, il faut être passionné ou ne pas être, sinon c’est trop déprimant!» Et en choisissant le cancer du sein comme cheval de bataille, elle savait que la passion serait au rendez-vous.• DES MISSILES TÉLÉGUIDÉS CONTRE LE CANCER DU SEIN • C’était vers la fin des années 70.L’Institut Armand-Frappier lui propose de se lancer dans la production d’anticorps monoclonaux (voir l’encadré) en vue d’une éventuelle utilisation clinique.Cette nouvelle arme potentielle contre le cancer venait à peine de voir le jour que déjà certains lui attribuaient l’épithète de «révolutionnaire» au même titre que l’avènement des antibiotiques.Rosemonde Mandeville gardait la tête froide, mais elle avait bien compris la puissance et l’étendue des applications de ces anticorps «faits sur mesure».Sa carrière était lancée.Son premier mandat fut donc de développer des anticorps monoclonaux qui soient capables de reconnaître davantage les cellules cancéreuses que les cellules normales du sein.L’un des plus intéressants, l’anticorps BCD-F9, fut couplé à un marqueur radioactif, l’iode 123.Cet isotope disparaît de la circulation après 24 heures de sorte qu’on peut l’injecter sans danger à des patientes déjà atteintes du cancer du sein la veille du jour où elles doivent subir l’ablation de leur tumeur.L’avantage?Jusqu’alors, avec la mammographie, il demeurait impossible de savoir si la tumeur avait gagné les ganglions de l’aisselle, premier relais de dissémination du cancer du sein.Pour s’assurer du stade du cancer, on devait donc disséquer jusqu’à l’aisselle et enlever ces ganglions.Et bien souvent, on les enlevait pour rien.Mais la technique mise au point par Rosemonde Mandeville en collaboration avec une équipe de Vienne, en Autriche, a permis d’éviter ces opérations inutiles en détectant la moindre métastase dans les ganglions de l’aisselle.En effet, les anticorps marqués qui ont reconnu les ganglions cancéreux «s’allument» littéralement sous nos yeux au cours d’une simple radiographie, grâce aux 9 AC radiations émises par l’iode radioactif.«Nous sommes en train de négocier avec une compagnie américaine pour mener des études cliniques à grande échelle avec I’immu-nolymphoscintigraphie (c’est le nom scientifique de la technique dans toute sa poésie.)», souligne la chercheuse, visiblement contente d’avoir mis au point cette nouvelle technique de dépistage.LES ANTICORPS MONOCLONAUX Si l’on injecte à un lapin des cellules du cancer du sein, celui-ci développera tout un arsenal d’anticorps contre certaines grosses protéines à la surface de la cellule cancéreuse appelées «antigènes».Chaque lymphocyte synthétisera un type particulier d’anticorps.Certains de ces anticorps reconnaîtront des protéines communes à toutes les cellules humaines, ce qui n’est pas d’un grand intérêt.Mais d’autres seront dirigés vers certains antigènes que l’on retrouve uniquement sur les cellules cancéreuses.C’est ceux-là qui nous intéressent.Malheureusement, ces lymphocytes ont une demi-vie de seulement trois jours in vitro, ce qui ne permet pas de recueillir une très grande quantité d’anticorps.La technique des anticorps monoclonaux remédie à cet inconvénient.En fusionnant un lymphocyte produisant l’antigène voulu avec un myélome (une cellule tumorale de lymphocyte B), on obtient une cellule hybride qui hérite du meilleur de ses deux parents.Elle se reproduit ensuite ad vitam æternam tout en continuant de synthétiser le même anticorps, d’où la quantité phénoménale produite.Les raisons qui motivent Rosemonde Mandeville à s’intéresser au cancer du sein sont multiples.D’abord, c’est le cancer le plus fréquent chez la femme; au Canada, une femme sur neuf en est atteinte, ce qui est énorme, insiste-t-elle.Ensuite, son développement très lent rend possible un dépistage précoce et une intervention à un stade où les dégâts sont encore très limités.Mais ce qui a surtout attiré la chercheuse, c’est que paradoxalement, les nouvelles techniques de traitement n’ont pas encore réussi à diminuer le taux de mortalité des femmes qui en sont gravement atteintes.Que faire alors?«On pourrait diminuer de près du tiers la mortalité due au cancer du sein si l’on faisait attention aux facteurs environnementaux», déclare la chercheuse.De retour d’un congrès national sur le cancer du sein, elle se dit agréablement surprise de voir qu’enfin les gens commencent à considérer des facteurs tels la diète, l’activité physique et le stress comme importants dans la prévention du cancer du sein.«Mais moi, ça fait des années que je le dis et que je l’écris ! » Dans son premier livre publié en 1988 et intitulé Le cancer du sein, le comprendre pour le prévenir et le guérir, son message était effectivement très clair: la diminution du cancer du sein passe par la prévention.«Quand j’ai conclu dans mon livre que le cancer du sein était surtout un cancer de l’environnement, les médecins m’ont prise pour une autre illuminée qui écrit sur le cancer.Mais moi, ce que je présentais, c’était des faits scientifiques bien connus et bien documentés.Ce n’est pas ma faute si plusieurs traits de notre mode de vie 015“ ¦1015- -10)5- -1010- 10)0- —10)0- -1005- ¦1005- FIGURE 1 REPRÉSENTATION DES ÉLÉMENTS CLIMATIQUES Il est impératif de traiter tout renseignement venant de l’observation ou produit par un modèle afin de pouvoir l’analyser de façon convenable.D'une façon générale, les traitements portent le nom de «diagnostics».Les traitements regroupent les méthodes algébriques, statistiques et numériques qui sont, en général, appliquées à des données.Ils nous permettent d’étudier et d'analyser le comportement du système climatique sous des standards conventionnels.Il existe plusieurs standards ou modes de représentation des données d'observation.Deux d'entre eux reviennent fréquemment: 1) les cartes à pression constante, où un champ climatique est représenté par des lignes de valeur constante et 2) des sections méridiennes avec les latitudes en abscisse et la hauteur géométrique (ou la pression) en ordonnée, où un champ climatique est aussi représenté par des lignes de valeur constante.La figure 1A présente une section méridienne de la température moyenne (°C) ainsi qu'une section méridienne de la circulation moyenne zonale de l'atmosphère (m sec '), soit la circulation le long des parallèles, en fonction des latitudes allant du pôle Nord au pôle Sud pour les mois de juin à août.Nous remarquons d'abord à la figure 1A une forte dépendance de la température par rapport à la latitude et à l'altitude; elle décroît de l’équateur vers les pôles et de la surface jusqu'à la tro-popause (limite supérieure de la troposphère: 11 km aux pôles et 16 km à l'équateur).La circulation moyenne zonale (figure 1B), qui représente la composante ouest-est du vent (le long des cercles de latitude), met en évidence les alizés intertropicaux (vent d'est en surface) et les courants jet des latitudes moyennes associés au forts gradients de température près de la tropopause (vent d’ouest).La figure 1C représente une carte de la distribution de la pression moyenne (hPa) du mois de janvier au niveau de la mer en fonction des latitudes.Cette distribution est le résultat du réchauffement solaire différentiel, de la distribution géographique des océans et des continents ainsi que de la circulation générale de l'atmosphère.Nous remarquons l'immense anticyclone (système de haute pression) qui couvre la majeure partie du continent asiatique ainsi que l'anticyclone des Açores (pour les Européens) ou des Bermudes (pour les Américains).Le centre de basse pression quasi permanent situé près de l'Islande est le lieu où vont mourir la plupart des perturbations qui nous affectent.Sources Figure 1a : NEWELL, R.E., KIDSON, J.W., VINCENT, D.6.et BOER, GJ.The General Circulation of the Tropical Atmosphere, vol.1 et 2, Cambridge (MA), Massachusetts Institute of Technology, 1972.Figure 1c: CRUTCHER, H.L.et MÉSERVE, J.M.«Selected Level Hights,Temperatures and Dew Points for the Northern Hemisphere», NAVAIR 50-1C-52, Naval Water Service Command, Washington DC, 1970./ Espace A Radiation terrestre H2O, N2, O2, CÛ2, O3, etc.Aérosol Variations de la radiation solaire Nuages Atmosphère Couvertdè glace-neige A Interaction atmosphère-terre Biomasse A A A Interaction atmosphère-glace J Mer-glace Échange Contrainte de chaleur du vent & Précipitations Évaporation A Variations de Sol la composition atmosphérique Variations des caractéristiques du sol (relief des montagnes, végétation, albédo, etc.) Terre Variations des profils des fonds marins, de la salinité de l'eau, etc.Ce schéma présente les composantes physiques du système climatique ainsi que les processus qui influent sur le climat.Les cinq composantes sont l’atmosphère, l’hydrosphère, la cryosphère, la biosphère et la lithosphère.L’atmosphère est la composante qui comporte le plus haut degré de variabilité spatiotemporelle.Son temps de réponse caractéristique varie entre une heure et un mois selon le phénomène considéré.L’hydrosphère correspond aux océans, à l’eau liquide de surface et aux nappes phréatiques.Les couches de surface des océans, une fois couplées avec l’air ou la glace marine adjacente, répondent à tout changement thermique, en une période allant de quelques mois à quelques années, tandis que les couches océaniques profondes ont un temps de réponse thermique de quelques siècles à quelques millénaires.La cryosphère rassemble les glaces marines, les inlandsis, les glaciers et toute la neige continentale.La couverture nivale ainsi que les étendues de glaces marines subissent une grande variation annuelle, tandis que les glaciers et les inlandsis voient leur volume et leur masse varier sur des échelles de quelques siècles à quelques millénaires.La lithosphère est constituée des masses continentales.La configuration des continents et la topographie ne varient que sur de très grandes échelles de temps, de l’ordre des millénaires.La biosphère comprend l’ensemble de la faune et de la flore qui peuplent les océans et les continents.C’est ici que nous retrouvons le plus vaste éventail de temps de réaction; des changements de végétation peuvent survenir à l’intérieur de quelques mois mais aussi prendre quelques siècles en réponse à des variations de température, de précipitations et d’autres éléments climatiques.Pour compléter la description du système climatique, voyons quels processus déterminent et maintiennent l’évolution du climat.Au regard des échelles de réactions temporelles reliant les différentes composantes du système climatique, qualifions de «processus internes» les interactions qui affectent le climat et en dépendent (flèches creuses sur le schéma) et de «processus externes» celles qui affectent le climat mais n’en dépendent pas (flèches pleines).Par exemple, parce que l’intensité du rayonnement solaire varie peu durant la période pour laquelle nous définissons l’état climatique, elle est considérée comme constante.De la même façon, la configuration des océans et des continents demeure inchangée durant cette même période.Par contre, des variations à long terme de ces processus peuvent devenir la cause de changements de climat (la variation de l’intensité du rayonnement solaire et la variation des concentrations des gaz à effet de serre dans l’atmosphère en sont des exemples).Les processus internes sont ceux qui participent activement à l’établissement des liens entre les composantes en favorisant constamment les échanges d’énergie et de matière.Le processus fondamental qui maintient le climat tel qu’il est observé actuellement est le réchauffement solaire différentiel entre l’équateur et les pôles.Ce réchauffement différentiel maintient la circulation atmosphérique et la circulation océanique, qui assurent la distribution de l’énergie nécessaire au maintien de l’équilibre énergétique du système climatique.Source du schéma: HOUGHTON, J.T.The Global Climate, Cambridge (Angleterre),Cambridge University Press, 1984, 233 p.JANVIER - FÉVRIER 17 ACE LaJ FIGURE 2 AMÉLIORATION DE LA RÉSOLUTION SPATIALE AVEC LE MRC Cette figure illustre le masque régional terre-océan-glace marine tel que défini dans le MCG (figure 2A) et le MRC (figure 2B).La terre ferme est représentée par la couleur marron, l’océan et les étendues lacustres en bleu clair et la glace marine en bleu foncé.Nous remarquons, avec le MRC, l'augmentation de la précision de la configuration continentale ainsi que les divers contrastes existant dans les régions limitrophes.Le masque terre-océan-glace marine est un paramétre important pour le climat régional car les types de surfaces influent fortement sur les régimes thermiques et hydriques de la région et, par conséquent, sur la circulation atmosphérique régionale.confiance qu’on peut avoir dans la prévision des effets associés aux changements mondiaux.On peut faire une analogie entre un modèle climatique et un simulateur de vol : les deux tentent de reproduire le comportement d’un système complexe.On utilise un simulateur de vol pour vérifier le comportement d’un avion dans une réalité «virtuelle», où les conséquences de la réalité «vraie» pourraient être catastrophiques.De même, on utilise un modèle climatique parce qu’il est impossible de modifier l’environnement réel afin d’estimer les conséquences des changements mondiaux sur le climat.• QU'EST-CE QUE LE CLIMAT?• La perception populaire du climat, qui fait référence aux températures et aux précipitations attendues dans une région pendant une période déterminée de l’année, correspond à une vision simplifiée à l’extrême du système thermodynamique complexe qu’est l’atmosphère.La détermination du climat d’une région, si l’on veut pouvoir le comparer quantitativement au climat d’une autre région, demande l’analyse statistique des éléments climatiques de cette région durant une période de temps de longueur finie.Cette analyse permet de caractériser le climat à l’aide de la moyenne et de la variabilité autour de cette moyenne de chacun des éléments du climat.Les nombreux éléments climatiques sont les variables et les combinaisons de ces variables météorologiques.Ce sont, outre la température et les précipitations, la pression atmosphérique, la quantité de vapeur d’eau dans l’air, la vitesse des vents et la couverture nuageuse.Les combinaisons de variables introduisent d’autres éléments du climat comme les flux de chaleur, d’humidité et de quantité de mouvement, ainsi que l’énergie cinétique et l’énergie potentielle disponibles.Cette liste n’est pas exhaustive, mais elle présente les éléments fréquemment utilisés pour définir le climat.Avant d’élargir notre définition du climat, il est important de distinguer la climatologie (on considère ici la climatologie physique ou quantitative) de la météorologie, puisque les deux sciences semblent intimement liées.Ces disciplines, qui ont pour objet le même système et les mêmes quantités de ce système, ont trait à la conservation de la masse, de l’énergie et de la quantité de mouvement dans l’atmosphère.La météorologie vise, d’une part, la description de l’état de l’atmosphère en un temps précis et, d’autre part, la prévision d’états ultérieurs déterminés tant à partir de l’état présent qu’à l’aide de lois issues de la thermodynamique et de la mécanique des fluides.Elle consiste en la description de chacun des états de la succession des événements atmosphériques.Une description météorologique décrit donc un état précis de l’atmosphère (par exemple, une dépression avec une valeur centrale de 988 hPa) pour un lieu précis (se situant sur le lac Ontario) à un instant précis (à 12 h 00 le 29 janvier 19911).La climatologie, quant à elle, sert à obtenir une descrip- 18 tion de l’état de l’atmosphère applicable à l’ensemble d’une longue période (plusieurs années) plutôt qu’à un instant précis.Elle vise à définir le comportement statistique de l’atmosphère durant cette période.Cette description de l’atmosphère filtre les fluctuations rapides causées par le passage des systèmes météorologiques (qui ont une durée de quelques jours) pour définir un état constant durant une période.On dira, par exemple, que le climat de telle région a été caractérisé par une température moyenne de 15 degrés au cours des 10 dernières années.Les fluctuations du temps, qui se produisent à des échelles temporelles courtes par rapport à la période considérée, contribuent à augmenter la variabilité autour de l’état moyen.L’importance de cette variabilité devient, à son tour, une caractéristique du climat.On peut ainsi raffiner la description du climat donnée précédemment de la façon suivante: le climat de telle région est caractérisé par une température moyenne de 15 degrés avec une variabilité de 20 degrés autour de cet état moyen.Cette approche permet d’introduire l’effet des fluctuations atmosphériques de courte durée dans la description du climat.De plus, le climat est également influencé par les forçages propres à la région étudiée parce que ceux-ci agissent continuellement sur l’écoulement atmosphérique.On entend par «forçages», les paramètres qui agissent sur le climat mais qui n’en dépendent pas.Par exemple, le rayonnement solaire incident au sommet de l’atmosphère, l’effet de la rotation de la Terre, la distribution géographique des océans, les caractéristiques du sol, la composition chimique de l’atmosphère, etc.Chacun de ces forçages varie en fonction de la situation géographique de la région étudiée.Le climat d’une région est donc un état stationnaire défini par l’analyse statistique des séries temporelles des éléments climatiques (qui sont, rappelons-le, les variables et les combinaisons de variables météorologiques).Les choix de l’étendue de la région et de la longueur de la période auxquels les statistiques sont appliquées, dépendent du problème à étudier.11 est impossible de définir parfaitement le climat d'une région (lequel, théoriquement, est un état stationnaire permanent) parce que le système climatique est en constante évolution.Il est plus utile de définir l’état climatique de cette région pour une période précise.La description de la période pour laquelle l’ensemble de statistiques est calculé doit faire partie des paramètres définissant cet état climatique au même titre que la description de la région.En effet, l’état climatique évalué pour une période de 30 années différera probablement de celui évalué pour 50 années ou même de celui évalué pour une autre période de 30 années.Le problème de la longueur de la période est d’ailleurs fort complexe.D’un point de vue purement théorique, on pourrait vouloir définir le climat comme l’ensemble de statistiques appliquées à une période infiniment longue.Cependant, avec une telle approche, il devient impossible FIGURE 3 TOPOGRAPHIE VUE PAR LE MCG ET LE MRC La figure 3A représente la topographie telle que vue par le MCG du Centre climatologique canadien et la figure 3B, celle vue par le MRC de l'UQAM.La résolution du MCG est d’environ 500 km, tandis que celle du MRC est d'environ 45 km.Le domaine d'étude est localisé au-dessus du Québec, allant au nord jusqu'à la Terre de Baffin, au sud jusqu'aux Bahamas, à l’ouest jusqu'au Colorado et à l'est jusqu’au milieu de l'océan Atlantique Nord.L'échelle de couleur adoptée ici représente les bas niveaux en bleu foncé jusqu'à environ 200 m, les teintes grises dénotent des élévations de plus de 400 m et la couleur blanche, des sommets de plus de 700 m.Nous remarquons que la représentation spatiale de la topographie par le MRC est beaucoup plus précise qu'elle ne l'est avec le MCG.Le relief accidenté au Nouveau Québec, la chaîne des Appalaehes ainsi que les Rocheuses nous apparaissent beaucoup plus près de la réalité avec le MRC.Le relief extrême du Groenland y est également mieux représenté._____ m / 19 AC Encadré 2.REPRÉSENTATION DES PROCESSUS DU SYSTÈME CLIMATIQUE Le schéma présente les processus qui influent sur les variables climatiques pronostiques dans un MCC.Les équations du mouvement décrivent l’écoulement du fluide atmosphère ainsi que le transport de ses caractéristiques thermodynamiques, dynamiques et chimiques au-dessus d’une sphère en rotation.Les variables pronostiques sont la température, le vent, l’humidité, la pression et la densité pour l’atmosphère, la température, le contenu en eau et la quantité de neige pour la surface.L’évolution des variables atmosphériques est contrôlée par des forces qui engendrent, maintiennent et modifient la circulation atmosphérique, laquelle à son tour transporte l’eau, la chaleur et la quantité de mouvement d’un point à un autre.Le bilan énergétique du système climatique est déterminé en comptabilisant les apports et pertes d’énergie de chacune de ses composantes.Ces apports ou pertes se présentent sous la forme de chaleur sensible, de chaleur latente, de rayonnements solaire et infrarouge.Le bilan hydrique est déterminé en comptabilisant les apports et pertes d’eau des composantes du système climatique, lesquels apparaissent sous forme d’évaporation et de précipitations.Tous ces processus sont fortement reliés entre eux.Prenons comme exemple la condensation de la vapeur d’eau.Elle représente une perte pour la masse de vapeur d’eau atmosphérique mais un gain d’humidité pour le sol.De plus, la chaleur latente libérée durant le changement de phase (eau liquide en vapeur d’eau) s’ajoute directement à l’énergie thermodynamique de l’atmosphère.Les nuages créés durant ce processus affecteront les flux de rayonnements solaire et terrestre, et par conséquent les taux de réchauffement et de refroidissement radiatifs.Les taux de réchauffement et de refroidissement affecteront à leur tour les gradients de pression qui influent sur le mouvement de l’air.En conclusion, disons que le mouvement de l’air est influencé par lui-même ainsi que par les processus physiques qui ne dépendent pas de l’écoulement proprement dit.Plusieurs processus climatiques importants ont lieu à des échelles spatiales beaucoup plus fines que les dimensions de la maille des MCC et des MRC.Puisque ces processus ne peuvent être engendrés par le modèle, ils doivent être introduits d’une autre façon.L’effet d’ensemble de ces processus est donc calculé de façon paramétrique; c’est ce qu’on appelle dans le jargon du métier le «paramétrage des effets Rayonnement solaire Rayonnement infrarouge Équations du mouvement Équations du transfert radiatif équation de continuité Équation thermodynamique Équation de conservation pour l’eau Flux de chaleur latente équation d’état Flux de chaleur sensible Evaporation Précipitations Hydrosphère-lithosphère-cryosphère-biosphère physiques de sous-échelle».De plus, l’ensemble des caractéristiques géophysiques de la surface du sol doivent être prises en considération au moment de leur assigner une valeur moyenne à l’intérieur de la maille.Les différents processus paramétrés sont établis pour la plupart de façon empirique, en déterminant des «lois» représentant des relations statistiques entre les différentes variables.Ces lois sont élaborées soit sur la base d’observations localisées ou provenant de campagnes de mesures, soit sur la base d’autres modèles beaucoup plus spécialisés.d’étudier les changements climatiques causés par une variation lente des forçages externes (par exemple, la modification de la concentration des gaz à effet de serre2, la modification de l’utilisation des sols, le changement de la température des océans, etc.).On veut toutefois que la période soit suffisamment longue pour qu’on puisse filtrer les variations rapides causées par une succession d’événements météorologiques (par exemple, les orages, les ouragans et les tornades).Avec une telle définition, la notion de changement climatique devient la différence entre deux états climatiques de même type.Par exemple, si l’état climatique d’une décennie est défini par l’analyse des éléments climatiques observés durant cette décennie, la différence entre les analyses des éléments climatiques observés durant deux décennies successives définira le changement climatique survenu en 10 ans.Dans le contexte de la modélisation numérique du climat, on utilise généralement des périodes qui s’approchent de la période de 30 ans recommandée par l’Organisation météorologique mondiale3.Cette période est jugée suffisamment longue pour filtrer la variabilité interannuelle des variables météorologiques et suffisamment courte pour permettre une bonne disponibilité des données, le réseau de stations météo- INTÉÎfrAC CMXCIV rologiques sur certains points du globe n’étant en place que depuis peu de temps.Il est important de souligner que la période de 30 années couramment utilisée n’est qu’une période parmi d’autres pour définir l’état climatique.Une vaste compilation d’observations météorologiques couvrant plusieurs décennies, effectuée par Newell et al.4, comporte plusieurs analyses des distributions spatiale et temporelle de divers éléments climatiques.La figure 1 illustre la diversité des représentations possibles des résultats d’une telle analyse statistique, pour quelques-uns des éléments climatiques.Ces types de compilation servent de référence au moment de la validation de modèles climatiques, celle-ci se faisant par comparaison de l’analyse statistique des variables météorologiques provenant du modèle avec celle des observations.Une telle validation des modèles est essentielle avant de pouvoir les utiliser comme outil de recherche sur les modifications climatiques.Comme nous l’avons mentionné précédemment, le climat est défini par une analyse statistique des séries temporelles des différents éléments climatiques.Dans ce contexte, un climat observé est défini par l’analyse statistique des éléments climatiques observés et un climat simulé est défini par la même analyse portant cette fois sur les éléments climatiques provenant d’un modèle.Cela signifie que la simulation d’un climat consiste à générer des séries temporelles de variables météorologiques, de façon qu’elles possèdent le même comportement statistique que les variables observées.Un modèle simule adéquatement le climat lorsque l’analyse statistique complète des variables simulées est semblable à celle des variables observées.Bien que la caractérisation du climat se fasse surtout par l’application de statistiques aux variables atmosphériques, il faut néanmoins éviter d’associer le système climatique à la seule atmosphère.Ce système fait plutôt référence à l’ensemble composé de l’atmosphère, de l’hydrosphère, de la cryosphère, de la lithosphère et de la biosphère.Chacun de ces sous-systèmes interagit fortement avec l’atmosphère pour façonner le climat.L’encadré 1 présente les cinq composantes du système climatique et illustre les interactions entre chacune d’elles.• LA MODÉLISATION NUMÉRIQUE DU CLIMAT • Le système climatique, qui est un système thermohydrodynamique, obéit aux lois de la mécanique des fluides et de la thermodynamique.Ces lois physiques, qui ne sont que la version mathématique de l’expression «rien ne se perd, rien ne se crée », s’appuient sur des principes de conservation de masse, d’énergie et de quantité de mouvement.Ces lois dictent l’évolution du fluide atmosphérique en gouvernant les variables météorologiques suivantes: la température, la pression, la vitesse du fluide, le contenu en eau de l’atmosphère et la densité du mélange de gaz atmosphériques.Les lois physiques apparaissent sous forme d’équations mathématiques où les différents termes représentent les mécanismes qui influent sur les variables météorologiques.Parmi ces mécanismes, on trouve principalement le rayonnement solaire, le rayonnement infrarouge (rayonnement terrestre5), l’influence du sol et des océans.Chacun de ces mécanismes principaux se compose de plusieurs phénomènes.Par exemple, pour le traitement du rayonnement solaire, on doit considérer les paramètres orbitaux de la Terre et du Soleil.En effet, l’orbite de la Terre autour du Soleil et le spectre d’émission de ce dernier influent directement sur la quantité d’énergie qui atteindra la Terre.De la même façon, le traitement de la radiation solaire doit aussi tenir compte des caractéristiques de l’atmosphère terrestre qui affectent la quantité d’énergie qui atteindra la surface de notre planète (encadré 2).Lorsque les lois sont exprimées sous forme mathématique pour représenter l’écoulement d’un fluide à la surface d’une sphère en rotation (la circulation atmosphérique à la surface de la Terre), on retrouve un système de sept équations et de sept inconnues qui sont: r, la densité de l’air; u, la composante ouest-est du vent; v, la composante sud-nord du vent; w, la composante verticale du vent; T, la température de l’air; p, la pression atmosphérique; q, la quantité de vapeur d’eau dans l’air.Ce système dicte l’évolution des différentes variables météorologiques.Sa résolution permet donc de produire les séries temporelles de chacune des variables.Un problème demeure, cependant: il n’existe pas de solution analytique à ce système d’équations.On doit donc recourir aux méthodes numériques pour obtenir une solution.Ces méthodes permettent de déterminer l’évolution des variables par des sauts discrets dans le temps en exprimant le problème sous une forme compatible avec le calcul par ordinateur.Chaque saut dans le temps permet d’ajouter une valeur nouvelle aux séries temporelles des variables.II faut aussi mentionner que la solution du système d’équations donne une réponse pour un seul endroit.Pour obtenir de l’information sur une région, on divise premièrement cette région en un nombre fini de sous-volumes en la recouvrant d’une grille et, deuxièmement, on effectue les calculs pour chacun des sous-volumes ainsi définis.Un modèle numérique de climat n’est finalement rien d’autre qu’un immense programme informatique capable de résoudre le système d’équations à chacun des points de la grille qui divise la région.Il est cependant important de mentionner qu’à cause de la très grande complexité du système d’équations à résoudre, ces programmes sont gigantesques.Il existe une vaste gamme de modèles, du plus simple au plus complexe, permettant de satisfaire différents besoins.La complexité des modèles dépend, entre autres, du nombre d’éléments que l’on désire représenter ainsi 21 J A que du nombre de processus qui déterminent leur évolution temporelle et leur distribution spatiale.Les processus à considérer dans un modèle climatique sont le rayonnement solaire et le rayonnement infrarouge, pour les modèles simples, auxquels on ajoute la convection et la dynamique pour les modèles plus complexes; on complète par la diffusion verticale, la traînée exercée par les ondes de relief, l’hydrologie, la représentation des surfaces telles que la terre, l’océan et la calotte polaire, et leur contrôle respectif sur les transferts énergétiques pour les modèles encore plus complexes.À chaque type de modèle, correspond un système d’équations à résoudre dont la complexité est intimement liée à la complexité du modèle.On dénombre quatre types principaux de modèles climatiques: 1.Les modèles «à bilan d’énergie» servent à évaluer la température de la surface par le calcul du bilan radiatif planétaire (rayonnements solaire et infrarouge).Ce sont des modèles «de dimension zéro» parce que toute la planète est considérée comme uniforme et que les calculs sont effectués pour l’ensemble du globe.2.Les modèles «radiatif-convectif» permettent de calculer le profil vertical de la température en tenant compte des transferts radiatifs, auxquels on ajoute une représentation des transports verticaux d’énergie.Ces modèles sont dits «de dimension un» parce qu’ils prennent en considération la distribution verticale des différentes variables atmosphériques.3.Les modèles «statistiques dynamiques» sont souvent utilisés pour simuler l’influence de la circulation méridienne moyenne sur les températures.Ils représentent avec une certaine précision les processus de surface, mais la circulation atmosphérique est représentée dans un cadre statistique.Ce sont des modèles «de dimension deux» parce que les distributions latitudinale et verticale des variables atmosphériques sont considérées.4.Les modèles «de la circulation générale de l’atmosphère» (MCG) sont des modèles complexes, basés sur des principes physiques, qui représentent les mouvements de l’atmosphère dans sa structure tridimensionnelle.Ce sont les modèles les plus complets mais aussi les plus difficiles à utiliser.La conception et l’utilisation de ces modèles demandent en général une infrastructure importante et une équipe de plusieurs personnes.Tel que mentionné précédemment, un modèle de circulation générale (MCG) est un programme informatique permettant de résoudre numériquement le système d’équations.Il faut toutefois souligner que ce système d’équations est très complexe et que le programme permettant de le résoudre doit effectuer environ 100 000 instructions pour chaque saut dans le temps et à chacun des points de grille.La longueur du pas de temps est imposée par des contraintes de stabilité numérique; elle est de l’ordre d’une vingtaine de minutes pour les MCG.La grille d’un MCG avec une résolution d’environ 500 km contient autour de 100 000 points.On se rend facilement Les figures 4A et 4B représentent, pour le MCG et pour le MRC, le champ d'humidité relative à la pression de 750 hPa (environ 2,5 km en altitude) et le champ de pression moyenne au niveau de la mer en traits rouges.On note une dépression centrée sur Terre-Neuve avec un creux barométrique s'étendant le long de la côte Est américaine jusqu’en Floride.Dans le champ d’humidité, la couleur noire dénote les régions sèches et la couleur blanche, les régions très humides.Nous remarquons de nouveau la précision du MRC et sa capacité de reproduire un champ d’humidité qui ressemble beaucoup plus à un signal météorologique, contenant la virgule caractéristique, en comparaison avec le même champ produit par le MCG, beaucoup plus flou et évasif.FIGURE 4 REPRÉSENTATION DES CHAMPS D’HUMIDITÉ PAR LE MCG ET LE MRC /~Jrs FIGURE 5 REPRÉSENTATION THERMIQUE DES BAS NIVEAUX DE L'ATMOSPHÈRE PAR LE MCG ET LE MRC Nous observons en couleur aux figures 5A et 5B la distribution thermique des bas niveaux de l'atmosphère.La couleur rouge dénote des températures chaudes et la couleur bleue, des températures froides; les traits noirs, le champ de pression au niveau moyen de la mer et les barbules, le champ de vent horizontal.La correspondance entre le passage du front froid et les forts.taux d'humidité au large de la côte Est américaine est manifeste dans le cas du MRC.Nous remarquons aussi, conformément à la théorie, que le vent souffle autour du centre de basse pression en sens anti-horaire avec une certaine circulation au travers des isobares, vers la basse pression.Notons que les Grands Lacs sont absents dans la représentation géographique du MCG à la figure 5A, mais bien présents dans celle du MRC (figure 5B).Ceux-ci ont des propriétés thermiques qui font apparaître une poche d'air plus chaud, dénotée par la coloration vert turquoise au-dessus des lacs Érié, Huron et Ontario.compte qu’une simulation de 30 années par pas de 20 minutes sur une grille contenant environ 100 000 points demande une énorme quantité de calculs.La résolution spatiale des MCG est en fait limitée par cette quantité de calculs.Il existe une règle en modélisation numérique qui dit que le nombre de calculs augmente avec le cube de la résolution horizontale.Cela signifie qu’une augmentation de la résolution d’un MCG d’une maille de 500 km à une maille de 50 km augmente le nombre de calculs par un facteur 1000.Pour bien comprendre les conséquences de cette contrainte, mentionnons que l’intégration d’un MCG, à l’aide des ordinateurs les plus puissants, demande environ une demi-journée de calcul par année de simulation; l’intégration d’un MCG avec une maille de 50 km demanderait donc 500 jours de calcul par année de simulation.L’énorme quantité de calculs requis empêche l’intégration de MCG à haute résolution.Il faut donc trouver un compromis acceptable entre la précision désirée et les ressources informatiques disponibles.La solution généralement adoptée consiste à augmenter la finesse de la maille sur une région limitée du domaine d’intégration.Cette approche débouche sur un cinquième type de modèles climatiques, les modèles régionaux de climat (MRC).Un tel type de modèles est actuellement en développement au Département de physique de l’Université du Québec à Montréal (UQAM).Les MRC simulent le climat sur la même base que les MCG, mais avec une résolution spatiale environ 10 fois supérieure.• LE MODÈLE RÉGIONAL DE CLIMAT DE L'UQAM • La communauté climatologique reconnaît depuis quelques années que la grande faiblesse des MCG réside dans leur faible résolution spatiale6 7.Le rapport de l’In-tergovernmental Panel on Climate Change (IPCC) mentionne que la résolution horizontale des MCG est trop grossière pour la plupart des usages de simulations climatiques.En effet, la résolution spatiale des MCG actuels, avec une maille d’environ 350 km, ne permet pas de représenter correctement la distribution géographique des précipitations, les événements précipitants dans un système météorologique ayant des dimensions caractéristiques de l’ordre de 10 km.Le rapport de l’IPCC souligne également que l’interpolation passive des données de MCG sur une grille fine est inadéquate et que l’approche la plus fiable consiste à utiliser un modèle régional complet imbriqué dans un MCG.Cette approche de la simulation du climat régional est très récente et seulement quelques modèles sont actuellement en développement dans le monde.Le premier MRC a été conçu par Giorgi et al.8 au National Center for Atmospheric Research (NCAR) au Colorado aux États-Unis: on a couplé le modèle de la Penn State University avec le MCG du NCAR.Le plus grand avantage lié à l’utilisation du MRC du NCAR ainsi obtenu qJ7&— i O \ _ *TO E Cfl est apparu dans la représentation des événements de précipitations.Les simulations faites à l’aide de ce MRC ont, en effet, débouché sur une représentation des champs d’humidité atmosphérique et de précipitations beaucoup plus conformes aux observations climatologiques.C’est d’ailleurs l’amélioration de la simulation des processus reliés au cycle hydrologique qui a entraîné le développement des MRC.Le MRC mis au point à l’UQAM est basé sur un modèle (le modèle MC2, développé par un groupe de chercheurs de Montréal sous la gouverne du Dr André Robert*) utilisant les techniques numériques les plus modernes et dont la formulation est suffisamment efficace pour permettre des simulations de longueurs comparables à celles des MCG.Ces techniques numériques sont tellement performantes que le modèle MC2 peut être employé pour des problèmes aussi différents que la prévision météorologique et l’écoulement supersonique d’un fluide autour d’un obstacle.Pour produire un MRC à partir de ce modèle, il faut lui ajouter une formulation complète des processus physiques nécessaires à la simulation du climat, c’est-à-dire les rayonnements solaire et infrarouge, la représentation du sol, etc.Notre choix, qui a porté sur la formulation des processus physiques du MCG canadien de deuxième génération (MCGII9) du Centre climatologique canadien, a été motivé par l’excellente performance du MCG canadien (reconnue par l'IPCC, 1990).La combinaison du MC2 avec les processus physiques du MCGII débouche sur un modèle qui rassemble les techniques les plus modernes de la simulation numérique.Ce modèle à haute résolution peut être utilisé pour n’importe quelle région du globe.Il suffit de préciser les coordonnées géographiques de la grille pour que le modèle fasse tous les ajustements nécessaires à la simulation du climat de la nouvelle région.Pour la validation du MRC de l’UQAM, on utilise actuellement une grille de 121 X 121 points à l’horizontale, centrée sur les Grands Lacs, et de 15 niveaux à la verticale.La région des Grands Lacs a été choisie pour qu’on puisse vérifier l’influence des grandes étendues lacustres sur le climat (influence impossible à déceler avec la résolution actuelle du MCGII).La figure 2 permet d’ailleurs d’estimer l’amélioration de la résolution spatiale obtenue avec le MRC.La distance entre les points de grille du MRC est de 45 km et le pas de temps est de 20 minutes.C’est la grande efficacité du schéma d’intégration du MRC de l’UQAM qui permet l’utilisation d’un pas de temps aussi long pour une maille de 45 km.Pour se convaincre de cette efficacité, mentionnons qu’à cette résolution, le MRC du NCAR utilise un pas de temps environ 40 fois plus court.Cela signifie qu’il faut effectuer 40 fois plus de calculs pour une simulation de la même longueur.Une courte simulation, effectuée pour vérifier le bon fonctionnement du MRC, a permis de constater une amélioration importante de la représentation des champs d’humidité.Elle montre également que l’influence des Grands Lacs se manifeste rapidement dans les champs de température et d’humidité près de la surface.On peut voir ce comportement du modèle aux figures B et 4, qui présentent les champs d’humidité et de température après 48 heures de simulation.La figure 5 montre l’effet de l’augmentation de la résolution sur la représentation de la topographie.Cette première expérience révèle le grand potentiel du modèle régional.On procède présentement à la première simulation évaluée quantitativement.Ce modèle ouvre de nouvelles perspectives dans l’étude du climat.Une des applications les plus intéressantes du MRC est son utilisation en tant qu’« interpolates intelligent» pour suppléer au manque d’observations climatologiques dans les régions éloignées.En effet, le MRC peut être utilisé pour compléter les observations de certaines régions, le nord du Québec par exemple.Le MRC pourra ainsi servir à estimer le climat de régions où il est actuellement difficile d’obtenir des séries chronologiques suffisamment longues d’observations météorologiques.En particulier, l’évaluation du régime hydrologique à l’échelle de bassins versants où convergent les eaux de surface présente un grand intérêt dans les milieux de recherche en climatologie physique.• CONCLUSION • Le système climatique est très complexe en raison des nombreuses interactions non linéaires entre ses composantes.La simulation du climat exige l’utilisation de modèles avancés qui représentent adéquatement les processus physiques se déroulant dans le système climatique.Il est important de souligner que ces modèles complexes sont les seuls outils, basés sur des principes de la physique, actuellement disponibles pour étudier le climat et son évolution.Les MCG ont déjà fourni de nombreuses données sur la direction des changements climatiques causés par la modification de la concentration des gaz à effet de serre; les MRC devraient nous permettre d’en évaluer les répercussions aux échelles importantes pour l’activité humaine.Le développement et la validation de modèles climatiques complexes sont des projets qui s’échelonnent sur plusieurs années et qui demandent la participation de plusieurs personnes.En effet, le développement complet d’un MCG nécessite un travail d’une ampleur d’environ 50 à 60 années-personnes.Heureusement, le développement de modèles se fait toujours à partir d’une base existante, à laquelle on greffe les modules qui manquent.La recherche en modélisation numérique du climat fait intervenir plusieurs domaines distincts tels la mécanique des fluides, l’électromagnétisme, les méthodes numériques de calcul, l’étude et la représentation mathématique des processus physiques et le diagnostic des résultats.En mécanique des fluides, on s’attarde au développement des FÉVRIER VIE équations exprimant les lois physiques responsables de l’évolution des variables météorologiques.Les méthodes numériques de calcul consistent, premièrement, à traduire les équations mathématiques de la dynamique et de la physique sous forme d’algorithmes efficaces et, deuxièmement, à programmer ces algorithmes dans un langage informatique de haut niveau.Le diagnostic regroupe toutes les étapes visant à traiter et à interpréter les sorties des modèles.Il est important de rappeler que le diagnostic s’applique autant aux observations qu’aux données provenant de l’intégration de modèles climatiques.En effet, le diagnostic appliqué aux observations aide à comprendre le fonctionnement du système climatique et sert d’étalon pour le diagnostic appliqué aux modèles.L’ampleur de la tâche et la diversité des travaux à accomplir pour développer et valider un modèle numérique du climat demandent la collaboration de plusieurs personnes.Il est en effet pratiquement impossible pour un individu seul de rassembler toutes les connaissances nécessaires à l’accomplissement d’un tel travail.La représentation des processus physiques, à cause de la diversité des phénomènes qu’elle traite, est le domaine qui demande la plus grande collaboration.À titre d’exemple, mentionnons que certains modèles, entre autres ceux traitant de la radiation ou des processus de surface, sont généralement le résultat de la collaboration internationale de plusieurs équipes pendant plusieurs années.Malgré les investissements importants de temps liés au développement des modèles et les coûts en temps de calcul pour leur intégration, la modélisation numérique du climat demeure très économique compte tenu de l’importance et de la complexité du système qu’on tente de représenter.Les modèles climatiques ne reproduisent évidemment pas toutes les caractéristiques du système climatique réel.Toutefois, ils sont construits sur la base des principes fondamentaux qui conditionnent le comportement de ce système complexe et ils offrent l’unique approche permettant d’inférer le comportement de ce système dans un environnement perturbé.NOTES ET RÉFÉRENCES 1.Cette description est totalement fictive.2.Le terme «effet de serre» est couramment utilisé pour faire référence à l’accroissement de la température au sol causé par l'interaction de l’atmosphère avec le rayonnement infrarouge.Il est à noter que cette interaction n’est pas celle que l’on retrouve dans une serre; cette dernière augmente la température principalement en bloquant les mécanismes de convection.3.ORGANISATION MÉTÉOROLOGIQUE MONDIALE.Guide to Climatological Practices, «Sériés» de l’OMM n° 100, Genève, 1983.4.NEWELL, R.E., KIDSON, J.W., VINCENT, D.G.et BOER, G.J.The General Circulation of the Tropical Atmosphere, vol.1 et 2, Cambridge (MA), MIT, 1972.5.On renvoie souvent au rayonnement infrarouge en utilisant le terme «rayonnement terrestre».C’est que la Terre, à cause de sa température, émet surtout dans l’infrarouge.6.INTERGOVERNMENTAL PANEL ON CLIMATE CHANGE.Climate Change.The IPCC Scientific Assessment, édité par J.T.Houghton, G.J.Jenkins et J.J.Ephraums, United Nations Environmental Programme, 1990.7.INTERNATIONAL GEOSPHERE BIOSPHERE PROGRAM.Research Strategies for the U.S.Global Change Research Program, Committee on Global Change (U.S.National Committee for the IGBP) of the Commission on Geosciences, Environment, and Resources, Washington (D.C.), National Research Council, National Academy Press, 1990, 291 p.8.GIORGI, F., BATES, G.T., ERRICO, R.M.et DICKINSON, R.E.Modeling of Regional Climate Using a Regional Meteorological Model Coupled to a General Circulation Model, comptes rendus de la 6th Conference on Applied Climatology, American Meteorological Society, 1989, p.201-208.9.McFARLANE, N.A., BOER, G.J., BLANCHET, J.-P.et LAZARE, M.«The Canadian Climate Centre second generation general circulation model and its equilibrium climate», J.Climate, vol.5, 1992, p.1013-1044.* Le professeur André Robert est décédé subitement le 19 novembre 1993.Il a été un des piliers du développement des modèles numériques utilisés au Canada et partout dans le monde.DANIEL CAYA EST ÉTUDIANT AU DOCTORAT AU DÉPARTEMENT DE PHYSIQUE À L’UNIVERSITÉ DU QUÉBEC À MONTRÉAL (UQAM).STÉPHANE GOYETTE EST ÉTUDIANT AU DOCTORAT AU DÉPARTEMENT DE GÉOGRAPHIE DE L’UNIVERSITÉ DE MONTRÉAL.RENÉ LAPR1SE ENSEIGNE AU DÉPARTEMENT DE PHYSIQUE DE L’UQAM.IL Y DIRIGE LE GROUPE DE MODÉLISATION NUMÉRIQUE DU CLIMAT.JANVIER - FÉVRI ER 25 RECHERCHE Les levures: cobayes PAR BERNARD TURCOTTE Qui aurait cru que les levures, utilisées depuis toujours dans la fabrication du pain et de la bière, deviendraient des outils high tech Bernard Turcotte EST PROFESSEUR ADJOINT au Département DE MÉDECINE DE l’Université McGill.Il est également CHERCHEUR AU Laboratoire d’endocrinologie MOLÉCULAIRE À L’HÔPITAL Royal Victoria.prisés par les laboratoires les plus modernes?C’est maintenant chose faite.Les levures ne représentent plus seulement d’excellentes ouvrières de la fermentation, mais aussi de merveilleux petits êtres vivants qui ont la particularité, d'une part, de correspondre à des versions «simplifiées» des cellules animales et, d’autre part, d’être aussi faciles à produire et à manipuler que les bactéries.Elles nous permettent, en particulier, de décoder les secrets de la génétique.En biologie et plus particulièrement en génétique, les scientifiques travaillent à partir de différents organismes vivants pour comprendre tous les aspects de la vie.Le rat et la souris sont des exemples bien connus, mais d’autres organismes tels la grenouille, la mouche drosophile, le ver ou encore le poisson zebra sont également très utiles.Toutefois, l’étude de certains phénomènes étant plus facile dans des organismes encore moins complexes, les chercheurs et chercheuses se sont tournés vers les bactéries et, plus récemment, vers les levures.Les bactéries comme Escherichia coli ont permis de grands développements en génie génétique et dans l’étude du métabolisme des cellules.Maintenant, c’est au tour des levures de faire leur marque au point de représenter un outil très important en recherche biologique et médicale.C’est vers la fin du XVIIe siècle que le naturaliste hollandais Van Leeuwenhoek réussit à observer des cellules de levure grâce au microscope qu’il avait fabriqué lui-même1.C’était une première.Toutefois, les levures servent depuis la préhistoire à produire le pain, le vin et la bière.Comment?Durant le processus de fermentation, les levures dégradent les sucres — présents dans l’orge, par exemple —, pour donner deux produits : de l’alcool (éthanol) et du gaz carbonique.La production du gaz carbonique a pour effet de faire «lever» le pain, d’où le nom de «levure» pour cet organisme.INT^frAC de la génétique humaine Que sont les levures?Ce sont des champignons unicel-lulaires microscopiques.Il en existe plus de 400 espèces différentes.La plupart des levures utilisées par l’être humain appartiennent au genre Saccharomyces (champignon de sucre).Saccharomyces cerevisiœ sert à produire le pain ou l’alcool; c’est l’espèce la plus utilisée en recherche.Cette levure se reproduit par bourgeonnement, c’est-à-dire que la cellule mère bourgeonne une cellule fille plus petite, mais possédant la même information génétique (figure 1).Pourquoi ce champignon est-il si populaire en recherche?C’est tout d’abord l’importance économique de la levure (production de pain et d’alcool) qui a favorisé son étude; sa biologie est donc relativement bien connue.Un deuxième avantage est que la levure s’apparente à la fois aux bactéries et aux cellules animales (tableau 1).Les bactéries comme Escherichia coli ont un diamètre d’environ 1 qm alors qu’il est de 5 pour les levures et généralement de 10 à 30 (im pour les cellules animales.Toutefois, ces dernières peuvent atteindre, s’il s’agit de certaines cellules nerveuses, jusqu’à 1 m de longueur.Les bactéries ainsi que les levures peuvent être facilement cultivées dans un milieu préparé entre autres à partir d’extraits de levures.De plus, la croissance est possible dans des conditions très variées.Par contre, la culture de cellules animales nécessite des milieux complexes (et coûteux) dans des conditions précises en ce qui concerne, en particulier, le pH et la concentration de gaz carbonique.Une autre différence importante se trouve dans le temps de reproduction.Alors qu’il faut environ 30 minutes à une bactérie pour se diviser et environ 90 minutes à une le- vure, le temps de reproduction est beaucoup plus long pour les cellules animales, soit approximativement 24 heures.Il est donc facile et peu coûteux d’obtenir de grandes quantités de bactéries ou de levures par rapport aux cellules animales.Finalement, les bactéries et les levures se distinguent des cellules animales par le fait qu’elles peuvent se multiplier en l’absence (anaérobie) ou en la présence (aérobie) d’oxygène tandis que les cellules animales sont strictement aérobiques.Toutefois, à d’autres égards, les levures sont plus voisines des cellules animales que des bactéries.En fait, il existe une différence fondamentale entre les levures, les cellules animales et les bactéries.Les bactéries font ainsi partie des procaryotes.Elles ne possèdent pas de noyau et leur matériel héréditaire se limite à un seul chromosome.Les levures et les cellules animales, par contre, appartiennent aux eucaryotes.Elles possèdent un noyau qui contient des chromosomes composés de longues molécules d’ADN.Les levures se distinguent cependant des cellules animales par la quantité d’ADN présent dans leur noyau, ce qu’on appelle en termes techniques «génome» (l’ensemble de l’ADN d’une cellule).Les levures contiennent environ 100 fois moins d’ADN que les cellules animales, ce qui facilite donc l’analyse des gènes qui sont des segments de chromosomes responsables 27 PHOTO: PIERRE CÉLINAS des traits génétiques comme la couleur des yeux.Par ailleurs, les cellules animales contiennent généralement deux copies (cellule diploïde) de chaque chromosome alors que les levures utilisées en laboratoire peuvent en contenir une (cellule haploïde) ou deux selon les conditions de culture2.En effet, il existe deux types de cellules haploïdes de levure: les a et les a, qui correspondent à des types sexuels distincts.Si ces deux types sont présents dans le même milieu, ils fusionnent pour donner une cellule diploïde contenant le matériel génétique des cellules a et a.Tant que l’environ- chez la levure (cellules haploïdes) contre deux pour les cellules animales.De plus, l’inactivation d’un gène chez la levure est, techniquement parlant, relativement simple et rapide (quelques jours) alors que le processus est plus compliqué et plus long (quelques mois) pour les cellules animales.En somme, les levures s’apparentent à la fois aux bactéries et aux cellules animales.Grâce à leur taux de croissance rapide, à la possibilité d’avoir des souches haploïdes (une copie de chaque chromosome) ou diploïdes, à la petitesse de leur génome, les levures constituent un modèle biolo- On a observé que plusieurs processus biologiques sont remarquablement similaires chez les levures et chez les - , ceiiuies animales.FIGURE 1 La levure Saccharomyces cere-visiæ sert à produire le pain et l’alcool.Elle constitue également l’espèce la plus utilisée en recherche.Cette levure se reproduit par bourgeonnement, c’est-à-dire que la cellule mère bourgeonne une cellule fille plus petite, mais possédant la même information génétique.nement est favorable, la cellule diploïde se multiplie par bourgeonnement.Par contre, si les conditions de croissance, comme la quantité de nutriments disponibles, deviennent difficiles, la cellule repasse en phase haploïde.Par un processus dit «de sporulation» où interviennent deux divisions cellulaires particulières, la cellule diploïde donnera quatre cellules haploïdes.Cette possibilité de pouvoir disposer de cellules haploïdes ou diploïdes a des conséquences pratiques importantes en génétique.D’une part, il est ainsi très facile, en fusionnant deux cellules haploïdes dont l’une contient un gène mutant, de déterminer si une mutation est dominante ou récessive.D’autre part, si l’on veut étudier le rôle d’un gène donné, une seule copie doit être inactivée gique relativement facile à manipuler, donc à étudier.Comme nous le verrons, l’intérêt pour les levures s’est énormément accru au cours des dernières années du fait que l’on a observé que plusieurs processus biologiques sont remarquablement similaires chez ce champignon et chez les cellules animales.Une telle conservation au cours de l’évolution et la facilité avec laquelle les levures peuvent être manipulées en laboratoire, en font donc maintenant un organisme de choix pour aborder divers problèmes biologiques.INT^FACE CMXCI DES LEVURES TOUT USAGE • Dans plusieurs domaines de recherche fondamentale en biologie ou en recherche médicale, on utilise la levure comme modèle expérimental.Mentionnons, à titre d’exemples, l’étude du cycle cellulaire, du transport de protéines, du mécanisme de la réplication de l’ADN ou de la communication entre les cellules.Ainsi, les levures sont devenues très utiles pour carto-graphier des gènes humains.Habituellement, pour déterminer les séquences d’ADN responsables d’une maladie génétique telle la fibrose kystique, les chercheurs coupent l’ADN humain à l’aide d’enzymes et introduisent les morceaux ainsi obtenus dans la bactérie Escherichia coli pour les multiplier.Toutefois, la longueur maximale d’ADN qu’on peut insérer est d’environ 50 000 paires de bases, ce qui complique les études car il faut alors utiliser plusieurs segments d’ADN qui se chevauchent pour localiser le gène d’intérêt.Une autre approche maintenant utilisée consiste à greffer aux morceaux d’ADN humain des séquences de levures qui permettent la réplication (dans la levure) de cet ADN en tant que chromosome artificiel.Grâce à cette technique, il est maintenant possible d’avoir des segments de chromosomes humains d’une longueur d’environ un million de paires de bases, soit environ 20 fois plus qu’avec les systèmes traditionnels.Ce nouveau système facilite donc l’identification de gènes.Ainsi, une équipe de l’Université McGill a récemment réussi à identifier, grâce aux chromosomes artificiels de levure, un gène de souris qui confère la résistance à des maladies infectieuses3.À partir de ce gène de souris, il sera relativement facile d’isoler l’équivalent humain.Ce dernier pourrait être en cause dans la résistance à des infections telles la tuberculose et la lèpre.Les levures sont donc maintenant un outil précieux pour la recherche médicale.Les levures sont également très utiles dans un domaine en expansion fulgurante: l’étude de la régulation de l’expression des gènes.Ce domaine d’étude où les levures sont utilisées comme modèle est très important, des scientifiques ayant établi un lien entre l’expression erronée de certains gènes et l’apparition de cancer.• QUAND LES GÈNES S'EXPRIMENT • Nous savons que les chromosomes sont constitués d’acide désoxyribonucléique ou ADN.L’ADN est une très longue molécule formée de deux chaînes appariées l’une à l’autre et enroulées en double hélice.L’information génétique réside dans l’enchaînement (séquence) de quatre nucléotides: l’adénine (A), la thymine (T), la guanine (G) et la cytosine (C), qui sont retenues par un squelette formé de sucre et de phosphate.Chaque chaîne d’ADN ou «brin» est une série de longues phrases écrites avec un alphabet de quatre lettres.Un point capital est que les deux brins TABLEAU 1 Comparaison entre les bactéries, les levures et les cellules animales Les levures s’apparentent à la fois aux bactéries et aux cellules animales.Grâce à leur taux de croissance rapide, à la possibilité d’avoir des souches haploïdes (une copie de chaque chromosome) ou diploïdes, à la petitesse de leur génome (de la taille de l’ADN), les levures constituent un modèle biologique relativement facile à manipuler, donc à étudier.Bactéries (£.coli) Levures (S.cerevisiæ) Cellules animales Diamètre cellulaire 1 pm 5 pm 10-30 pm Paroi cellulaire oui oui non Temps approximatif de doublement 30 min 90 min 24 h Milieu de culture utilisé en laboratoire simple simple complexe Noyau cellulaire non oui oui Quantité d’ADN par cellule (en nombre de nucléotides) 4 millions 14 millions 3 milliards Nombre de copies par chromosome 1 1 ou 2 généralement 2 Épissage de l’ARN messager non rare fréquent sont complémentaires: A s’apparie toujours à T et réciproquement, G s’apparie toujours à C et réciproquement.L’ADN possède l’information pour produire des milliers de protéines, car le mode d’emploi pour la production de chaque protéine correspond à un gène, soit une séquence de quelques centaines à 1 million de nucléotides contenus sur l’un des brins.L’ADN humain compterait près de 100 000 gènes.CIV GÈNE Fixation de l’activateur sur une séquence donnée du gène et activation de la transcription par l’intermédiaire de co-activateurs Fixation de la «TATA binding protein Positionnement de l’ARN polymérase qui initie la transcription en un site donné ( | et la termine en un autre (X) Brin d’ADN —.TCAACGGCTAAT.3) Transcription —.AGUUGCCGAUUA.ARN messager produit Épissage ARN messager mature ARN polymérase Plusieurs étapes interviennent dans la transcription d'un gène en ARN messager, dont la fixation sur l’ADN de la «TATA binding protein» et la fixation d’un activateur.L’ARN messager produit subit ensuite un processus de maturation, dit «épissage», pour donner une molécule tronquée d’ARN.FIGURE 2 La production d’une protéine ne se fait toutefois pas directement à partir du gène, mais par l’intermédiaire d’une molécule très similaire à l’ADN, l’acide ribonu-cléique ou ARN (les principales différences sont que TARN a généralement un seul brin et que la thymine est remplacée par l’uracile ou U).Chaque protéine est encodée par un ARN messager qui est la copie complémentaire d’un gène donné.Ainsi, une séquence de nucléotides sur l’ADN comme ATTGCCGTAA donnera la séquence UAACG-GCAUUsur TARN.Très souvent, chez les eucaryotes, la molécule produite au moment de la transcription subit un processus de maturation dit «épissage» pour donner une molécule tronquée d’ARN.Cette découverte faite en 1977 par les Américains P.Sharp et R.J.Roberts leur a valu le prix Nobel de médecine, l’automne dernier.Le processus d’épissage pourrait être comparé à un vidéo d’un film enregistré à la télévision.Le vidéo montrera un film interrompu par de nombreux messages publicitaires.Le processus de maturation consiste à exciser du ruban tous les messages publicitaires pour n’avoir que les séquences du film.La même chose se produit pour l’ARN : les séquences ne contenant pas d’information « utile » sont enlevées pour donner un ARN messager mature qui sera exporté du noyau où se trouvent les chromosomes vers le cytoplasme de la cellule.La séquence des nucléotides d’un ARN mature permet ensuite, par l’intermédiaire de nombreuses molécules, d’assembler dans le bon ordre les acides aminés constituant une protéine donnée (chaque séquence de trois lettres de l’ARN messager correspond à un acide aminé).Chaque protéine est unique en ce sens qu’elle contient une séquence donnée d’acides aminés.Avec une vingtaine d’acides aminés différents, on peut imaginer le nombre de combinaisons possibles pour générer des protéines différentes, et ce d’autant plus que la longueur peut varier de quelques acides aminés à plusieurs centaines.Cette séquence et sa longueur déterminent la structure, donc le rôle de la protéine produite.Par exemple, cette protéine pourra être de la kératine, composant majeur des ongles, ou une hormone telle l’insuline.Ce qu’il est important de se rappeler, c’est que chaque protéine est encodée par un ARN messager propre qui est lui-même la transcription d’un gène donné.En contrôlant le taux de transcription d’un gène, on peut donc contrôler la quantité produite de la protéine correspondante dans une cellule.Même si presque toutes les cellules du corps humain contiennent le même ADN, seulement une partie des gènes sont exprimés dans un type cellulaire donné.Par exemple, l’insuline n’est produite que dans certaines cellules du pancréas alors que la globine ne se retrouve que dans les globules rouges.Inversement, la «TATA binding protein» (dont nous reparlerons) est présente dans toutes les cellules du corps humain.Il existe de nombreux niveaux de contrôle pour réguler la synthèse d’une protéine donnée dans un type cellulaire donné.Le niveau du contrôle de l’expression des gènes 30 ac c m xciv est l’un des plus importants d’entre eux.Cette régulation s’exerce à la fois au cours du développement et dans les différents types de cellules.Des progrès remarquables ont été faits au cours des 15 dernières années pour ce qui touche la compréhension de ce phénomène et la levure, en tant que «version simplifiée» des cellules animales, a été très utile à cette fin.De plus, l’intérêt pour la levure est d’autant plus grand que l’on a récemment compris que cette régulation est exercée grâce à des mécanismes qui sont très similaires chez la levure et chez les cellules animales.• DANS LES MÉANDRES DE LA TRANSCRIPTION DES GÈNES • Afin de comprendre le mécanisme de régulation de l’expression des gènes, il faut voir comme un ARN messager est produit.Pour ce faire, voyons comment est constitué un gène tel que représenté schématiquement à la figure 2.Un gène est une séquence d’ADN contenant l’information pour produire un ARN messager.Le gène contient également des séquences de nucléotides qui contrôlent son taux de transcription en ARN.La transcription est effectuée grâce à l’enzyme ARN polymérase, mais il faut auparavant qu’une protéine particulière, la «TATA binding protein», se fixe à certaines séquences d’ADN (contenant en général la séquence TATA) et s’associe avec de nombreuses autres protéines.Ce complexe protéique (que l’on appelle «machinerie transcriptionnelle de base») positionne l’ARN polymérase de façon qu’elle initie la transcription d’un gène en un endroit précis («site d’initiation de la transcription»).On peut faire l’analogie avec un texte écrit: on commence à écrire dans la partie supérieure gauche de la feuille et non en bas de celle-ci.Le rôle de la «TATA binding protein» est ainsi d’indiquer où débutera la transcription de l’ADN.L’activité de ce complexe de base est elle-même contrôlée par un (ou plusieurs) activateur(s) transcriptionnel(s).Il s’agit généralement d’une protéine possédant deux domaines qui jouent des rôles différents.Le premier domaine sert à fixer la protéine à une séquence précise d’ADN, par exemple à la séquence CGTACATGTACG.Étant donné que cette séquence ne se retrouve que dans certains gènes, l’activateur induit la transcription d’un nombre limité de gènes.Autrement dit, le domaine de fixation à l’ADN d’un activateur lui permet de se positionner sur des gènes cibles.Le second domaine se charge de l’activation proprement dite de la transcription du gène par l’intermédiaire de pro- téines appelées «co-activateurs»: sa fonction est d’envoyer un signal à la machinerie transcriptionnelle de base pour transcrire une séquence donnée d’ADN en ARN.11 permet également de réguler le taux de transcription.C’est là, évidemment, une version simplifiée de la réalité.Plusieurs activateurs contrôlent généralement la transcription d’un gène, leur activité étant elle-même contrôlée par de multiples signaux.C’est donc par l’intermédiaire de nombreux mécanismes qu’une cellule contrôle l’activité de ses milliers de gènes.Les activateurs de la levure ont servi de modèle pour expliquer le mécanisme d’action de cette classe de protéines.Leur étude a permis, au cours des 10 dernières années, de comprendre que le mécanisme de la transcription des gènes est très similaire dans les cellules de levures et dans les cellules animales4.Par exemple, l’activateur GAL4 de la levure peut aussi activer la transcription de gènes dans des cellules humaines.Inversement, un activateur transcriptionnel humain, comme le récepteur œstrogène, peut activer la transcription d’un gène dans la levure.De plus, ce récepteur est actif seulement en présence de l’hormone stéroïde œstrogène, comme c’est le cas dans les cellules humaines.La levure fournit donc maintenant un modèle pour étudier le mécanisme d’action du récepteur œstrogène.Elle permet également de tester plus facilement des composés synthétiques ayant une activité œstrogénique ou anti-œstrogénique, ces composés étant notamment utilisés dans le traitement du cancer du sein.De fait, on ne soupçonnait pas que le mécanisme de la transcription des gènes pouvait être conservé dans des organismes aussi différents que les levures et les cellules humaines.Il est, en effet, surprenant de constater qu’un activateur transcriptionnel tel le récepteur œstrogène, qui a une fonction relativement spécialisée chez l’humain (fonction de reproduction chez la femme), puisse être fonctionnel dans un organisme aussi différent que celui de la levure.Les nombreux avantages, au point de vue expérimental, offerts par la levure de même que le degré de conservation des mécanismes de la transcription des gènes, ont donc poussé les chercheurs à utiliser de plus en plus cet organisme comme modèle.• UN MODÈLE GÉNÉTIQUE • Afin de mieux comprendre, à l’échelle moléculaire, le mécanisme de la transcription d’un gène en ARN messager, on a reproduit in vitro (c’est-à-dire sans cellules intactes) le phénomène5.On a ainsi déterminé une série Des * progrès remarquables ont été faits au cours des 15 dernières années dans la compréhension des mécanismes de contrôle de l’expression .gènes et les levures ont été très utiles à cette fin.31 C M X C I V FIGURE 3 HAP1 se fixe sur CYC1 et CYC7, et il active la transcription de ces deux gènes.Cette transcription serait facilitée par l’action de protéines, appelées «cofacteurs», propres à chaque gène.CYC1 HAP1 CYC7 sk Transcription Le mutant de HAP1 se fixe sur CYC1 et CYC7 mais n’active que la transcription du gène CYC1, car le cofacteur de CYC7 n’agit plus lorsque le mutant de HAP1 est fixé à CYC7.CYC1 Nk Transcription Le mutant HAP1-18 ne se fixe pas sur CYC1, empêchant ainsi toute transcription.Par contre, HAP1-18 se fixe à CYC7 et interagit fortement avec le cofacteur de CYC7.La transcription est augmentée.CYC1 sk Transcription Mutant HAP1 CYC7 Mutant H API \k Pas de transcription Mutant HAP1-18 Pas de transcription CYC7 Mutant HAP1-18 Transcription augmentée de protéines (ou facteurs) nécessaires à la transcription.La machinerie transcriptionnelle de base dont nous avons parlé («TATA binding protein» associée à d’autres protéines) est composée de différents facteurs qui ont pour noms TF1IA, TFIIB, TF11D, TF1IE, etc.Lorsqu’on ajoute in vitro ces facteurs et l’ARN polymérase à un morceau d’ADN, il y a transcription de l’ADN en ARN.De plus, la transcription débute à la même position que celle observée in vivo.Autrement dit, par analogie avec le texte écrit, le système in vitro écrit un texte en commençant dans la partie supérieure gauche de la feuille comme c’est le cas pour le système in vivo.L’addition d’un activateur transcriptionnel aura pour effet d'augmenter le taux de transcription à condition toutefois que le morceau d’ADN possède un site de fixation pour cet activateur.Les complexes protéiques comme TFIID ne contenant pas seulement la «TATA binding protein», mais également d’autres protéines, on peut se demander ce qui se passerait si l’on utilisait à la place de TFIID la «TATA binding protein» seule.Or, pour répondre à cette question, il faut tout d’abord isoler cette protéine de toutes les autres protéines cellulaires, ce qui s’est jusqu’à présent révélé impossible à faire avec les cellules animales.Avec les levures, les tentatives furent plus heureuses: on a réussi à isoler la «TATA binding protein».Cette dernière peut même remplacer fonctionnellement le complexe protéique TFIID.On a alors identifié, à partir de la séquence des acides aminés composant cette protéine, le gène qui encode la «TATA binding protein».Ce gène a ensuite permis d’isoler le même gène chez l’humain.Puis, grâce à des techniques de génie génétique, il a été possible de surproduire cette protéine dans des bactéries et de l’isoler à un niveau de pureté extrêmement élevé.La protéine pure a été utilisée pour déterminer sa structure tridimensionnelle par la méthode de diffraction aux rayons X.On sait maintenant que cette protéine est nécessaire à la transcription de tous les gènes autant chez les levures que chez l’humain.En fait, cette protéine est le pivot de la transcription des gènes.Une meilleure compréhension de son mécanisme d’action devrait donc nous permettre de mieux expliquer comment l’expression erronée de certains gènes peut générer une cellule cancéreuse, c’est-à-dire une cellule qui se reproduit sans arrêt.Il semblerait, en effet, que certains activateurs pourraient, dans des conditions particulières, devenir des oncogènes, ce qui aurait pour effet de perturber la transcription de gènes cibles.De récentes études ont démontré, par exemple, qu’un activateur, nommé Rel, peut, en devenant oncogène, cesser d’exercer son effet sur la machinerie transcriptionnelle de base en n’interagissant plus avec la «TATA binding protein», ce qu’il fait d’habitude.Ces derniers résultats ouvrent de nouvelles voies pour mieux comprendre comment une donnée erronée introduite dans l’ADN peut entraîner l’apparition d’une cellule cancéreuse.L’isolement de la «TATA binding protein» de la levure a donc permis une percée importante dans ce domaine d’étude.ENQUÊTE SUR HAP1 • Dans un autre ordre d’idées, la recherche faite dans mon laboratoire est une suite des travaux entrepris avec Leonard Guarente au Massachusetts Institute of Technology.Elle porte sur l’étude d’un activateur transcriptionnel de la levure: FlAPl (pour «Fleme Activated Protein 1 »).Tout comme dans le modèle présenté à la figure 2, cette protéine possède un domaine de fixation à l’ADN ainsi qu’un domaine d’activation de la transcription.Cependant, nos résultats démontrent que dans le cas de HAP1, son domaine de fixation à l’ADN est aussi en cause dans l’activation de la transcription6.R - FÉV R IE R 32 I V I E Q^c" L’activateur HAP1 contrôle l’expression d’environ une centaine de gènes, dont CYC1 et CYC7 qui codent pour des formes différentes du cytochrome c, une protéine intervenant dans la respiration cellulaire.Or, si l’on compare les séquences d’ADN des gènes CYC1 et CYC7 qui servent à fixer HAP1, on ne remarque aucune similarité de séquence.HAP1 peut donc se fixer à des séquences d’ADN qui sont complètement différentes.Fait intéressant, l’expression des gènes CYC1 et CYC7 est régulée de façon différente selon le milieu de culture utilisé pour la multiplication des cellules.Cette dissimilarité de séquence de fixation de l’activateur HAP1 serait-elle responsable de la régulation différentielle des gènes CYC1 et CYC7?Pour tenter de répondre à cette question, nous avons produit in vitro une série de versions modifiées de HAP1 (avec un ou deux acides aminés changés) dans la région de fixation à l’ADN et les avons introduites dans des cellules de levure ne produisant pas la version normale de HAP1 (le gène ayant été amputé).L’idée était d’isoler des versions modifiées (ou mutants) de HAP1 ayant une activité différente sur les gènes CYC1 ou CYC7.Le groupe de mutants ainsi obtenus comporte des caractéristiques fort intéressantes: les versions modifiées de HAP1 activent la transcription du gène CYC1 mais sont inactives pour le gène CYC7.L’explication logique serait de penser que les mutants interagissent différemment avec CYC7.Autrement dit, les mutants (ou versions modifiées) de l’activateur HAP1 ne pourraient plus se fixer au gène CYC7, d’où l’absence d’activité pour ce gène, tout en ayant une fixation normale pour le gène CYC1.Cependant, des expériences additionnelles ont démontré qu’il n’en est rien: l’activateur HAP1 se fixe de façon normale aux gènes CYC1 et CYC7.Par ailleurs, un autre type de mutant, appelé HAP1-18, ne se fixe plus à CYC1 et n’active donc plus la transcription de ce gène.Sa fixation à CYC7 est normale mais, fait surprenant, l’activation de la transcription est de 10 à 100 fois plus élevée que pour la version normale de HAP1.Le domaine de fixation à l’ADN de HAP1 module donc l’activité de cet activateur transcriptionnel.C’est le premier exemple d’un activateur transcriptionnel qui est inactif à une séquence d’ADN (CYC7) et actif à une autre (CYC1).Afin de rendre compte de ces observations, nous avons conçu un modèle (figure 3).Mentionnons que ce modèle tient également compte de résultats expérimentaux additionnels (par exemple, ceux obtenus à partir de l’activateur GAL4) dont nous ne parlerons pas ici.D’après ce modèle, une molécule de HAP1 est requise pour la fixation à l’ADN de l’activateur, ainsi qu’une deuxième protéine, appelée «cofacteur».Cette dernière protéine permet probablement une meilleure interaction entre l’activateur HAP1 et la machinerie transcriptionnelle de base.Les mutants de HAP1, qui activent la transcription du gène CYC1 et non du gène CYC7, empêcheraient ainsi le cofacteur d’agir lorsque HAP1 est fixé à CYC7.Dans le cas du mu- tant HAP1-18, qui augmente l’activité à CYC7, l’interaction du cofacteur avec HAP1 est, à l’inverse, meilleure, d’où une plus grande activité transcriptionnelle.Comment prouver la pertinence de ce modèle?C’est le travail qui est en cours dans mon laboratoire.La démarche logique: isoler le gène codant pour la protéine agissant comme cofacteur.Une fois ce gène isolé, il sera alors possible d’étudier plus facilement son rôle.Une hypothèse est que la délétion du gène encodant le cofacteur rendrait HAP1 inactif à CYC7 mais toujours actif à CYC1.L’approche utilisée pour isoler le gène en question consiste à obtenir, par sélection, des souches de levure dans lesquelles l’activité des versions modifiées de HAP1 est rétablie.Le gène encodant le cofacteur a probablement muté et il produit maintenant une version modifiée du cofacteur capable d’interagir avec les mutants de HAP1 et donc d’activer la transcription du gène CYC7.Grâce à ces souches mutantes, il sera ensuite relativement aisé d’isoler le gène qui code pour le cofacteur.L’activité différente de HAP1 à CYC1 et CYC7, selon le milieu de culture, est probablement due au fait que HAP1 s’associe à des cofacteurs différents lorsqu’il est fixé à CYC1 par rapport à CYC7.Une fois que le mécanisme d’action de HAP1 et de ses cofacteurs sera mieux compris, il sera possible de déterminer si un tel mécanisme de régulation de l’expression des gènes se retrouve dans les cellules animales.En conclusion, la facilité avec laquelle il est possible de manipuler les levures en laboratoire et leur similarité avec les cellules animales en font un organisme de choix pour étudier le fonctionnement d’une cellule.Les levures ont ainsi été particulièrement utiles pour mieux comprendre le mécanisme de la régulation de l’expression des gènes.L’intérêt à leur égard devrait s’accroître encore davantage au cours des prochaines années.RÉFÉRENCES 1.PRÂVE, R, FAUST, U., SITTIG, W.et SUKATSCH, RA.Fondamental of Biotechnology, VCH Publisher, Allemagne, 1987, 792 p.2.DARNELL, J., LODISH, H., BALTIMORE, D.Molecular Cell Biology, New York, Scientific American Books, 1990, 1105 p.3.VIDAL, S.M., MALO, D„ VOGAN, K., SKAMENE, E.et GROS, P.«Natural Resistance to Infection with Intracellular Parasites: Isolation of a Candidate for Beg», Cell, 1993, vol.73, p.469-485.4.GUARENTE, L.et BERMINGHAM-MCDONOGH, O.«Conservation and Evolution of Transcriptional Mechanisms in Eukaryotes», Trends in Genetics, 1992, vol.8, p.27-32.5.WHITE, R.J.et JACKSON, S.P.«The TATA Binding Protein : A Central Role in Transcription by RNA Polymerases I, II and III», Trends in Genetics, 1992, vol.8, p.284-288.6.TURCOTTE, B.et GUARENTE, L.« HAP1 Positive Control Mutants Specific For One or Two Binding Sites», Genes and Development, 1992, vol.6, p.2001-2006.33 r* .F"-' LE CLONAGE •'J ?.ill ILLUSTRATIONS: JACQUES COURNOYER ENJEUX D’EMBRYONS HUMAINS EXPLOIT TECHNIQUE OU SCIENCE INCONSCIENTE?Chacun de nous est né avec l’idée d’être différent des autres, unique, un être ayant une identité propre.C’est encore vrai, mais pour combien de temps?En octobre dernier, des chercheurs de l’Université George Washington, Jerry Hall et Robert Stillman, présentaient les résultats de leurs travaux visant la multiplication d’embryons humains par une technique équivalant au clonage.Ils avaient réussi.Et désormais, l’imagination ne peut que travailler, soulevant au passage tout un débat éthique que nous essayons de reproduire ici à l’aide de quelques textes.Nous vous présentons également une entrevue exclusive avec le Dr Hall.35 ace . Un urgent besoin d’éthique par Raymond D.Lambert Aussi incroyable que cela puisse paraître, le clonage d’embryons humains est maintenant chose faite.Incroyable non pas tant à cause de l’exploit technoscientifique et de l’avancement des connaissances que cela représente — le clonage avait été réussi chez les animaux de laboratoire au début des années 1970 et chez les animaux de ferme au tournant des décennies 1970-1980 — mais bien pour des raisons éthiques.Incroyable, car quelqu’un a osé aller à l’encontre d’un interdit consensuel international.C’est à Montréal, au milieu d’octobre, à l’occasion du congrès de l’American Fertility Society (AFS), qui se tenait conjointement avec la réunion de la Société canadienne de fertilité et d’andrologie (SCFA), que fut révélée, par Jerry Hall, la réussite du clonage d’embryons humains1.La technique utilisée, différente de celle décrite dans le dernier numéro d'Interface2, consiste simplement à isoler chacune des cellules embryonnaires et à les enrober d’une zone pellucide artificielle, que l’on pourrait décrire comme une membrane protectrice et nutritive qui permet aux cellules de demeurer ensemble au cours du développement embryonnaire.Comme les cellules embryonnaires gardent la capacité de devenir n’importe quel tissu jusqu’au stade de 8 à 64 cellules, dépendant des espèces animales, elles conservent tout leur potentiel de former un individu complet lorsque séparées.L’objectif de cette expérience, effectuée à l’Université George Washington par Jerry Hall et Robert Stillman, était d’évaluer le potentiel de formation d’embryons identiques à partir d’un même embryon, donc de produire des jumeaux embryonnaires identiques en de multiples copies.Les résultats obtenus indiquent clairement que le clonage est possible, et même facile à exécuter, chez l’humain.À la limite, l’application de ce genre de techniques pourrait révolutionner la reproduction humaine.Est-ce souhaitable?Jusqu’à maintenant, le recours à la fécondation in vitro pour soulager la souffrance des couples infertiles a semblé largement accepté socialement; en tant qu’ex-directeur des aspects laboratoires d’un programme de fécondation in vitro et en tant que chercheur ayant eu l’occasion de côtoyer des couples inféconds, je partage amplement l’avis de la majorité d’entre nous.L’éthique comme guide MAIS NON COMME CONTRAINTE Une entrevue avec Jerry Hall Jerry Hall dirige le Laboratoire des techniques de fertilisation in vitro de l’Université George Washington.En octobre dernier, à Montréal, le docteur Hall et son collègue le docteur Robert J.Stillman annonçaient qu’ils avaient réussi à cloner des embryons humains.Voici quelques extraits d’une entrevue que le docteur Hall a accordée à Interface.Interface: Pourquoi cloner des embryons?Hall : Il y a plusieurs applications potentielles.Par exemple, dans un cas de fertilisation in vitro où l’on réussirait à féconder un seul des ovules prélevés chez la femme, cette technique permettrait de «dupliquer» l’ovule pour en faire deux.On augmenterait ainsi les chances que la femme porte des jumeaux.Le clonage permettrait aussi de pratiquer couramment l’analyse génétique des embryons afin de dépister des maladies comme la trisomie 21 ou la maladie de Tay-Sachs.Actuellement, ce procédé est impraticable puisqu’il détruit l’embryon.Toutefois, avec le clonage, cela deviendrait possible, le clonage permettant de créer plusieurs embryons identiques.Si l’embryon analysé était sans défaut, on implanterait alors les autres.Sinon, on les détruirait.Ces analyses soulèvent des questions d’éthique qui inquiètent certaines personnes et ce, pas forcément dans les cas de détection des maladies génétiques, mais parce que l’on peut penser que dans l’avenir, on pourra choisir le sexe de notre enfant et faire des manipulations génétiques.Interface: Quelle est votre position là-dessus?Hall: Disons que je suis plutôt conservateur.Je voudrais que toutes ces questions soient étudiées par des éthiciens, des avocats et le clergé.Ensuite, il faudrait, avec l’appui du public, mettre en place des lignes directrices.Toutefois, je ne voudrais pas qu’on m’oblige à suivre ces lignes directrices; mais elles pourraient m’aider à prendre des décisions.Interface: Vous croyez qu’on ne devrait pas obliger les scientifiques à suivre ces lignes de conduite précises?Hall : Je pense que non.Si l’on était libre de choisir de suivre ou non ces lignes directrices, je crois qu’on pourrait prendre des décisions avec plus d’objectivité.Par contre, si l’on violait des principes légaux.s’il était question, par exemple, de mener à terme un embryon congelé INTE3# ACE T^rTWffîT T "f I > :?) Mais lorsqu’on entrevoit, comme le font les membres du groupe du Dr Hall, la possibilité d’augmenter les taux de succès reproductifs en clonant l’embryon humain, je ne peux que m’étonner et m’indigner.Le respect de la dignité humaine exige, en effet, la consécration de la spécificité et de l’individualité de ce que nous sommes, chacun d’entre nous.«La dignité ne saurait se dissocier de l’individualité3».Étrangement, l’exploit du groupe de Washington fut réalisé, et les résultats publiés, malgré la condamnation formelle de ce genre d’expérimentation par la très grande majorité des sociétés scientifiques ayant étudié la question des nouvelles technologies de la reproduction4.Alors, comment une équipe de médecins et de chercheurs a-t-elle pu violer en quelque sorte un interdit, et surtout, comment les pairs de ces chercheurs ont-ils pu accepter cette communication scientifique pour le congrès?pour en tirer des «pièces de rechange», il faudrait faire | .^aaiÉi intervenir le gouvernement et le système judiciaire.Mais ^ je ne crois pas qu’on en ar- f rive là.Interface: Faut-il passer des lois interdisant certaines pratiques?Hall: Non, ce ne sera pas nécessaire.Interface: Où est la limite pour vous?Jusqu’où êtes-vous prêt à aller avec ces techniques?Hall: Il est difficile pour moi de répondre parce que je ne connais pas les limites de la science.Je crois que la biologie imposera elle-même assez de limites pour que nous n’ayons pas à répondre trop souvent à ce genre de question.De toute façon, en général, je trouve que les chercheurs dans ce domaine s’autodisciplinent assez bien.Interface: Le clonage permet de produire deux embryons identiques.On peut en implanter un pour faire un enfant et congeler l’autre jusqu’à ce qu’on se décide à faire un second enfant identique au premier.Pour bien des gens, cela pose un problème d’éthique.À votre avis, la réflexion sur l’éthique fait-elle partie des responsabilités des chercheurs?Cette première pourrait-elle conduire à des exploits encore plus vertigineusement discutables?11 semble bien que oui, car la communication du Dr Hall fut classée comme l’une des meilleures, étant présentée sous la rubrique «General Program Prize Paper».En procédant ainsi, la SCFA a-t-elle «endossé» le clonage comme moyen de reproduction?Que la réponse soit affirmative ou négative, la situation n’a rien de réjouissant; l’appréciation exceptionnelle de la communication par le comité des pairs et les organisateurs du congrès ne peut qu’encourager une récidive.On aura beau expliquer que les embryons polyspermi-ques utilisés étaient si anormaux qu’ils n’auraient pu survivre et que l’expérience était destinée à vérifier une approche expérimentale visant à aider les couples produisant peu d’embryons, il me semble que l’on ne peut que condamner énergiquement l’attitude tant des chercheurs que des sociétés scientifiques en cause et réclamer Hall: La question des em-bryons identiques est déli-\ cate, j’en conviens, mais ça fait des années que nous sommes capables de féconder deux embryons, d’en implanter un et de congeler l’autre.Je ne vois pas vraiment où est la différence entre l’aspect éthique de cette pratique et celle des embryons identiques.Nous ne sommes pas formés pour trancher au sujet des questions d’éthique.Je crois que ceux et celles qui prennent de telles décisions doivent avoir reçu une formation particulière.Je pense notamment aux avocates, aux avocats, aux éthiciennes et aux éthiciens.Interface: Vous avez expérimenté le clonage sur des embryons non viables.Allez-vous passer maintenant aux embryons viables?Hall : On continue de faire des expériences qui touchent ce domaine, mais on va prendre notre temps pendant que le débat éthique se déroule.Nous n’avons pas encore la permission de l’Université pour étendre nos recherches à des embryons viables.Évidemment, il faudra le faire éventuellement si l’on veut avancer.Propos recueillis par Douglas Beeson JANVIER - FÉVRIER INTE^ACE M C M X C I V que des mesures soient prises afin que de tels dérapages ne se produisent plus.Je sais que la SCFA, en collaboration avec la Society of Obstetricians and Gynaecologists of Canada, a publié en 1992 et 1993 une série de déclarations de principes au sujet des nouvelles technologies de reproduction.C’est là, bien sûr, un geste tout à l’honneur des dirigeants et des membres des deux sociétés.Malheureusement, il n’est aucunement fait mention dans ces documents de sujets controversés comme la thérapie génique, la parthéno-génèse, le chimérisme et le clonage.Pourquoi la SCFA n’a-t-elle pas interdit le clonage humain?Pourquoi a-t-on accepté la communication scientifique du Dr Hall au congrès de Montréal?Pourquoi en avoir fait le «General Program Prize Paper»?D’où des sous-questions comme: Est-ce que les organismes subventionnaires tels que le National Institute of Health et le comité d’éthique local étaient au courant de cette recherche?A-t-elle été faite à leur insu ou avec leur accord tacite?Est-ce que les pairs et les dirigeants des deux sociétés en cause étaient conscients: 1) du contenu du résumé du travail; 2) qu’il existe des règles tacites sinon formelles par rapport au clonage?A-t-on mesuré l’effet que pourrait avoir l’introduction du clonage en reproduction humaine?Ne relève-t-il pas de la responsabilité de chaque scientifique de remettre en question toute recherche pouvant engager l’avenir de l’humanité vers des avenues pas nécessairement souhaitables?Il est très certainement possible que les Drs Hall et Stillman ne soient pas de mauvaise foi.C’est ce que laissent entendre les comptes rendus de la presse écrite.Tout cela, à mon avis, fait la preuve que l’on peut, soit par méconnaissance des règles édictées ou tacites, soit parce que l’on n’accorde aucune importance à ces règles d’éthique, transgresser facilement les codes de conduite en matière de technologies de la reproduction.Ajoutons cependant que dans les centaines de centres de fécondation in vitro humaine que l’on trouve de par le monde, tous les biologistes auraient pu réussir le clonage d’embryons humains, tellement la technique est facile à appliquer.Or personne depuis la naissance de Louise Brown, premier bébé éprouvette née en 1978, n’a, à notre connaissance, osé transgresser l’interdit international.Si l’attitude du groupe de Washington relève de la méconnaissance des règles éthiques, il faut alors proposer: 1) qu’une formation minimale en éthique de la reproduction humaine soit obligatoire pour toutes les personnes participant aux programmes de fécondation in vitro, du technicien au biologiste et de l’infirmière au médecin, 2) qu’un permis de pratique des technologies de reproduction soit exigé pour toutes les équipes pratiquant la fécondation in vitro et 3) que l’une des conditions d’obtention du permis, en plus de toutes les autres existantes, soit celle d’une connaissance adéquate des règles éthiques.Si, par ailleurs, il était démontré que les médecins et chercheurs mentionnés avaient délibérément transgressé l’interdit de clonage, nous aurions alors la démonstration claire que des chercheurs peuvent faire preuve d’insouciance et d’inconscience face aux conséquences et aux retombées perverses de leurs travaux.Il faudrait alors, à mon avis, introduire un ou des moyens de contrôle beaucoup plus musclés que de simples règles éthiques auxquelles on adhère volontairement.Au moment où vous lirez ces lignes, le rapport de la commission royale d’enquête sur les nouvelles techniques de reproduction aura sans doute été rendu public.Il sera intéressant de voir ses recommandations quant au clonage humain.Raymond D.Lambert est membre de la SCFA, ex-président et cofondateur de la section québécoise du Mouvement universel pour la responsabilité scientifique (MURS-Québec) et professeur titulaire au Département d’obstétrique-gynécologie de la Faculté de médecine de l’Université Laval.RÉFÉRENCES 1.HALL, J.L.et al.«Experimental Cloning of Humain Polyploid Embryos Using an Artificial Zona Pellucida», texte d’une communication présentée au congrès conjoint de l’American Fertility Society et de la Société canadienne de fertilité et d’andrologie, 11-14 octobre 1993, p.S-l, communication n° 0.001.2.S1RARD, M.A.«La vie qui naît», Interface, vol.14, n° 6, 1993, p.13-23.3.KNOPPERS, B.M.Dignité humaine et patrimoine génétique, Commission de réforme du droit du Canada, 1991, p.33.4.KNOPPERS, B.M.et LEBRIS, S.«Recent Advances in Medically Assisted Conception: Legal, Ethical and Social Issues», Am.J.Law Med., 1991, vol.17, p.330-361.38 ac fi Clonage médiatique.Life is Xerox and I AM JUST A COPY.par Louise Vandelac Le 13 octobre dernier, au congrès des sociétés américaine et canadienne de fertilité et d’andrologie, Hall et al.(noms prédestinés pour une telle aventure du Grand Tout) concluaient leur communication sur le clonage d’embryons humains en disant qu’il leur fallait obtenir la permission pour poursuivre et élargir la recherche sur des embryons humains viables! Merveilleux, non?Des chercheurs violent les directives d’à peu près tous les comités d’éthique du monde, opposés à un tel aventurisme, pour demander la permission à postériori d’aller encore plus loin.Paradoxalement, c’est pourtant un scénario classique dans ce domaine! Les limites du faisable et du pensable ont constamment été repoussées par des passages à l’acte successifs, plus ou moins rapidement légitimés par le sensationnalisme médiatique, la sidération des gens assimilée à leur acquiescement — aussitôt qualifié de consensus —, l’attentisme des pouvoirs publics et le confinement de la réflexion éthique à des perspectives de légitimation ou de gestion.remises en cause par de nouveaux passages à l’acte.Ainsi, en 1978, la naissance de Louise Brown, ce premier bébé éprouvette, venait briser un moratoire des scientifiques dans le domaine, et cela après 10 ans d’expérimentations sur des milliers de femmes, expérimentations que le Conseil de recherche médicale britannique avait initialement refusé de financer, invoquant alors l’insuffisance de recherches sur les modèles animaux adéquats1.De même, les premières congélations d’embryons en France ont été menées sans l’aval du Comité national d’éthique, les premières microinjections d’un spermatozoïde sous la zone pellucide de l’œuf se sont faites contre l’avis de ce comité, etc.Dans le cas du clonage d’embryons humains, ce scénario du passage à l’acte semble, du moins pour l’instant, fonctionner à merveille.Il est vrai qu’en matière de direc- tives éthiques sur les technologies de reproduction, on ne peut trouver conception plus élastique que celle de l’American Fertility Society, au sujet de laquelle Erwin Chargaff a déjà écrit: «La plus vorace des chèvres n’aurait pas écrit un manuel de jardinage plus permissif2!».Quant à la Société canadienne de fertilité et d’andrologie, qui vient de publier un avis dit «éthique» autorisant rien de moins que la vente d’ovules et de zygotes (embryons au stade précoce), elle nage manifestement dans les mêmes eaux! Les médias, quant à eux, du moins d’après un aperçu sommaire d’articles du New York Times, du Time et de quelques quotidiens publiés dans la foulée de l’événement, semblent avoir rapidement emboîté le pas aux «clo-neurs».Sauf de louables exceptions3, ils ont endossé sans sourciller les prétendues justifications avancées par les chercheurs, à savoir qu’il ne s’agissait pas véritablement de «cloning» mais davantage de «twining» visant à créer plus d’embryons quand «le couple n’en produit pas suffisamment pour la fécondation artificielle» (New York Times, 30 octobre 1993).Avec de tels présupposés, les questions dites «éthiques» ont été essentiellement centrées sur certains usages éventuellement «problématiques» du clonage (double congelé pour des greffes, etc.) agrémentés de collages de propos éclatés avec en prime, dans le magazine Time (octobre 1993), un sympathique portrait de Hall et de ses collègues, le tout doublé d’un imparable sondage.Pour comprendre le caractère partiel et quasi frauduleux des justifications avancées par ces chercheurs, il faut savoir que : 1) il est extrêmement rare, vu le caractère musclé des stimulations ovariennes auxquelles sont généralement soumises les femmes en fécondation in vitro, que ces femmes n’aient qu’un seul ovule mature (ovocyte) susceptible d’être fécondé.Dans ce contexte, le clonage est aussi absurde qu’une chasse à la mouche à coup de canon! ¦wma i K- •'¦À WJT.iva ms: ni «Wmmm mmm r.¦ ¦¦ '’• •’sraa JANVIER - FÉVRIER 39 C M X C 2) certaines équipes de fécondation in vitro (FIV) ont montré, au cours du Sixième Congrès mondial de fécondation in vitro en Israël, que pour plusieurs indications médicales, les «taux de réussite» étaient aussi élevés avec un seul embryon qu’avec deux ou trois; 3) bien que cela soit éthiquement fort discutable, les praticiens de la FIV peuvent également utiliser des gamètes ou des embryons d’autrui, grâce à un «don» «rétribué ou non» d’embryons ou d’ovocytes; 4) sans que les auteurs approuvent aucunement ces pratiques, des recherches comme celles sur la maturation des ovocytes peuvent théoriquement permettre, à partir d’un morceau d’ovaire, de produire plusieurs ovocytes et donc éventuellement plusieurs embryons.Bien que de telles études soient encore à l’étape expérimentale, on dispose également des moyens techniques pour les mener à partir d’ovaires de cadavres, voire même d’ovaires d’embryons.Le problème semble ici moins d’ordre technique que d’ordre de légitimation sociale.Mais vu l’incroyable «surf» qu’on a réussi à faire jusqu’à présent sur la douleur de certains couples infertiles pour justifier souvent n’importe quoi, y compris les contrats de gestation et de clonage humain, rien n’est désormais vraiment impossible; 5) on s’étonne que personne ne se soit interrogé sur cette notion du nombre prétendument «insuffisant» d’ovocytes à féconder.D’autant plus que, soit dit en passant, nous avons presque tous été conçus à partir d’un seul ovocyte fécondé.En fait, on a raté une belle occasion de remettre en question cette production sérielle d’embryons aux effets souvent iatrogènes qui caractérise désormais la FIV et constitue, en fait, le véritable marchepied idéologique du clonage! Rappelons que les traitements hormonaux visant à forcer la production simultanée de plusieurs, voire de dizaines d’ovules matures et coûtant de 2 000 $ à 4 000 $ par cycle, représentent tant pour les compagnies pharmaceutiques que pour les praticiens en cause, l’un des principaux moteurs financiers de la fécondation artificielle.Or c’est l’ignorance des mécanismes d’implantation de l’embryon dans l’utérus (ignorance responsable de plus de 70 p.cent des échecs) qui a poussé de nombreuses équipes de FIV à administrer des «cocktails hormonaux» variés et cela, comme l’a souligné l’Organisation mondiale de la santé, sans évaluation systématique et rigoureuse de leur inocuité, et sans suivis à long terme de leurs effets sur la santé.En «boostant» ainsi l’ovulation, les praticiens Des embryons POUR LA RECHERCHE par Renée Martin À l’occasion du récent congrès conjoint de l’AFS et de la SCFA, la communication présentée par Jerry Hall et al.a reçu beaucoup de publicité et suscité une vive controverse.Premièrement, il faut préciser que c’est l’American Fertility Society qui a accordé un prix à Jerry Hall et non la Société canadienne de fertilité et d’andrologie.Deuxièmement, en tant que généticienne, je me dois de souligner le fait qu’il n’y a pas eu clonage.Les chercheurs ont fabriqué des «jumeaux identiques» d’un embryon polyploïde en séparant les cellules de cet embryon.Un embryon polyploïde comporte une ou plusieurs séries surnuméraires de chromosomes.Au lieu des 46 chromosomes habituels, il peut donc en posséder 69 ou 92.Avec un tel excès de chromosomes, les embryons polyploïdes ne se développent jamais normalement et ils sont à l’origine d’environ 20 p.cent de toutes les fausses-couches attribuables à une anomalie chromosomique.Comme un embryon polyploïde ne peut conduire à la naissance et à la survie d’un enfant, il serait immoral d’utiliser un tel em- bryon pour la fertilisation in vitro.La question qui se pose alors est la suivante: Que doit-on faire de ces embryons anormaux?Certains croient qu’il faut tout simplement les détruire.La SCFA et l’AFS estiment, quant à elles, qu’on gaspillerait ainsi un tissu humain précieux et elles préconisent plutôt l’utilisation de ces embryons à des fins de recherche, notamment pour mieux comprendre la biologie fondamentale du développement humain et pour trouver des moyens de combattre la stérilité humaine.Rappelons que la recherche faite à partir de ces embryons doit toujours être évaluée et approuvée par un comité bioéthique.Enfin, les implications émotionnelles de cette question sont indéniables; c’est pourquoi le gouvernement canadien a institué une commission royale d’enquête sur les nouvelles technologies de reproduction.Les conclusions de la Commission devraient être rendues publiques très prochainement, et nous attendons impatiemment ses recommandations et ses conseils.Renée Martin est professeure et chercheuse en génétique au Département de pédiatrie de l’Hôpital pour enfants de l’Alberta.Ex-présidente de la Société canadienne de fertilité et d’andrologie, elle présidait, en octobre dernier, le congrès conjoint de la SCFA et de l’AFS.Traduction: Marie Chalouh JANVIER - FÉVRIER INTE#ACE M C M X C I V ¦ BBBin i .I, i ~ Mafia cherchent à obtenir plus d’ovocytes, à transférer plus d’embryons, espérant ainsi augmenter les taux dits «de succès» (lesquels oscillent toujours entre 5 et 15 p.cent dans les meilleures équipes), et ils peuvent également stocker des embryons pour des essais de transfert ultérieur, ou encore, pour des dons à d’autres couples ou à la recherche.Pour la première fois de l’histoire de l’Humanité, on a donc procédé, généralement avec l’aval des instances dites éthiques, à la production en série d’êtres potentiels, appelés d’office «surnuméraires», ce qui n’est pas sans rappeler «ces vies qui ne valaient pas la peine d’être vécues», comme disaient les nazis.On a ainsi modifié le caractère généralement singulier de l’enfantement, transformant à la fois dans l’entre-chair et dans l’imaginaire collectif, le sens même de l’être en gestation.Et cela dans une logique de fuite en avant, pour asseoir la légitimité et poursuivre la diffusion prématurée de la FIV par des moyens aux effets pervers et potentiellement iatrogènes visant à en réduire les taux d’échec.Si cette production sérielle d’humains potentiels, appelés pour certains à naître et pour d’autres à n’être qu’ob-jets de recherche, apparaît comme le marchepied du clonage, c’est non seulement parce que le clonage en dérive directement, mais aussi à cause de la parenté maintes fois invoquée entre les accouchements multiples liés à la FIV et le clonage présenté comme simple technique de gémelléité.Pour certains, il n’y a pas de différence entre, d’une part, une femme qui a douze embryons dont huit seront congelés et quatre transférés — permettant la naissance de triplés puis, cinq ans plus tard, celle de jumeaux issus des embryons congelés —, et, d’autre part, une femme qui, faute d’embryons «suffisants», aura, à quelques années d’intervalle, le «jumeau» de son premier enfant.Et évidemment, qui peut s’opposer aux jumeaux?Surtout avec la flambée de triplés et de quadruplés en relation avec la FIV, responsable de 25 fois plus de grossesses multiples paradoxalement présentées comme des exploits médicaux.La confusion savamment entretenue entre gémelléité et clonage apparaît ici d’abord comme une stratégie de légitimation susceptible d’apaiser l’opinion publique, alors que dans les faits, le propre du clonage est que l’on puisse dédoubler, de façon exponentielle et à des dizaines d’exemplaires, les premiers doubles obtenus.C’est ce qu’on a fait déjà chez Alta Genetics à Calgary, l’un des plus grands exportateurs de clones de vaches.Certains prétendront que la technique de Hall n’est pas du «véritable clonage», alors qu’elle renferme les mêmes redoutables potentialités.D’autres ajouteront qu’on se contentera, chez l’humain, de produire deux ou trois clones seulement.comme on a déjà dit qu’on ne ferait jamais de clones! Certains éthiciens réputés, comme le Dr Joseph Fletcher, prétendront, quant à eux, que le clonage représente en quelque sorte une manifestation même d’humanité: «L’être humain est un créateur, et plus une œuvre est le fruit de sa volonté et de sa raison, plus elle est humaine.C’est pourquoi [.] la reproduction en laboratoire est infiniment plus humaine que la conception par relations hétérosexuelles ordinaires.» (New York Times, 30 octobre 1993) Bref, sous l’œil attentif de tels éthiciens, tout est prêt pour passer de la «quasi-animalité» des conceptions sexuelles ordinaires à l’« humanité supérieure» des conceptions clonées.pour le meilleur des mondes! Louise Vandelac est profes-seure titulaire au Département de sociologie de l’UQAM.Elle a également siégé à la commission royale d’enquête sur les nouvelles technologies de reproduction (commission Baird), commission dont elle démissionna en 1991.RÉFÉRENCES 1.BLANC, Marcel.L'Ère de la génétique, Paris, Éditions La Découverte, 1986.2.CHARGAFF, Erwin.«Engineering a Molecular Nightmare», Nature, vol.327, n° 21, mai 1987, p.200.3.STEINFELS, Peter.«Beliefs», New York Times, 30 octobre 1993.Éditorial de Jean-Robert Sansfaçon, Le Devoir, 30-31 octobre 1993.NOTE: Ce texte est extrait d’un article intitulé «La reproduction médiatique assistée» publié dans le mensuel L’AGORA (décembre 1993).FÉVR E R Un clone au cas où.par Abby Lippman La fabrication d’êtres humains n’est plus une invention de la science-fiction, mais une réalité biomédicale.Le clonage d’embryons humains — ou, à tout le moins, la création en laboratoire de jumeaux identiques —, que l’on crut longtemps infaisable et ne méritant donc pas qu’on y réfléchisse sérieusement, est maintenant faisable et.fait, et au grand jour.En tant que mode de fabrication d’«enfants en attente», cette nouvelle technologie s’ajoute à celles qui ont déjà permis de créer des milliers d’embryons non identiques gardés congelés dans des laboratoires en Amérique du Nord (et ailleurs).Elle s’ajoute aussi aux pratiques eugéniques déjà inscrites dans les technologies génétiques et les autres technologies de reproduction plus répandues aujourd’hui, dont les enjeux économiques sont considérables et qui favorisent les privilégiés de notre société tout en protégeant leurs intérêts.Elle crée enfin un contexte où la manipu- lation des cellules germinales n’est plus seulement possible, mais faisable.Pour promouvoir ces technologies, on recourt à des arguments faciles et toujours séduisants pour un public avide de promesses médicales: on fabrique et on conserve un embryon jumeau «au cas où», après la naissance, l’enfant aurait besoin d’une greffe, ou encore, «au cas où» l’enfant mourrait en bas âge.Comment rejeter de tels arguments?Comment renoncer à une telle planche de salut?Nul ne saurait nier la tragédie que vit une famille lorsqu’un enfant meurt ou développe une maladie nécessitant une transplantation d’organe.Mais la naissance tardive d’un jumeau sert-elle à apaiser cette tragédie ou simplement à fournir une pièce de rechange?Les justifications invoquées («au cas où») banalisent les expériences de clonage et sont particulièrement troublantes dans la mesure où elles cautionnent l’utilisation d’êtres humains comme «moyens» plutôt que comme fins en soi et pour soi.Cette incroyable réification de la vie, qui consiste à créer un être humain pour sa valeur commerciale, ouvre la porte à l’exploitation des fœtus et des femmes, une porte déjà largement entrouverte si l’on en juge par les commentaires de quelques femmes qui se sont soumises à la fécondation in vitro et à la sélection De la nécessité de lignes DIRECTRICES AYANT FORCE DE LOI par Maureen McTeer Au cours du récent congrès conjoint de l’AFS et de la SCFA, des chercheurs ont indiqué qu’il est désormais possible, au moment de l’interruption d’une grossesse avancée, de prélever un ovocyte immature du fœtus, de l’amener à maturité en laboratoire et de le féconder à l’aide du sperme d’un donneur anonyme.L’embryon peut alors être implanté dans l’utérus d’une mère porteuse (comme on le fait couramment pour les animaux de la ferme), mené à terme, puis mis au monde.Le résultat, sans précédent dans l’histoire de l’humanité, est un enfant né d’une enfant qui, elle, n’est jamais née.L’utilisation et le développement de la fertilisation in vitro doivent faire l’objet d’un débat public entre toutes les personnes intéressées et informées.Il n’est cependant pas nécessaire d’avoir une formation médicale ni scientifique pour comprendre la profondeur des problèmes qui se posent sur les plans éthique, moral, juridique et social, et l’urgence d’adopter des règlements et des lois pour protéger les droits individuels et collectifs ainsi que les libertés auxquelles tous les Canadiens et toutes les Canadiennes sont si fortement attachés.En tant que membres d’une société ouverte et démocratique, nous devons nous assurer que les activités des scientifiques ne portent pas atteinte aux droits et aux valeurs que nous avons enchâssés dans nos lois, que ce soit la Charte des droits et libertés ou l’une ou l’autre des lois fédérales et provinciales concernant les droits de la personne.Comment y arriver?Il faut d’abord exiger de savoir, et il faut qu’on nous dise, quel type de recherche est en train de se faire sur l’embryon humain, qui fait cette recherche, où et à quelles fins.Je crois que le gouvernement fédéral devrait, en ce qui a trait à ces nouvelles technologies, énoncer une série de lignes directrices visant à préciser la nature des enjeux de même qu’à réaffirmer notre volonté collective de protéger les droits individuels et collectifs garantis par nos lois et nos coutumes.Ces lignes directrices devraient avoir force de loi et s’articuler autour des principes suivants: INTERFACE # d’embryons pour créer un fœtus, là encore «au cas où».La différence est que cette nouvelle technologie crée un jumeau qui pourrait éventuellement servir de donneur, alors que le fœtus, qui n’est pas un jumeau identique, pourrait ne pas faire l’affaire.Elle crée un jumeau qui serait génétiquement identique à l’enfant mort, qui ne serait donc pas «seulement» son frère ou sa sœur.Le temps du clonage est peut-être venu, comme l’affirment certains éthiciens et notamment Joseph Fletcher, qui voit dans cette technologie un signe de progrès.Mais est-ce un progrès?Et le temps est-il vraiment venu d’adopter une telle pratique?Devons-nous — et devrions-nous — faire tout ce que nous pouvons face à une tragédie individuelle?Que signifie le fait d’avoir des enfants en général?Que signifie le fait d’avoir des enfants d’un type particulier destinés à servir les fins des autres tel que le propose le clonage?Comme il est impossible que le clonage satisfasse jamais aux exigences d’une recherche éthique, son temps n’est pas venu et ne devrait jamais venir.Pour corriger les défauts dont la nature ou les humains sont responsables, nous ne pouvons ni ne devons recourir à n’importe quelle solution technologique; les moyens de contrôler le patrimoine biologique des humains ne sont pas tous acceptables socialement et moralement.Il est rare qu’il faille interdire complètement une expérimentation scientifique.Voilà pourtant un cas où cela s’impose.Sîïgœgte.m kiMftituI *r V\, .Mt, .« Premièrement, aucun être humain ne doit etre utilise comme un moyen d’attein dre les fins d’un autre être humain Deuxièmement, le corps humain, ses organes et ses fonctions ne sont pas des objets de commerce, et ils ne doivent être ni achetés, ni vendus.Troisièmement, le corps humain, ses organes et ses fonctions ne doivent en aucun cas faire l’objet d’un brevet d’invention.Enfin, l’intérêt de l’être humain en voie d’être « créé » doit prévaloir advenant un conflit mettant en cause les technologies de reproduction et la manipulation génétique.Une politique générale s’impose pour déterminer ce qui constitue une activité scientifique acceptable dans le domaine des technologies de reproduction et de la génétique humaine.Le gouvernement doit en faire une priorité.Abby Lippman enseigne l’épidémiologie à l’Université McGill.Elle préside le comité de génétique humaine du Council for Responsible Genetics (Cambridge, Massachusetts).Traduction: Marie Chalouh Maureen McTeer est avocate et elle a fait partie de la commission royale d'enquête sur les nouvelles technologies de reproduction.Elle a publié The Tangled Womb: The Politics of Human Reproduction chez Harper Collins Canada.Elle est actuellement professeure invitée à l’École de la santé publique de l’Université de la Californie, à Berkeley.Traduction: Marie Chalouh INTE^ACE L’UNIVERS, LE TEMPS ET LA LIBERTÉ La conception d’Ilya Prigogine PAR ANDRÉ LEMELIN André Lemelin EST ANALYSTE-CONSEIL AU MINISTÈRE DE l’Éducation et de la Science.La tasse de thé, au ralenti, s’abîme sur le plancher, où elle s’anéantit.Les éclats de porcelaine volent en tous sens, le liquide se répand et va refroidir, inéluctablement, jusqu’à un nouvel équilibre.Mais bientôt le film s’inverse, cet ensemble erratique se réorganise et le thé réintègre et la tasse et la table.Voilà une scène centrale de cette Brève Histoire du temps, de Roy Ellis, un film réalisé d’après ce livre de Stephen Hawking.À la place de la tasse de thé, on peut imaginer l’univers et ce sera toujours conforme à la théorie, puisque les équations de la physique sont réversibles.Nous venons d’un Big Bang et serons broyés dans un Big Crunch, mais la pulsation pourrait parfaitement reprendre, le pendule continuer son mouvement perpétuel.Dans quelque temps, quelques années peut-être, quand nous connaîtrons bien les conditions initiales, nous saurons calculer la naissance anecdotique de l’univers et prévoir sa fin factice.Dans cette théorie du tout, la science sera achevée.Nous aurons atteint la certitude et l’aurons figée dans une série d’équations définitives, décrivant parfaitement l’univers et ses lois, son passé et son avenir.Car l’univers est, mais ne devient pas, dans ce monde où le temps est illusion.Cependant, pour certains, cette proposition est intenable.Elle est en contradiction complète avec l’expérience: «Nous ne sommes pas, nous devenons.» Selon llya Prigogine, Prix Nobel de chimie 1977 pour ses recherches sur les structures dissipatives, l’inscription de l’événement dans le temps, dans le temps humain de tous les jours, celui que nous sentons comme nous nous sentons vivre, ne peut être illusoire.Le temps joue bel et bien un rôle.De passage au Québec fin septembre, le professeur Prigogine était président d’honneur du 4e Festival international du film scientifique du Québec.À ce titre, il prononçait la conférence inaugurale, «Les lois de la nature — Du certain au probable».Il commentait d’abord ce film attachant sur Hawking, sur l’homme et son œuvre.Mais il enchaîna rapidement: comment en est-on venu à des positions comme celle de Hawking, qui croit sincèrement que la Théorie du Tout nous donnera accès à la pensée de Dieu?«Il faut, pour le comprendre, revenir à la notion de loi de la nature.Pour la science occidentale, disons depuis Newton, la connaissance des conditions initiales nous permet de déduire la totalité d’un phénomène.Et le temps n’y joue pas: les réactions sont parfaitement réversibles.Cette idée a survécu à la relativité et à la mécanique quantique — mais d’où vient-elle?De la théologie, pour une bonne part.» En effet, comprendre Dieu à travers les lois de la nature, c’est comprendre la nécessité dans la nature et se rapprocher du divin.Pour Dieu, omniscient, le temps ne signifie rien, si bien qu’une science est jugée satisfaisante si le temps n’y joue pas.CQFD.Le professeur Prigogine rappelle que cette obsession de la certitude apparaît au moment des guerres de religions.Pour aller au-delà de certitudes conflictuelles, Descartes recherche la certitude universelle dans les sciences (la mathématique) et la philosophie (le cogito).«Ainsi espère-t-il dépasser le tragique de l’histoire, dépasser l’histoire elle-même.» On retrouve chez Einstein cette quête de l’harmonie de l’éternel.Pour lui, le scientifique se situe en dehors du social, c’est celui qui fuit la ville et médite sur un rocher, au-dessus de la vallée, sous les étoiles.Ainsi Einstein déclare-t-il, en enterrant son ami : « Bono nous a quittés, mais nous, scientifiques, nous savons que le temps n’est qu’illusion.» Le prix à payer pour cette notion, c’est donc un dualisme fondamental.«La consécration de l’étrangeté mutuelle de la science et de la vie», selon la belle formule du professeur.Cette science, en effet, ne peut nous permettre de nous décrire, de comprendre la Vie, notre vie qui se déroule elle dans le temps.Et c’est l’aliénation, le désenchantement du monde — le désenchantement tout court.Pour llya Prigogine, au contraire, la science ne doit .LE TEMPS EST INVENTION OU IL N’EST RIEN DU TOUT.Henri Bergson INTBfcfcACI pas être cette entreprise désincarnée.C’est une entreprise sociale, située dans le temps.Mais comment incorporer la flèche du temps à la science?De fait, si, jusqu’à maintenant, la physique (y compris celle de la relativité) a affirmé le caractère réversible du temps, c’est que nous n’avons pas étudié de phénomènes suffisamment complexes.«On peut bien imaginer comme Hawking un univers sans temps irréversible; pour un chimiste, c’est beaucoup plus difficile, puisque toute réaction est irréversible.» Boltzmann, il y a un siècle, influencé par Darwin, a, le premier parmi les physiciens, formulé une conception évolutive de l’univers.Mais la force de l’establishment «statiste» était telle que, attaqué, il a avoué sa faute et s’est soumis.Ce qui, pour Einstein, a constitué un véritable triomphe de la science! Mais ce siècle a vu la découverte inattendue du rôle constructif du temps.Après la révolution quantique et la révolution relativiste, vint la révolution dans la dynamique, la branche la plus ancienne de la physique.Les nouvelles connaissances ainsi produites sont désormais appliquées partout, même en sciences sociales.Comme le dit llya Pri-gogine, «les phénomènes irréversibles ont un rôle créateur extraordinaire.Avec cette science, nous sommes loin de la certitude et de l’omniscience.Au contraire, le déterminisme est fini dans les systèmes complexes».Dans les systèmes chaotiques, la notion de trajectoire, fondamentale en mécanique classique, échoue.Les problèmes sont solubles sur le plan des probabilités, d’un ensemble de trajectoires.Dans les systèmes non intégrables (qu’on ne peut par aucune transformation rendre semblables à d’autres), les équations de Newton ne suffisent pas non plus.De même, cette révolution dynamique engendre une cosmologie tout à fait différente.Alors que dans les équations de Hawking, la variable temps est indifférenciée, comme fondue dans la variable espace, cette cosmologie nouvelle devrait redonner au temps sa valeur propre.Il s’agirait, comme le dit Prigogine, «non plus de spatialiser le temps, mais de temporaliser l’espace», de montrer en somme comment l’espace évolue dans le temps.Le début de l’univers est certes le phénomène le plus irréversible qui soit.«C’est le passage des particules virtuelles, qui naissent par paires et éventuellement s’annulent, aux particules réelles, libres d’aller en tous sens.C’est la création de possibilités de liberté.» Le prix de l’univers, c’est donc un prix entropique, matière et entropie étant deux concepts étroitement liés.Il faut créer de l’entropie.Il s’ensuit que le futur de l’univers n’est pas connu — il est au contraire essentiellement incertain.La flèche du temps fait intervenir des lois physiques qui ne sont pas celles de la certitude et de la symétrie futur-passé.D’où la nécessité de formuler des lois différentes, pour exprimer le possible et non le certain.En d’autres termes, «l’Uni- SA-Z*.vers n’est pas, il devient, comme l’Homme».L’univers est l’expression d’événements, pas seulement de lois.Comme en musique, les règles ne suffisent pas.En somme, nous ne vivons pas la fin de la science, mais le début d’une nouvelle aventure de la raison.Si le dualisme entre la science que nous construisons et la vie que nous vivons est vrai, nous sommes exclus de la description que nous faisons de l’univers.Nous ressentons le besoin de retrouver l’unité perdue, de suturer cette coupure entre les deux mondes.Ce sentiment n’est pas propre aux scientifiques, d’ailleurs; il est partagé par les écrivains et les artistes.Car toute vision qui exclut le temps est une vision artificielle.Aussi une tâche nous attend, à laquelle nous invite le professeur Prigogine: «Il nous faut trouver la porte étroite entre le déterminisme et l’aléatoire.Cela est en train de s’élaborer.Le futur n’est pas écrit: il est l’une des possibilités engendrées par le présent.C’est une construction à laquelle chacun peut participer.» Tout naturellement, d’ailleurs, puisque, comme l’a écrit Borges, «le Temps est la substance dont je suis fait».POUR EN SAVOIR PLUS llya Prigogine et Isabelle Stengers, Entre le temps et l'éternité, Fayard, 1988, 222 pages.llya Prigogine et Isabelle Stengers, La Nouvelle Alliance, Gallimard (Folio), 1986, 439 pages.llya Prigogine, Physique, temps et avenir, 2e édition, Masson, 1982, 280 pages.Paul Glansdorff et llya Prigogine, Structure, stabilité et fluctuation, Masson, 1971, 288 pages.4ÿAC SCIENCECLIPS .Et un jour, elles furent admises à l'Université UNE FEMME À L’UNIVERSITÉ: QUOI DE PLUS NORMAL POUR LA SOCIÉTÉ D’AUJOURD’HUI?ET POURTANT, AU QUÉBEC, C’EST LÀ UNE RÉALITÉ TRÈS RÉCENTE.EN EFFET, BIEN QUE LA PREMIÈRE UNIVERSITÉ FRANCOPHONE DE LA PROVINCE, EN L’OCCURRENCE L’UNIVERSITÉ LAVAL, AIT ÉTÉ FONDÉE EN 1852 (SOIT NEUF ANS gieuses, demanderont au haut clergé de corriger la situation.Ce n’est qu’en 1908, alors que l’ouverture d’un lycée laïc pour jeunes filles dans la métropole apparaît imminente, que les clercs acquiescent à la création, par la Congrégation Notre-Dame de Montréal, d’un collège classique pour filles.Malgré les démarches incessantes des religieuses de la Congrégation de Jésus-Marie, le deuxième collège du genre au Québec ne verra le jour, à Sillery cette fois, qu’en 1925.En dépit de ce gain apparent, de nombreux obstacles structurels continuent alors de retarder ou de limiter l’admission des femmes à l’Université Laval.Par exemple, le contenu du programme du collège féminin de Sillery, déterminé par les autorités de l’Université, diffère de celui du programme collégial des garçons.C’est pourquoi, mis à part la Faculté des arts, les autres facultés — celles de théologie, de médecine et de droit — JEANNE D’ARC LEMAY DROIT YVETTE BRISSETTE MÉDECINE MADELEINE THERRIEN-FERRON DROIT APRÈS L’UNIVERSITÉ MCGILL, LA PREMIERE UNIVERSITÉ ANGLOPHONE), LES FEMMES n’y ont été admises pour leurs études supérieures qu’à compter de 1929.Guylaine Girouard s’est intéressée à ce sujet dans le cadre d’une maîtrise en histoire effectuée à l’Université Laval et supervisée par Johanne Daigle.Selon la chercheuse, au départ, ce sont les femmes des classes aisées qui, voyant qu’elles avaient besoin d’instruction — pour obtenir l’amélioration de leurs droits juridiques de même que pour mieux réaliser leurs œuvres destinées à venir en aide aux pauvres et aux malades — ont demandé que les filles puissent, elles aussi, étudier à l’université.Selon les archives consultées, l’une des premières requêtes individuelles effectuées par une femme auprès de l’Université Laval remonte à 1901.Cette femme veut alors étudier la chimie et la botanique en vue de tenir une pharmacie.Sa demande est refusée car, pour les clercs catholiques alors à la direction de l’institution, il est entendu que le rôle de la femme ne consiste pas à exercer une profession, mais à assumer les fonctions d’épouse et de mère.«À cette époque, rappelle Guylaine Girouard, pour les femmes désireuses de parfaire leur instruction, il est d’autant plus difficile d’être admises à l’université qu’il n’existe pas pour elles de collèges classiques leur permettant d’acquérir les préalables nécessaires.» Plusieurs laïques, aussi bien que des reli- de l’Université Laval demeureront fermées aux femmes, au moins jusqu’en 1936.C’est en 1929 que l’Université Laval admet ses premières étudiantes régulières.Cette année-là, elles sont trois, toutes dans le domaine de l’enseignement.Aucune néanmoins ne terminera son programme; un phénomène fréquent à l’époque, selon Guylaine Girouard.Par ailleurs, les quelques femmes qui décident d’accéder aux programmes universitaires choisissent très souvent INTE4# AC CMXCI Allocution de Monseigneur Olivier Mathieu à la collation des grades en 1904, année où pour la première fois une femme, Marie Sirois, recevait un diplôme de l’Université Laval pour un cours du soir.Fait à noter, Marie Sirois n’avait pas été invitée à la remise des diplômes.« Mademoiselle Marie Sirois mérite de chaudes félicitations.Elle est la première femme à recevoir une distinction officielle de notre université et il faut espérer qu’elle sera suivie de plusieurs autres.« Il faut bien se rappeler que les femmes ne sont pas condamnées à la médiocrité.Sans doute elles ne doivent pas, comme disait De Maistre, émuler l’homme, chez qui sont nécessaires une foule de connaissances absolument inutiles pour le rôle que les femmes ont à remplir.MARIE SIROIS « Mais tout de même, on ne peut que louer celles qui emploient leurs loisirs à cultiver leur intelligence, à orner leur esprit de connaissances qui les rendent plus agréables et plus utiles à ceux avec qui elles entrent en relation.«Vous ne craignez pas de faire des bas bleus*, nous dira-t-on?Nous répondrons avec M9r de Mermillod : < Nous ne craignons pas de faire des bas bleus, pourvu que la robe de leur modestie soit assez longue pour les cacher >, et les femmes de Québec sont modestes, elles sont assez intelligentes pour savoir qu’elles doivent être comme des fleurs qui n’exhalent leur parfum que dans l’ombre.» Source: Cahier 52, p.37.* Femmes écrivaines, précieuses et pédantes de le faire comme auditrices libres plutôt qu’à titre d’étudiantes régulières.Il faut donc attendre 1934 pour voir une première diplômée universitaire de Laval pour un cours complet de 1er cycle (un diplôme en philosophie).À partir de 1936, la situation évolue manifestement.La Faculté de médecine de l’Université accepte enfin d’ouvrir ses portes à deux femmes.Et de façon générale, les étudiantes terminent désormais le programme qu’elles entreprennent.De 1938 à 1945, des changements effec- tués par l’institution, tels une diversification des programmes et un allégement des conditions d’admission, favorisent l’augmentation du nombre de femmes à l’Université.Ainsi, en 1945, année où la progression des admissions féminines commence toutefois à ralentir, elles seront 530 à fréquenter l’Université Laval, ce qui constitue près de 22 p.cent de la population étudiante de l’institution.Quel contraste avec la réalité d’aujourd’hui! Des statistiques de 1992 démontrent, en effet, qu’il y a mainte- nant plus de 20 000 femmes qui étudient à l’Université Laval, ce qui représente quelque 55 p.cent de la population étudiante de l’établissement.Autre exemple de revirement: tandis qu’en 1945, la théologie et l’agriculture demeuraient des domaines strictement masculins, actuellement, plus de 58 p.cent des personnes inscrites dans ces disciplines sont des femmes.LYNE LAUZON 150 - 100 - Moyenne annuelle des inscriptions féminines Programmes d'ordre universitaire UNIVERSITÉ LAVAL (1929-1945) Développement des admissions Source: Cahier 52, p.76 Années scolaires Inscriptions F H Pourcentage de 1929-30 3 500 0,6 1930-31 0 477 0 1931-32 23 510 4,3 1932-33 3 470 0,6 1933-34 18 513 3,4 1934-35 8 516 1,5 1935-36 12 531 2,2 1936-37 6 587 1 1937-38 10 628 1,6 1938-39 55 920 5,6 1939-40 52 1011 4,9 1940-41 59 1045 5,3 1941-42 124 1098 10,2 1942-43 174 1124 13,4 1943-44 428 1292 24,9 1944-45 502 1602 23,9 1945-46 530 1909 21,7 4/fcA c Source: Cahier 52, publié par le Groupe de recherche multidisciplinaire féministe (GREMF) de l'Université Laval et dont le texte est issu du mémoire de Guylaine Girouard, 1993, p.64.M C M XC Diététique pour grands UNE ÉTUDE VIENT DE RÉVÉLER QUE, CONTRAIREMENT À CE QU’ON CROYAIT, UNE DIÈTE PAUVRE EN MATIÈRES GRASSES EST NÉFASTE POUR LES GRANDS BRÛLÉS PARCE brûlés QU’ELLE ACCÉLÈRE LA DÉGRADATION ê DE LEURS MUSCLES.CETTE ÉTUDE DIRIGÉE PAR LE DOCTEUR DOMINIQUE GARREL, UN ENDOCRINOLOGUE RATTACHÉ AU CENTRE DE RECHERCHE DE l’Hôtel-Dieu de Montréal, est en cours depuis deux ans.Pour des raisons encore ignorées, les grands brûlés perdent deux ou trois kilogrammes de muscles par mois même s’ils sont abondamment nourris de protéines.Il semble que leur organisme préfère s’attaquer à la masse musculaire plutôt que de puiser dans ces protéines.«C’est comme si vous démolissiez le mur de la chambre à coucher pour en faire un garage», résume le docteur Garrel.L’étude de l'Hôtel-Dieu démontre qu’il est possible de contrôler ce phénomène d’«autophagie» par une diète appropriée.Sans peau pour se protéger, l’organisme des grands brûlés mène une lutte de tous les instants contre l’infection et les chutes de température.Ce combat du système immunitaire nécessite l’absorption de quelque 3200 calories par jour.Très souvent, les malades sont inca- pables de manger parce que leur estomac se contracte et refuse toute nourriture.On doit alors les nourrir par un tube relié à l'intestin.Les cas de 31 personnes ont été étudiés.Celles qui ont reçu 15 p.cent de leurs calories sous forme de lipides ont perdu deux fois plus de protéines musculaires que celles dont la diète contenait 30 p.cent de lipides.Fait étonnant, les personnes qui ont consommé 20 fois moins de lipides ont perdu plus de muscle, mais ont quitté l’hôpital 12 jours plus tôt que les autres en moyenne.On pense, en effet, qu’un régime bas en lipides favoriserait la cicatrisation.La relation de cause à effet entre le régime alimentaire et la durée de l’hospitalisation reste cependant à confirmer.Pour ce faire, l’étude du docteur Garrel pourrait continuer jusqu’à ce que 45 grands brûlés y aient participé.Pour l’instant, il semble impossible de «stopper» complètement la dégradation des muscles chez les grands brûlés, mais les chercheurs comprennent de mieux en mieux le phénomène.Le docteur Garrel a remarqué, par exemple, que les personnes qui reçoivent une alimentation pauvre en matières grasses ont un taux de cortisol dans le sang qui est de 30 p.cent supérieur à celui des personnes qui ont une diète normale.Or on sait que cette hormone sécrétée en quantité importante par l’organisme des grands brûlés favorise le processus d'« autophagie».Par ailleurs, le docteur Garrel s’intéresse aux bienfaits d’une sous-catégorie de lipides: les acides gras oméga-3.On trouve ces derniers dans les huiles de poisson, entre autres dans l’huile de foie de morue.L’étude du docteur Garrel démontre qu’une forte dose d’huile de poisson protège les grands brûlés contre la perte musculaire.On pense que les oméga-3 ralentissent l’action destructrice du système immunitaire sur les muscles.Le docteur Garrel prépare déjà une étude comparative qui permettra de vérifier ces hypothèses.DOUGLAS BEESON INTEéfrACE .La vraie vie d'un trottoir en hiver LES TROTTOIRS DE NOS VILLES ONT TOUJOURS AUSSI PEU FIÈRE ALLURE À LA SORTIE DE L’HIVER.POURTANT, DEPUIS LES ANNEES 1950, LES RECHERCHES SUR LA RESISTANCE DU BÉTON AUX CYCLES DE GEL ET DE DÉGEL SE SONT MULTIPLIÉES.MAIS SI L’ON SAIT AUJOURD’HUI FABRIQUER DES TYPES DE BÉTON QUI RÉSISTENT À L’ACTION DU GEL, LES PHENOMENES D’ECAILLAGE EN SURFACE NE SONT PAS ENCORE BIEN MAÎTRISÉS.OUTRE LE FROID, LES QUANTITÉS massives de sels déversées au cours des opérations de déneigement peuvent, au fil des ans, dévorer littéralement plusieurs millimètres d’épaisseur de béton.Le Centre de recherche interuniversitaire sur le béton (CRIB), qui regroupe des chercheurs de l’Université Laval et de l’Université de Sherbrooke, tente de comprendre les mécanismes de détérioration en cause et de trouver des moyens d’augmenter la résistance du béton à ces dégradations.Dans la plupart des cas, les études dans ce domaine sont effectuées en laboratoire en testant des éprouvettes de béton selon des procédures normalisées.La fiabilité de ces tests est de plus en plus remise en question.Marie-Claude Laroche, qui termine actuellement son mémoire au CRIB à Québec, a voulu vérifier de façon très précise l’efficacité de la méthode d’essai pour les phénomènes d’écaillage, baptisée ASTM C672, en comparant les résultats obtenus en laboratoire avec des échantillons de béton plus ou moins détériorés, soumis depuis plusieurs années aux conditions naturelles.«Nous avons, avec la collaboration des ingénieurs de la Ville de Québec, prélevé E91-01 lui m n *r j k* - *• > ; deux séries d’échantillons sur divers trottoirs.La première regroupait six mélanges de béton ayant montré une bonne résistance à l’écaillage tout au long des six années pendant lesquelles ils avaient été exposés aux conditions naturelles.La seconde comportait quatre mélanges détériorés au bout de seulement trois ans d’utilisation», explique Marie-Claude Laroche.La composition originelle des types de bétons prélevés à l’extérieur étant connue, trois types de béton de composition similaire à ces échantillons ont pu être fabriqués en laboratoire.Tous ces matériaux ont subi les tests habituels de résistance à la compression, de perméabilité aux ions chlore contenus dans les sels fondants et d’écaillage.«Nous avons également mesuré le fac- À GAUCHE: BÉTON ÉCAILLÉ APRÈS TROIS ANS EN SERVICE.À DROITE: BÉTON SAIN APRÈS SIX ANS EN SERVICE.teur d’espacement des bulles d’air dans chaque type de béton», ajoute-t-elle.En effet, pour augmenter la résistance du béton au gel, les fabricants y incorporent un réseau de bulles d’air, grâce à des adjuvants particuliers.Conséquence: lorsque l’eau contenue dans le béton gèle, le volume du matériau augmente.Si les bulles d’air sont bien réparties dans la masse du béton, elles servent alors de réserve d’espace pour le gel.La structure est ainsi moins endommagée par les variations de volume interne, variations auxquelles ne peut résister, dans certains cas, la pâte de ciment.Le test d’écaillage en présence de sels fondants comporte 50 cycles de gel-dégel, d’une durée d’une journée chacun.La température varie de +22 °C à -18 °C.Les plaques de béton sont recouvertes d’une couche d’eau saturée en chlorure de sodium.Le test d’écaillage a donné des résultats parfois surprenants.«Il nous a permis de classer correctement les types de béton en fonction de leur résistance 49 à l’écaillage: on distingue très nettement sur les graphiques les matériaux qui ont très bien résisté et ceux qui n’ont pas tenu le coup.Mais d’après ce test, tous ces échantillons avaient une résistance à l’écaillage supérieure à celle habituellement préconisée par les fabricants.Ils étaient donc censés résister tout au long de leur durée de vie, soit de 20 à 25 ans pour un trottoir.Pourtant, après trois années de service, certains d’entre eux étaient déjà très abîmés», raconte Marie-Claude Laroche.La limite fixée pour ce test normalisé, utilisé dans toute l’Amérique du Nord, ne semble pas adaptée : le test doit pouvoir être amélioré.En fait, la chercheuse explique que les conditions expérimentales de l’essai sont loin de reproduire ce qui se passe dans la réalité, notamment pour ce qui concerne les sels fondants.«Pour l’instant, on cherche à dégager des tendances.On ne reproduira jamais en laboratoire les conditions réelles, mais on peut chercher à s’en approcher.» Des études montrent, par exemple, que la réaction du béton est très différente selon qu’il a été préalablement recouvert d’une couche d’eau saturée en sel avant le gel, comme c’est le cas dans le test, ou d’une couche de glace sur laquelle le personnel d’entretien de la ville a projeté du sel.Dans le premier cas, la couche d’eau salée forme à la surface une plaque de gel qui gêne les mouvements internes du béton.Dans la réalité, le béton commence par geler sur toute l’épaisseur du trottoir, avant de subir un choc thermique lorsque le sel est projeté à sa surface.«Par ailleurs, ces résultats tendent à prouver ce que nous soupçonnions déjà: la résistance du béton à l’écaillage ne dépend pas que de sa composition et de sa fabrication, mais aussi d’autres facteurs beaucoup plus difficiles à maîtriser, poursuit Marie-Claude Laroche.On sait, par exemple, que les camionneurs, lorsqu’ils livrent le béton sur les chantiers, ont tendance à y ajouter de l'eau pour faciliter les opérations, ce qui réduit considérablement la qualité du matériau.De même, si les membranes de mûrissement sont mal appliquées, l’eau contenue dans le béton risque de s’évaporer, ce qui le fragilisera en sur- face.Enfin, certains entrepreneurs ont tendance à appuyer fortement sur le béton au moment de la finition; les bulles d’air proches de la surface sont alors complètement déformées, elles disparaissent ou se regroupent en grosses bulles fragiles et inutiles.» Pour que les trottoirs retrouvent fière allure, il faudrait que les producteurs de béton forment mieux les personnes qui manipulent leur produit au jour le jour.Pour améliorer l’essai de résistance à l’écaillage, il est nécessaire de mieux connaître les conditions de vie auxquelles est soumis le béton des trottoirs.«La suite de nos études consistera justement à évaluer ces conditions, en intégrant tous les paramètres possibles», conclut Marie-Claude Laroche.VALÉRIE BORDE ¦Hi liLüni.L'homme C’EST À UN VÉRITABLE TRAVAIL DE MOINE QUE S’EST ATTAQUÉ MIROSLAV M.GRANDTNER, PROFESSEUR À L’UNIVERSITÉ LAVAL, LORSQU’IL A ENTREPRIS DE RASSEMBLER DANS UN MÊME VOLUME LES NOMS — SCIENTIFIQUES, ANGLAIS, français, espagnols et en plusieurs autres langues — de tous les arbres de la Terre.«C’est un travail qui prend beaucoup de détermination, ce qui ne me manque pas», de confier le professeur qui, bien qu’à la retraite depuis septembre 1993, poursuivra son œuvre à titre de professeur associé.À son aboutissement en 2003, l’aventure aura duré 14 ans.L’ouvrage devrait comporter cinq tomes, un par continent.Seul l’ouvrage du botaniste allemand Meyer soutient la comparaison avec l’entreprise de l’ancien professeur d’écologie forestière de Laval; en 1933, Meyer inventoria 5500 espèces dans une publication portant également sur les cinq continents.La production du dictionnaire mondial des arbres chemine pas à pas, ou plutôt pays par pays.De 50 000 à BAOBAB DICITÉ, MALI CHÊNE PÉDONCULÉ, SUÈDE JANVIER - FÉVRIER 50 PIN SYLVESTRE, SUÈDE ARANCARIA ARANCANE, CHILI BOULEAU VERRUQUEUX, SUÈDE qui répertoriait les arbres 60 000 noms d’espèces devraient s’y retrouver.Actuellement, le travail sur l’Amérique du Nord, du Groenland à la frontière sud du Panama, est presque terminé.On parle de 6 500 espèces.Le Québec en compte seulement une soixantaine et le Canada, un peu plus du double.Au Sud, les espèces sont plus nombreuses.En Colombie, les scientifiques ont décrit 7 000 espèces.On s’attend ainsi à en trouver au moins 15 000 dans la seule Amérique du Sud.Il faudra ensuite s’attaquer à l’Eurasie, à l’Afrique et à l’Océanie.«En tout, nous avons actuellement 20 000 espèces, ce qui correspond à peu près au tiers de l’objectif», explique le chercheur.Patience, patience.Pour mettre au point cet ouvrage colossal, Miroslav M.Grandtner travaille avec une équipe de collaborateurs scientifiques et de recherchistes, qui passent au peigne fin la littérature scientifique.Le dictionnaire mondial des arbres pourrait intéresser, entre autres, les voyageurs, les coopérants, les forestiers, des scientifiques des sciences naturelles et des sciences humaines.Déjà, plusieurs maisons d'édition scientifique ont fait connaître leur intérêt.Dans un livre de référence de ce genre, on trouvera, par exemple, almâcigo, le nom d’un arbre à l’écorce rougeâtre qui se détache comme celle de notre bouleau.Cet arbre pousse de la Floride jusqu’en Amérique du Sud.En consultant le dictionnaire mondial qui sera rédigé en anglais, à partir de ce nom espagnol, on apprendra que son nom français le plus courant est «gommier rouge», en anglais «gumbo-limbo» et «xioquauitl» dans une langue amérindienne.Pour le seul almâcigo, on comptera une centaine de noms différents.Le dictionnaire mondial décrira aussi la distribution géographique de chaque espèce, sa taille, son type de feuillage, son écologie et son utilisation.Mais il faut s’arrêter là: un dictionnaire des arbres n’est pas une flore.La célèbre Flore laurentienne du frère Marie-Victorin donne certes le nom des arbres, mais elle fournit aussi des illustrations, des critères et des clefs d’identification.Le dictionnaire permet de reconnaître un arbre lorsqu’on a en main son nom, fût-il peu courant.Selon Miroslav M.Grandtner, «lorsqu’à partir d’un nom commun, on réussit à retrouver le nom scientifique, il est ensuite facile de consulter une flore spécialisée afin d’en retrouver la description plus détaillée ».> Plus ambitieux que ce « simple diction- g oc naire», un projet d’encyclopédie mon- s diale des arbres a aussi tenté M.Grandt- g o ner.Mais là, il lui faudrait une seconde £ vie! PIERRE DUBOIS 51 A N VI E Hi sous conlftf^ a la carrière Miron -r-'sr* Sl- - :¦ •• - BONNE NOUVELLE OU PRESQUE ! LES BIOGAZ DU DEUXIÈME PLUS GROS DEPOTOIR EN AMÉRIQUE DU NORD (ANCIENNE CARRIÈRE MIRON, AUJOURD’HUI CENTRE DE TRI ET D’ÉLIMINATION DE MONTRÉAL) SERAIENT À COURT TERME SANS DANGER.LES COMPOSÉS ORGANOVOLATILS (COV) QU’ILS CONTIENNENT ET QUI SONT SOUPÇONNÉS D’ÊTRE CANCÉRIGÈNES, SE RETROUVENT EN QUANTITÉ NÉGLIGEABLE DANS LES QUARTIERS VOISINS DU SITE.De plus, le degré d’exposition des travailleurs aux biogaz ne correspond qu’à un dixième des normes québécoises en vigueur, pour autant que ces normes soient suffisantes.Tels sont les résultats préliminaires d’une étude menée par le Département de santé communautaire (DSC) de l’Hôpital Sacré-Cœur et l’École polytechnique pour le compte de la Ville de Montréal.Le rapport final de cette étude, financée par le ministère de l’Environnement du Québec, Santé Québec et la Ville de Montréal, devrait être déposé vers le premier trimestre de l’année 1994.Les résultats définitifs ne seront cependant pas très différents.Des quatre volets de l’étude, trois sont déjà terminés : caractérisation des émanations de biogaz, effets des biogaz sur l’environnement et gestion du risque.La partie «caractérisation» est terminée depuis novembre 1993.Après un an d’échantillonnage, l’analyse des quatre composés organovolatils les plus toxiques des biogaz se révèle rassurante.Les quantités négligeables de ces substances détectées hors du site «confirment que le site est bien géré et que le captage (des biogaz) s’effectue encore mieux qu’on le croyait», selon Maurice Vézeau, chef de la division de l’ingénierie au module Génie de l’environnement aux Travaux publics de Montréal.Voilà qui devrait encourager la Ville de Montréal, d’autant que depuis qu’elle a acquis le site en 1988, elle a investi 70 millions de dollars pour l’assainir et le préparer à sa fermeture imminente (à l’époque).Le contrôle des émanations de biogaz était alors le principal problème à résoudre.L’émission de ces gaz dans l’atmosphère constitue, en effet, un sérieux problème.Non seulement ils peuvent avoir des conséquences sur la santé humaine, mais aussi sur l’environnement, ces gaz étant, en termes d’effet de serre, 20 fois plus dommageables que le gaz carbonique.De plus, ils dégagent des odeurs et peuvent provoquer des explosions lorsqu’ils sont présents en trop grande concentration.Au Centre de tri et d’élimination, les risques étaient encore plus élevés en raison de la taille du dépotoir et de la forte densité humaine à proximité.L’urgence de capter et de brûler ces gaz ne faisait aucun doute.Un important réseau de captage, comprenant 243 puits, a donc été construit.On y récupère aujourd'hui 70 p.cent de tous les biogaz émis dans l’atmosphère.Ceux-ci sont ensuite brûlés avec une efficacité de combustion de 95 p.cent (99,9 p.cent vers 1994).Vers 1995-1996, ils seront utilisés pour produire de 52 CIV l’électricité.Une centrale de 25 mégawatts sera alors en fonction sur le site et pourra alimenter en électricité les quartiers Saint-Michel et Ahuntsic de Montréal.Mais d’où proviennent donc ces biogaz?Ils sont le résultat de la fermentation des déchets domestiques dans un milieu exempt d’oxygène.Tout comme les humains et les animaux produisent des gaz en digérant, la «digestion» de la matière organique par les microorganismes présents dans le dépotoir en produit aussi.La composition des biogaz dépend des déchets enfouis.Plus la concentration de déchets domestiques dangereux est importante dans un dépotoir, plus il y a de COV dans les biogaz.Selon le docteur Louis Drouin, responsable de l’étude des effets sur la santé au DSC de l’Hôpital Sacré-Cœur, presque tous les produits de consommation présents dans un dépotoir émettent des gaz plus ou moins toxiques au cours de leur décomposition.«Par exemple, des panneaux de gypse émettent du sulfure d’hydrogène (H2S) au cours de leur décomposition puisqu’ils contiennent du soufre», explique-t-il.Dans les dépotoirs de déchets domestiques, la majorité des déchets contiennent de la matière organique (les trois quarts des déchets au Centre de tri et d’élimination).Papiers, cartons et déchets de cuisine sont ceux que l’on re- —.":.VV -, ¦¦ “.îVïi trouve en plus grande quantité.La formation de biogaz reflète donc cette forte présence de matière organique.Ces gaz sont également composés de méthane à 47 p.cent, de dioxyde de carbone à 47 p.cent, d’azote à 4 p.cent et de composés traces (dont les COV) à moins de 1 p.cent.Toutefois, même si les concentrations sont négligeables, l’émission de COV gêne les responsables en santé communautaire.Ce qui les inquiète le plus, ce sont les effets d’une exposition à long terme, puisque l’on soupçonne notamment les COV d’être responsables de grossesses anormales, de cancers, de troubles psychologiques et comportementaux.L’étude du DSC semble confirmer ces présomptions.Chez la population résidant autour du site, on a dénombré plus de cas de certains types de cancer (prostate, col de l’utérus, estomac et foie) qu’ailleurs et une augmentation de 20 p.cent du risque de faible masse à la naissance par rapport à d’autres régions sur l’île de Montréal.«Aucune conclusion définitive, cependant, ne peut être tirée à partir de ces données, soutient le Dr Drouin.Car ces cas peuvent être aussi attribuables à d’autres facteurs (tabagisme, exposition à des substances toxiques en milieu de travail, alcoolisme, habitudes alimentaires, etc.).Notre travail consiste donc à déterminer la part de responsabilité liée à la présence de biogaz dans le milieu afin de modifier éventuellement les normes en vigueur.» Le volet épidémiologique devrait clarifier cet aspect.«Nous effectuerons alors des échantillonnages d’air dans les maisons autour du site et colligerons des données sur la santé de la population environnante à l’aide de questionnaires distribués aléatoirement», dit le Dr Drouin.La poursuite de l’étude est cependant conditionnelle à l’obtention de subventions en provenance du gouvernement fédéral.STÉPHANE GAGNÉ 53 PHOTO: VILLE DE MONTRÉAL Parc technologique de Québec: un premier bilan COMMENT CRÉER OU MAINTENIR L’ÉQUIVALENT DE 2 240 EMPLOIS À PLEIN TEMPS ET OBTENIR DES RETOMBÉES ÉCONOMIQUES ANNUELLES DE 109 MILLIONS DE DOLLARS TOUT EN N’INVESTISSANT pas plus d’un million par année pendant cinq ans?Il suffit d’établir un parc technologique! L’équation simplifie bien sûr la situation, mais elle résume en peu de mots une étude réalisée par le Centre de recherches en aménagement et en développement (CRAD) de l’Université Laval pour le compte du Parc technologique LE SIÈGE SOCIAL DU CRIQ du Québec métropolitain.Dans son évaluation, le CRAD brosse le tableau des retombées économiques de ce parc en 1992 et établit des projections jusqu’en 1997.Les retombées sont précisées pour la région, la province et le Canada, celles pour la région étant très nettement supérieures aux deux autres.«La performance économique de ce parc technologique est d’autant plus intéressante, souligne le responsable de l’étude, l’économiste Pierre Fréchette, que la Corporation du Parc technologique fonctionne avec un budget annuel qui ne dépasse guère le million de dollars.» Cette somme provient en très grande partie des trois paliers de gouvernement.Créé en 1988 grâce à l’initiative du Groupe d’action pour l’avancement technologique et industriel de la région de Québec (GATIQ), le Parc technologique du Québec métropolitain a depuis favorisé l’émergence de 44 entreprises, dont près de la moitié font de la recherche et du développement.Parmi ces petites entreprises en croissance, on trouve, par exemple, Biogénie, qui se spécialise dans le traitement des sols et des eaux, et Ad Lib Mul- timédia, qui conçoit des cartes sonores pour micro-ordinateurs.La multinationale Asea Brown Boveri y fabrique des condensateurs et des transformateurs.Plusieurs entreprises de service se sont aussi installées dans les locaux du Parc technologique.Certaines existaient avant la création de ce parc situé sur les territoires de la Ville de Sainte-Foy et de la Ville de Québec.Cependant, ces entreprises de service ne sont considérées dans le calcul des retombées économiques qu’en ce qui concerne le nombre d’emplois.Pour ce qui est des achats de biens et de services, seules les entreprises ayant des activités technologiques sont considérées.À ces 44 entreprises s’ajoutent 12 organismes gouvernementaux déjà présents avant la création du parc en 1988, notamment le Centre de recherche industrielle du Québec (CRIQ) et les services de recherche du ministère des Forêts (Québec).Ces «anciennes» entreprises, comme elles sont désignées dans l’étude, pèsent encore très lourdement dans la balance.Elles représentent environ les deux tiers des retombées et des emplois du Parc technologique.Toutefois, les «nouvelles» entreprises donnent quand même du travail à près de 500 personnes, en équivalent plein temps.L’étude réalisée en moins de trois mois par les économistes Pierre Fréchette, Paul Villeneuve, Gérald LeBlanc et Mario Boisvert, de même que par plusieurs auxiliaires de recherche, situe bien l’importance de l’apport économique des entreprises situées dans le Parc technologique pour la région de Québec.Au total, les 56 entreprises du parc sont à l’origine de 0,71 p.cent du produit JANVIER - FÉVRIER 54 ac M CMXCIV •'«raiàÉ*5#-W.Ü&^fe O*; ->g*£bfÇ ^SSd r^ïia- .- •- « VUE AÉRIENNE DU PARC TECHNOLOGIQUE intérieur brut (PIB) de la grande région de Québec.En comparaison, l’Université Laval compte pour 3,4 p.cent du PIB de la région.Selon les chercheurs du CRAD, les nouvelles entreprises ont permis la création de 4,6 p.cent des nouveaux emplois de la région, en tenant compte de tous les emplois engendrés par les retombées économiques tant directes, indirectes qu’induites.En ce qui concerne les emplois directement offerts par ces entreprises, l’étude du CRAD confirme une donnée déjà connue: les salaires sont nettement supérieurs à la moyenne.En effet, le salaire moyen dans les entreprises du parc oscille entre 40 000$ et 45 000$ par année, soit un salaire environ 40 p.cent plus élevé que le salaire moyen de la région de Québec.En s’appuyant sur des scénarios de développement, l’équipe du CRAD estime qu’en 1997, le Parc technologique comptera 73 entreprises qui contribueront à la création et au maintien de 4185 emplois dans la région pour des retombées globales de 182 millions.Au cours des dernières années, certaines études de retombées économiques ont ébranlé la confiance des contribuables avec des méthodes biaisées qui donnaient des résultats et des prévisions irréaliste.Mais, de toute évidence, les chercheurs du CRAD ne sont pas torn- JANVIER - FÉVRIER 55 M C M XCIV bés dans ce piège.«Notre étude repose sur des hypothèses très conservatrices, assure Pierre Fréchette.Nous avons demandé aux responsables d’entreprises d’établir des scénarios de développement réalistes et, en plus, nous avons révisé LE CENTRE DE RESSOURCES L’INSTITUT NATIONAL D’OPTIQUE à la baisse la plupart de ces scénarios.» Pour cette étude, les chercheurs du CRAD ont utilisé le simulateur socioéconomique de la région de Québec (SIMBEC), qu’ils ont conçu grâce à une subvention du programme Actions spontanées du Fonds pour la formation de chercheurs et l’aide à la recherche (FCAR).«Nous avons fusionné une matrice de comptabilité sociale, un modèle calculable d’équilibre général et un modèle de répartition géographique connu sous le nom de modèle de Lowry », explique Pierre Fréchette.Les deux premiers éléments prennent la forme d’une grande feuille de calcul qui permet de quantifier les dépenses et les revenus pour i chaque secteur économique.Une fois rempli, ce tableau permet d’évaluer rapidement la nature et l’importance des dépenses nécessaires pour chaque activité économique.Par exemple, pour une industrie donnée, la grille indique les salaires, l’importance des achats en biens et services, les impôts payés, les subventions reçues, etc.La matrice de comptabilité sociale et le modèle calculable d’équilibre général ont été mis au point par la Banque mondiale pour l’évaluation de politiques gouvernementales dans les pays en voie de développement.«Ces pays se caractérisent par une certaine pénurie de données précises, explique Pierre Fréchette.Comme nous rencontrons le même genre de problèmes dans les régions, nous avons eu l’idée d’appliquer cette méthode aux régions.» Les chercheurs du CRAD ont ajouté la possibilité de cartographier les retombées économiques en utilisant différentes données comme les codes postaux ou les enquêtes «Origine et destination» de la Commission des transports de la Communauté urbaine de Québec.Une fois que toutes les données sont colligées pour une région, il est alors possible d’évaluer les retombées qu’une nouvelle entreprise aura dans la région.«Il est toutefois impossible de parler de retombées s’il n’y a pas d’exportation», souligne Pierre Fréchette.Par «exportation», l’économiste entend la vente de produits ou de services à l’extérieur de la région étudiée.Le produit de ces ventes constitue un apport d’argent neuf qui devient une source de croissance économique réelle.Jusqu’ici, le SIMBEC a été utilisé pour l’évaluation des retombées économiques de l’Université Laval et de celles des Jeux olympiques de 2002, pour lesquels la région de Québec a posé sa candidature.«Nous projetons d’adapter le SIMBEC à d’autres régions», déclare Pierre Fréchette.Déjà, une équipe de l’INRS-Urbanisation a adapté le modèle pour la région de Montréal, sans l’avoir encore utilisé pour l’instant.Pierre Fréchette estime qu’il serait possible de faire l’exercice pour l’ensemble des régions du Québec en moins de cinq ans avec un budget d’environ 200 000 $ par année.Le Québec pourrait ainsi se doter d’un outil efficace pour l’évaluation de projets économiques, un outil qui aurait sans doute plus de crédibilité que bien d’autres qui font les manchettes ces temps-ci.CILLES DROUIN le génie pour l'industrie «I MAITRISE EN TECHNOLOGIE DES SYSTÈMES Afin de former des spécialistes aptes à favoriser le transfert technologique dans l'industrie, l'Ecole de technologie supérieure offre un programme de maîtrise en technologie des systèmes (M.lng.).Comportant 45 crédits (dont 15 sont rattachés à un projet d'application qui peut être rémunéré et effectué en milieu industriel), ce programme inclut des cours portant sur les systèmes manufacturiers, électriques, mécaniques et informatiques.Il est offert à temps complet ou à temps partiel.L'ÉTS offre à ses étudiants de deuxième cycle à temps complet la possibilité d'obtenir un revenu annuel minimal de 12 000 $.Plusieurs bourses prestigieuses sont offertes, notamment par Bombardier, Bell Canada, Hydro-Québec et Pratt & Whitney.Un revenu supplémentaire peut aussi être obtenu d'autres sources.Date Fimite d'admission : 1er juin 1994 Bureau du registraire École de technologie supérieure 4750, avenue Henri-Julien Montréal (Québec) H2T 2C8 Téléphone : (514) 289-8888 Télécopieur : (514) 289-8950 Université du Québec École de technologie supérieure Le Festival international du film scientifique du Québec a répondu à la demande de nombreux enseignants et intervenants culturels en offrant en cassette VHS les films scientifiques que vous avez pu voir lors des Festivals précédents et que vous souhaitez acheter pour votre vidéothèque.La vidéothèque du Festival international du film scientifique du Québec est sans but lucratif; elle veut répondre à vos besoins et vous faire profiter des avanta-ges du Festival.En effet, le Festival reçoit chaque année le meilleur de la production mondiale de films scientifiques par le biais de la compétition internationale que nous organisons.Le catalogue annuel du Festival (10 $, taxes et envoi compris) publie des résumés de chaque film avec une illustration, outre les textes des grandes conférences du Festival.C'est un outil de travail indispensable pour chaque vidéothèque attentive à la culture scientifique.Une vidéothèque de films scientifiques pour tous S T I V A L INTERNATIONAL DU FILM SCIENTIFIQUE DU QUÉBEC Exemple de films disponibles : Aral : A Sea Without Water Espagne, 1992, 21 min.Une catastophe met en péril tout un écosystème.La cour est ouverte Canada, 1992, 15 min.Drôle et original, ce vidéo suit le cheminement d'archéologues.Fécondation in vidéo France, 1991, 26 min.Une caméra à l'intérieur du corps humain assiste au processus de la procréation artificielle.La grotte hors du temps Roumanie, 1992, 23 min.Une grotte de l'âge de la préhistoire révèle une faune et une flore dignes d'une planète étrange.Renseignements et conditions de vente : FESTIVAL INTERNATIONAL DU FILM SCIENTIFIQUE DU QUÉBEC 15 de la Commune ouest, Montréal, Québec H2Y 2C6 Tél.: (514) 849-1612 Fax: (514) 982-0064 PHOTO: INSTITUT DE RECHERCHES CLINIQUES DE MONTRÉAL TRANSFERTS PAR LAURENT FONTAINE Stéthoscope: l'électronique est dans le tube S’il y a un instrument qui permet de reconnaître le corps médical, c’est bien le stéthoscope.Du simple tube mis au point en 1819 par l’inventeur, René Laen-nec, au stéthoscope traditionnel, cet instrument d’auscultation a connu des progrès majeurs.Mais ces dernières années, malgré l’évolution des technologies électroniques, les médecins ont préféré conserver leur bon vieux stéthoscope mécanique, très solide, plus pratique et avec lequel elles et ils étaient habitués à détecter arythmies, problèmes valvulaires et autres insuffisances cardiaques.Pourtant, les médecins vont peut-être se laisser séduire par le nouveau stéthoscope électronique que l’équipe de Louis-Gilles Durand, directeur du laboratoire de génie biomédical de l’Institut de recherches cliniques de Montréal, a mis au point avec l’aide financière de Theratech-nologie et que la société 3M veut commercialiser.Il s'agit d'un stéthoscope entièrement électronique (ce qui n’est pas le cas des autres du même genre), mais qui épouse la forme de l’outil traditionnel, tout en augmentant ses performances acoustiques.«Un stéthoscope, explique Louis-Gilles Durand, est une cavité qui capte les fréquences basses, de faible amplitude, des battements du cœur, juste au seuil de l’audibilité, et les transmet par vibration de la membrane jusqu’aux em- bouts auriculaires, par la voie d’un tube creux.Le stéthoscope classique présente plusieurs inconvénients: d’abord, il n’amplifie pas les sons; ensuite, le tube crée des fréquences de résonnance qui per- turbent le son d’origine; enfin, les deux embouts auriculaires, qui doivent être totalement collés aux conduits auditifs pour que le son ne se perde pas, sont assez inconfortables.» Dans un premier temps, l’équipe de Louis-Gilles Durand a interrogé médecins, infirmiers et infirmières, pour savoir ce qu’ils et elles aimaient ou n’aimaient pas des stéthoscopes traditionnels et électroniques sur le marché.L’équipe s’est ainsi dotée d’une sorte de «cahier de charges».«La médecine est un enseignement traditionnel, rappelle Louis-Gilles Durand.Quand vous concevez un instrument, il est important de répondre aux attentes des médecins, pas de leur offrir des outils extraordinaires sur le plan technique mais qui ne s’adaptent pas bien à leur manière de travailler.» L’équipe de l’Institut de recherches cliniques de Montréal a construit un premier prototype, en 1991-1992, en s'inspirant des innovations techniques en haute fidélité: baladeurs, nouveaux microphones électroniques analogiques, haut-parleurs miniatures, etc.Puis, de l’été 1992 à l’été 1993, on a miniaturisé le modèle: «La difficulté, raconte Louis-Gilles Durand, c’est de réduire le volume et le poids de l’électronique tout en conservant l’efficacité et l’ergonomie traditionnelles.» Les designers québécois Savage Swift R&D ont maintenu l’ensemble en une pièce, en masquant le câblage dans le tube et en ajoutant un petit boîtier pour l’ensemble électronique, qui fonctionne avec deux piles 3A.La membrane traditionnelle de captage a été complétée par un microphone électronique qui peut passer du mode «cloche» (pour détecter les pathologies 58 CIV ventriculaires en basse fréquence) au mode «diaphragme» (pour détecter les fréquences plus hautes d’un souffle au cœur) au moyen d’une simple pression sur un bouton.On peut également augmenter le volume sonore en tournant le dessus du capteur.Outre ses qualités ergonomiques, les premiers essais de ce stéthoscope ont montré qu’il était mieux isolé des bruits ambiants que les autres modèles électroniques.«Nous avons également prévu un système < sans bruit > pour que le médecin n’ait pas les oreilles écorchées quand le stéthoscope heurte violemment une surface.» Autre nouveauté: les haut-parleurs sont situés dans les embouts et non à la base du tube; la transmission est ainsi totalement, et non plus partiellement, électronique.«La sensibilité de notre stéthoscope permet enfin d’ouvrir la bande jusqu’à 12 kHz s’il y a un spectre sonore qui s’ouvre dans ce champ, par exemple celui des valves mécaniques.» L’équipe de Louis-Gilles Durand a conçu quatre modèles différents de son prototype, pour capter des bandes de fréquences différentes selon les diverses utilisations: l’infirmier ou l'infirmière vérifie la pression, la ou le médecin généraliste s’intéresse au couple poumon-cœur, tandis que la ou le cardiologue s’intéresse surtout au cœur.Et le quatrième modèle?«Il s’agit d’un stéthoscope que l’on peut brancher sur un système IBM-PC, pour enregistrer ou écouter des sons cardiaques.Nous avons conçu en même temps un logiciel d’acquisition en temps réel des sons cardiaques, qui peut être couplé à un électrocardiogramme.Les avantages de ce système, qui permet la visualisation des données sur écran vidéo, sont énormes.Non seulement un cardiologue, par exemple, peut < rejouer > la courbe so- nore d’un cœur dont il a numérisé les battements sur disque dur et comparer entre eux des battements d’une même personne relevés à des époques différentes, mais il peut aussi se concentrer sur les séquences problématiques en les < rejouant» systématiquement.On peut < voir > ainsi un problème cardiaque s’aggraver ou diminuer.Avec ce système, on accroît encore les capacités de l’auscultation comme outil de dépistage.» Le troisième avantage de ce système est pédagogique.«L’auscultation cardiaque demande beaucoup d’oreille et s’apprend vraiment de maître à élève.Notre système permet de < brancher» plusieurs élèves sur un même enregistrement; ceux-ci peuvent alors développer leur acuité auditive face aux variations rythmiques et sonores du cœur.Les élèves peuvent aussi s’entraîner seuls, comparer des enregistrements pathologiques ou non, sans la présence de malades.» Actuellement, l’équipe de Louis-Gilles Durand poursuit la miniaturisation des éléments électroniques pour que le format de ce stéthoscope ressemble à celui du stéthoscope traditionnel, mais en conservant un prix concurrentiel.Il n’existait pas encore de fabricant de stéthoscopes au Canada.En Amérique du Nord et dans la Communauté économique européenne, le marché qui s’ouvre à cette invention bientôt brevetée est de quelque 3,9 millions de dollars.Qjjziirs: mjm I étranger 5189, Côte-des-H3T IY i Tél.:(5l4)3 1ER - FÉVRIER 59 M C M XC IV i SCIENCEMONDE BOLIVIE le mystère de l'Altiplano PAR VALÉRIE BORDE résolu CRDI CETTE CHRONIQUE EST RENDUE POSSIBLE GRÂCE À LA COLLABORATION DU CENTRE DE RECHERCHES POUR LE DÉVELOPPEMENT INTERNATIONAL (CRDI) Une rivière qui ne coule pas toujours dans le même sens, des lacs qui se déplacent, de l’eau tantôt douce, tantôt saline qui disparaît puis réapparaît bizarrement, de terribles inondations suivies de périodes de sécheresse.le système fluviolacustre de l’Altiplano laisse perplexe! Pourtant, la compréhension de ces phénomènes permettrait d’améliorer grandement les conditions de vie des quelque 1 000 000 d’habitants de cette région de 820 000 km2 située à plus de 4000 m d’altitude dans les Andes boliviennes.«L’Altiplano est une région très vulnérable socialement, surtout depuis la fermeture des mines d’étain.Ses habitants sont essentiellement des nomades, qui vivent de l’élevage des lamas et de l’agriculture», explique José Llamas, directeur du Laboratoire d’hydrologie de l’Université Laval.«Nos premières recherches dans cette région ont débuté en 1989, en collaboration avec des équipes d’hydrologues des deux universités boliviennes de La Paz et Oruro.» Le projet a été financé par le Centre de recherches pour le développement international (CRDI).Au départ; il s’agissait pour les autorités locales de mettre en place des programmes agricoles à portée sociale.Mais elles se sont vite heurtées à la complexité hydrologique de la région.En effet, au cours des 30 dernières années, l’Altiplano a été durement frappé par de fortes inon- ./ .f CRDI a permis d'expliquer les sautes d’humeur du système fluviolacustre de l'Altiplano.dations dues aux débordements de la rivière Desaguadero ainsi que des lacs Titicaca et Poopo, de même qu’à la formation de nouveaux lacs.Dans ces conditions, les mouvements des nomades ont été rendus très difficiles et, précise José Llamas, «pour une fois, on ne peut pas accuser les humains d’en être les responsables!» C’est plutôt la configuration hydrologique très particulière de l’Altiplano qu’il faut accuser.Ce haut plateau est constitué d’un bassin sédimentaire affecté dans sa partie sud par un volcanisme récent, à l’endroit où les cordillères orientales et occidentales se rejoignent.La région possède de nombreuses petites dépressions, dont l’altitude varie entre 4000 et 4800 m, et qui sont tapissées de petits lacs d’eau douce ou salée en raison des mines de sel.Le climat tropical est caractérisé par une saison des pluies concentrée durant les mois d’été (janvier et février).L’eau possède plusieurs portes d’entrée dans le système, mais pas de sortie.Du lac Titicaca (8340 km2) au lac Poopo (2600 km2), le plateau est traversé du nord au sud par la rivière Desaguadero, dont la pente ne dépasse pas quelques centimètres par kilomètre.Le sens d’écoulement de la rivière peut donc changer au gré des variations de niveau d’eau du lac Titicaca, gênant ainsi considérablement les nomades à la recherche d’une nourriture meilleure pour leurs lamas et leurs moutons.L’eau de la Desaguadero effectue en fait des va-et-vient sur une longue partie de son parcours, réglés par leur taux de remplissage.«Pour compliquer les choses, l’Altiplano regorge de mines de sel en tête du bassin qui font varier les caractéristiques de l’eau du lac Poopo (changement de densité de l’eau et dépôt du sel au fond du lac).Les milieux aqua- STATION DE JAUGEAGE CHUQUINA SUR LA RIVIÈRE DESAGUADERO spies' ¦ *aàïtitf .-•-Lp INTEgfrAC 80751212 tiques sont d’ailleurs de plus en plus salins à mesure que l’on s’approche du sud de l’Altiplano.Plus étrange encore: le débit d’eau dans la rivière Desagua-dero varie fortement le long de son parcours», raconte José Llamas.Face à cette situation, les chercheurs, José Llamas et Jean-Louis Verrette, ont décidé de concevoir des modèles mathématiques pour tenter d’expliquer ces phénomènes.La première étape, de loin la plus éprouvante, a consisté à faire le diagnostic précis de la situation.Les chercheurs, en collaboration avec les ingénieurs Jaime Garsias et Carlos Helvas, ont tout d’abord fait face à l’absence presque complète de données hydrologiques et météorologiques concernant la région.Quinze personnes se sont attelées à la tâche, pour tenter de trouver ou d’établir des données fiables.«La coopération a vraiment été totale, explique le chercheur.Cinq personnes de l’Université Laval se sont engagées dans le projet, aux côtés d’une dizaine de chercheurs boliviens.Le travail a été particulièrement fructueux pour les étudiants puisqu’il a donné lieu à une maîtrise et un doctorat à l’Université Laval, et à un complément de formation à des universitaires boliviens.» Les Québécois ont pris en charge les études physiques du milieu, tandis que les Boliviens s’occupaient de recueillir les données sur la qualité de l’eau.Les renseignements de nature paléohydrologique ont fourni beaucoup de matière aux chercheurs.Ils consistent en des données qui n’ont jamais été enregistrées officiellement, mais qui ont fortement marqué la vie des habitants de la région.Tel grand-père se souvient, par exemple, que le jour de son mariage, le niveau de l’eau avait atteint telle limite.Tel autre, de la grande sécheresse qui a tué la moitié de son troupeau.Bien qu’elles ne soient consignées nulle part, ces données sont extrêmement fiables.Pour compléter ces données, des appareils de mesure ont été installés en des points névralgiques du système hydrologique.L’étape de modélisation pouvait alors commencer.Le système hydrologique de l’Altiplano est tellement particulier qu’aucun modèle existant n’a pu être adapté à son cas.À 4000 m d’altitude, le rayonnement solaire très puissant provoque une évaporation considérable.Les plantes du plateau possèdent aussi des caractéristiques de transpiration très particulières.Pour pallier le faible nombre de données historiques disponibles, les chercheurs ont utilisé des modèles qui font appel à l’analyse stochastique.«Grâce à ces calculs, explique José Llamas, nous avons pu résoudre le problème des variations farfelues de débit que nous avions observées.Nous sommes aujourd’hui certains qu’il existe quelque part dans le système des apports d’eau vers la nappe souterraine et des résurgences sporadiques dues aux caractéristiques géologiques de la région.Aux alentours du lac Poopo, notamment, des sources plus salées engendrent une déposition saline au fond du lac, ce qui provoque les déplacements de celui-ci.» La caractérisation de la région vient tout juste de s’achever.Reste à comprendre d’où proviennent ces résurgences et à quoi est due leur sporadi-cité.Sont-elles liées à des phénomènes volcaniques?À quelle vitesse se rechargent les nappes phréatiques?Il reste encore beaucoup d’inconnues.«Nous espérons maintenant obtenir d’autres subventions pour lancer un deuxième programme, dans lequel nous pourrions entrer plus dans le détail et envisager des actions correctives possibles», explique le chercheur.Dans cette étape, les chercheurs voudraient notamment tenter de prévoir les inondations et mettre au point des mesures d’urgence.Le problème des inondations de l’Al-tiplano est aussi politique.En effet, le lac Titicaca est à cheval sur la frontière entre la Bolivie et le Pérou.Il est en fait constitué de deux lacs, dont l’un sert en quelque sorte de grand réservoir naturel à l’autre.Du côté bolivien, les risques d’inondation sont plus faibles lorsque le niveau du grand réservoir est haut, lac Titicacal Ulloma r!^>èreo.Jguadt Chuquina lac Poopo zone d'étude ?station de jaugeage rivières bassin versant de la rivière Desaguadero sub-bassin versant entre Ulloma et Chuquina lacs 9 10?ce qui correspond à un écoulement de la rivière Desaguadero du lac Titicaca vers le lac Poopo.Côté péruvien, la superficie des terres cultivées en bordure < du lac Titicaca augmente lorsque le ni- ^ veau du grand réservoir est bas.Une t bonne partie de la Desaguadero coule | Z alors vers le lac Titicaca, avec là encore = des risques d’inondation, mais surtout § un risque d’assèchement du lac Poopo .g U et de sa région.Les Boliviens voudraient s renforcer la barrière naturelle entre les 5 z deux parties du lac Titicaca pour se pro- £ < téger des inondations, alors que les Pe- g ruviens souhaiteraient augmenter les | taux de sorties du lac, de façon que le 5 trop-plein du grand réservoir se déverse g plus rapidement dans le petit.Quelle g O sera la position des chercheurs face à S ce dilemme?INTERFACE Économisez1000000$ Conseil national de recherches Canada sur l’aménagement d’installations de R et D de pointe.Calcul arbitraire de ce qu’il en coûterait s’il fallait reproduire les installations existantes.Le présent coupon n'a pas de valeur monétaire.Le CNRC est le principal organisme de R et D du Canada.000000 000000 Faut-il promouvoir nos capacités de Ret D en nous limitant strictement à l’aspect économique?L’idée a du mérite.D’autant plus que le Conseil national de recherches du Canada dispose d’installations incomparables.Vous doter des mêmes moyens impliquerait un investissement prohibitif.Cependant, la plus grande contribution du CNRC à votre entreprise pourrait être de lui apporter ses connaissances et sa vision.Nous comptons dans nos rangs quelques-uns des plus grands cerveaux du monde.Ils œuvrent à l’avant-garde des secteurs-clés de la croissance économique comme la biotechnologie, les matériaux de pointe et la technologie de production.Nous tissons des liens étroits entre les entreprises et les industries de tout le Canada dans le but d’élaborer et de transférer des technologies innovatrices.En utilisant nos ressources - et bien sûr nos intallations - votre budget en recherche et développement bénéficiera d’un effet de levier.Par ailleurs, vous réduirez vos risques et vos coûts et vous serez mieux équipé pour affronter la concurrence internationale.Si vous croyez qu’il est difficile d’avoir accès à un réseau scientifique et technique national, détrompez-vous.Il vous suffit d’appeler le (613) 990-9546 ou de communiquer avec nous par télécopieur au (613) 952-4569 pour explorer les possibilités qui s’offrent à vous.ciacutc M Conseil national National Research de recherches Canada Council Canada Canada 5010024113049 UN NOUVEAU DIRECTEUR GÉNÉRAL À L'ACF AS M.Germain Godbout occupe depuis le 1er décembre dernier le poste de directeur général de l’Acfas.Détenteur d’un doctorat en chimie de l’Université de Montréal, M.Godbout a été, de 1991 à 1993, secrétaire général de l’Agence de coopération interuniversitaire franco-québécoise à Paris.11 a également été directeur général du Cégep André-Laurendeau de 1983 à 1991.1993: UNE BONNE ANNÉE POUR PIERRE DESLONGCHAMPS Après avoir obtenu en 1993 la Médaille d’or en sciences naturelles et en génie du Canada, c’est le prix Léon-Lortie que recevait en décembre dernier Pierre Deslongchamps, professeur de chimie à l’Université de Sherbrooke.Le prix, décerné par la Société Saint-Jean-Baptiste de Montréal, a été créé en 1987 pour honorer une personnalité qui s’illustre dans le domaine des sciences pures et appliquées.Bonne chance pour 1994, M.Deslongchamps! SCIENCE-INTER DES CHIFFRES QUI NOUS VIENNENT D'OTTAWA La part du personnel affectée aux activités scientifiques et technologiques au sein de l’administration fédérale n’a presque pas changé depuis 1985.Trois ministères, soit ceux de l’Agriculture, de l’Environnement et le Conseil national de recherches du Canada, comptent pour 44 p.cent du personnel scientifique et technologique.En 1993-1994, on estime que 72 p.cent des années-personnes seront affectées aux sciences naturelles et au génie, dont 65 p.cent en R-D.Par ailleurs, le personnel en sciences humaines, dont le principal employeur est Statistique Canada, comptera pour 28 p.cent du total, dont seulement 6 p.cent seront affectés à la R-D.Source STATISTIQUE CANADA.«Personnel de l’administration fédérale affecté aux activités scientifiques et technologiques, 1985-1986 à 1993-1994», Statistique des sciences, vol.17, n° 9, novembre 1993.CRÉATION DE CINQ PRIX D'EXCELLENCE PAR L'UGIL L’Union des gradués inscrits à Laval (UGIL) a créé cet automne cinq prix d’excellence pour les élèves qui terminent un programme d’études supérieures de cette université.Deux prix de 1 500 $ et 1 000 $ respectivement seront remis à des personnes ayant terminé leur doctorat, deux autres de mêmes montants à des personnes venant de compléter une maîtrise et un dernier de 1 000 $ à l’étudiant ou l’étudiante ayant le meilleur dossier universitaire.Tous les membres de l’UGIL terminant un programme et qui déposeront leur mémoire ou essai entre le 1er mai 1993 et le 30 avril 1994 sont admissibles.La date limite pour présenter sa 63 ac candidature (formulaire nécessaire) est le lundi 2 mai à 17 heures.Les prix seront remis à la collation des grades des cycles supérieurs en juin 1994.ADOPTION DE LA CHARTE D'ABIDJAN Les 1er et 2 décembre derniers, se tenaient à Abidjan, en Côte d’ivoire, les Assises francophones de la recherche, un événement organisé par l’Association des universités partiellement ou entièrement de langue française (AUPELF) et l’Université des réseaux d’expression française (UREF).À la suite de cette rencontre, les recteurs, présidents et directeurs des établissements d’enseignement supérieur et de la recherche membres de l’AUPELF-UREF ont adopté une charte qui propose, entre autres, les actions suivantes : - création, au sein des établissements d’enseignement supérieur et de recherche ainsi que des instituts, de conseils scientifiques destinés à favoriser l’émergence de projets de recherche; définition des procédures de suivi et d’évaluation à la fois de ces projets et des chercheurs eux-mêmes; - reconnaissance du statut particulier du chercheur ou de la chercheuse, en prenant en compte les aspects scientifiques et sociaux, et en favorisant l’application du principe de mobilité et de libre circulation; - mise en place d’écoles doctorales sous-régionales et régionales assurant en priorité la formation des cadres ainsi que la reconnaissance des diplômes et des titres délivrés; - organisation de réseaux francophones de recherche favorisant la coopération entre les universités et les instituts de recherche; - constitution de réseaux de laboratoires associés permettant d’apporter un soutien aux meilleures équipes de chercheurs du Sud; - renforcement des jeunes équipes de chercheurs afin de favoriser leur émergence dans le milieu de la recherche internationale; - mise en place d’actions concertées de recherche-développement; - enracinement des chercheurs des pays du Sud au moyen de subventions personnalisées.UN PRIX D'EXCELLENCE POUR LE GROUPE SERREMER Le Groupe Serremer, dont le siège social est situé à Sherbrooke et qui compte aussi des bureaux et laboratoires à Montréal, Québec et Rock Forest, a remporté en novembre dernier le Prix Canada pour l’excellence en affaires 1993 dans la catégorie «environnement».Les prix d’excellence, créés par Industrie et Science Canada et administrés par l’Institut national de la qualité, soulignent les réalisations exceptionnelles d’entreprises dans tous les secteurs industriels.Le Groupe Serremer travaille dans le secteur de l’industrie de la protection de l’environnement et, plus particulièrement, en gestion intégrée des déchets.CHAIRE CRSNG/PAPRICAN Le Conseil de recherches en sciences naturelles et en génie ainsi que la compagnie Paprican se sont associés à l’École polytechnique pour créer une chaire de recherche industrielle en traitement de surface du papier.Son premier titulaire est le professeur Philippe Tanguy du Département de génie chimique.Les travaux de la chaire se concentreront sur les techniques de couchage du papier.1 L'AGENCE FRANCOPHONE POUR L'ENSEIGNEMENT SUPÉRIEUR ET LA RECHERCHE 1994 Collection “Universités francophones” Université francophone est la collection de l'Université des réseaux d’expression française (UREF).Cette dernière, qui fonctionne au sein de l'Association des universités partiellement ou entièrement de langue française comme une Université sans mur, a été choisie par le Sommet des Chefs d’État et de Gouvernement des pays ayant en commun l’usage du français comme l’opérateur privilégié du Sommet en matière d’enseignement supérieur et de recherche.Cette collection de manuels universitaires et d’ouvrages scientifiques et de référence s’adresse aux chercheurs, enseignants et étudiants francophones.rc ' Spec La Collection “Universités francophone” compte aujourd’hui plus de 70 titres en Agronomie • Droit • Économie/Gestion Études et références • Histoire Littérature/Linguistique • Médecine Sciences • Télédétection Catalogue gratuit Écrivez ou téléphonez à : A U P H L F • U R F.F B.P.400, suce.Côte-des-Neiges Montréal (Québec) Canada H3S 2ST Téléphone : (1) 514.343.66.30 Télécopie : (1) 514.343.57.83 Att.Michel Teychenné directeur du marketing ue Agronomie • Droit • Économie • Histoire • Littérature • Linguistique • Médecine Plus de 30 ouvrages (dans notre Collection consacrés à l’Afrique.I* Les ouvrages de la collection “Universités francophones” sont en vente dans les librairies universitaires et diffusés au Canada par DPLU 5165 me Sherbrooke Ouest Bureau 112 Montréal (Québec) Canada H4T 1T6 Téléphone : ( 1) 514 484 3940 Télécopie : (1 ) 514 484 9325 UNIVERSITÉ DES RÉSEAUX D'EXPRESSION FRANÇAISE UREF UNIVERSITE LAVAL École des sciences infirmières Ecole des sciences infirmières PROFESSEUR, PROFESSEURE L’École des sciences infirmières désire pourvoir 2 postes de professeur, professeure de carrière, régulier à temps complet, en sciences infirmières.Qualifications Être titulaire d’un diplôme de doctorat en sciences infirmières ou dans une discipline pertinente aux soins infirmiers, dans ce dernier cas, une maîtrise en sciences infirmières sera un atout important; être membre en règle de l’O.I.I.Q.ou être éligible à le devenir; avoir développé une expertise dans un domaine clinique particulier des soins infirmiers; avoir de l’expérience en enseignement universitaire et avoir démontré sa capacité à développer des projets de recherche en soins infirmiers seront des atouts majeurs.Par ordre de priorité, les besoins se situent dans les domaines suivants: les soins en périnatalité; les soins à l’adulte et aux personnes âgées en milieu hospitalier; la gestion clinique et la santé mentale communautaire.Fonctions Dans le cadre des fonctions universitaires d’enseignement, de recherche et de participation, ces personnes devront contribuer à l’enseignement au 1er et au en de 2e cycles dans leur domaine d’expertise et au développement de la recherche clinique en soins infirmiers.Conditions de travail Selon les normes de la convention collective vigueur.L’Université Laval applique un programme d’accès à l’égalité.En accord avec les exigences du Ministère l’Immigration du Canada, cette offre est destinée en priorité aux citoyennes et citoyens canadiens et aux résidents et résidents permanents du Canada.Date d’entrée en fonction : Juin 1994 Les personnes intéressées doivent faire parvenir leur curriculum vitae, et le nom de trois répondants, répondantes avant le 15 mars 1994 à: Edith Côté Présidente du Comité de sélection École des sciences infirmières Pavillon Paul-Comtois Université Laval Québec (Québec) G1K 7P4 ,\T V LA DIRECTION DES ÉTUDES CANADIENNES S AVEZ-VOUS UN PROJET EN TETE POUR DÉCRIRE LA RÉALITÉ CANADIENNE?• Livres • Vidéos • Audio-cassettes • Films • Matériel informatique La Direction des études canadiennes subventionne la réalisation de documents destinés à mieux faire connaître au grand public et aux étudiants le Canada et ses habitants.Chaque année, les échéances sont: le 1er avril et le 1er novembre Renseignements : Direction des études canadiennes Patrimoine canadien, Ottawa (Ontario) Kl A 0M5 Téléphone : (819) 994-1544 • Télécopieur : (819) 953-8147 ¦?I Patrimoine Canadian canadien Heritage Canada ¦ * ¦ Gouvernement Government |t| du Canada of Canada Bourses d'études en bien-être social Le Programme des Subventions nationales au bien-être social du Développement des ressources humaines offre jusqu'à 20 bourses annuelles pour des études de troisième cycle en politique sociale et en bien-être social.Le but de ces bourses est de promouvoir le leadership dans le domaine des services sociaux en améliorant la formation pour les personnes oeuvrant dans les domaines de l'enseignement, de la recherche sociale, de la planification, des politiques et de l’administration.Ces bourses sont offertes aux résidents et aux immigrants reçus du Canada désireux de poursuivre des études de troisième cycle au Canada et à l'étranger.Durée : Pour l'année universitaire et renouvelable pour une période pouvant aller jusqu'à 36 mois d'études à plein temps.Valeur : Une base de 16 000$ pour des études à plein temps sur 12 mois en plus d'une allocation pour frais de voyage, de scolarité, de personnes à charge.La base est réduite en proportion de la durée des études s'il s'agit d'une période de moins de 12 mois d'études.Date limite de la présentation de la demande : le 1er février.Pour plus d'information, vous adresser à : Division des subventions nationales au bien-être social Développement des ressources humaines Ottawa (Ontario) K1A 1B5 Téléphone : (613) 957-2897 Télécopieur : (613) 954-1821 Canada l+l Government Gouvernement of Canada du Canada National Welfare Fellowships The National Welfare Grants program, Human Resources Development, offers up to 20 annual fellowships for doctoral study in social policy and the social welfare field.These are intended to develop leadership in the field of social services by increasing the training of the human resources necessary for such areas as teaching, social research, policy planning and administration.Awards are open to Canadian citizens and landed immigrants for study at Canadian and foreign universities.Duration: One academic year, renewable to a total of 36 months of full-time study.Value: $16,000 for a 12-month period of full-time academic study, proportionately reduced for a shorter academic year.Also dependents' allowance, travel and tuition expenses.Deadline for application: February 1st.For further information write to: National Welfare Grants Program Human Resources Development Ottawa, Ontario, KIA 1B5 Phone: (613) 957-2897 FAX: (613)954-1821 Canada *.to#ri.Tî.S.-.fc pÉSi; Iéüü :C.v-i /#.*¦ te**;.»w» a&É&i;ï"^r ¦ :tW&' a^-.-y/;: ïÆSili îvcrT^ isSKS y>y»j VS5to ''t£$Ï0 ïæas; vy/ç; &&£ €4?UNIVERSITE D’OTTAWA UNIVERSITY OF OTTAWA Service de l'admission, 550 Cumberland, Ottawa (Ontario) KIN 6N5 (613) 564-3928 nu] Jp.¦pf BS^S 4££K&r*$& rlte?.WÊ&fàmll ¦ .** Nous nous sommes engagés Nous mettons l’avant-garde en première ligne.à donner à notre clientèle québécoise le meilleur service au moindre coût possible.Aujourd'hui, bien sûr, mais aussi demain.C'est pourquoi nous accordons une place encore plus grande à la recherche.Nous voulons rendre encore plus performantes nos installations et celles de nos clients.Nous voulons accroître notre leadership technologique sur la scène internationale.Nous voulons attirer et garder ici nos meilleurs cerveaux de demain.Hydro -Québec Le meilleur de nous-mêmes L'UNIVERSITE DE SHERBROOKE UN PAYS DE CONNAISSANCE Étoile montante de la recherche au Canada, l’Université de Sherbrooke est différente; elle favorise non seulement le développement intellectuel, mais aussi l’épanouissement personnel.Son dynamisme et son esprit novateur se conjuguent à l’environnement humain et aux attraits naturels de la région estrienne pour créer le milieu de vie qui a fait sa renommée, un milieu où les gens se sentent chez eux, en pays de connaissance.ersité de Sherbrooke nt de qualité axé sur L’originalité des programmes de réside également dans un enseigne une formation pratique.Première université au Québec et deuxième au Canada à instaurer un régime coopératif d’enseignement, elle ne cesse d'innover en offrant à près de 20 000 étudiants et étudiantes, dont 13 000 à temps complet, un éventail de programmes aux trois cycles d’enseignement dans les domaines des sciences de la santé, s sciences humaines, des sciences pures et des sciences ppliquées.À la fine pointe du progrès technologique et ientifique, l’Université de Sherbrooke contribue aussi au veloppement et à la croissance d’entreprises québécoises race à ses activités de recherche, dont l’excellence se traduit par une augmentation continue de subventions et de contrats de recherche.1 U.y'i wH'.-'A Au-delà de lu passion du savoir il v a la vie en pays de connaissance L’Université de Sherbrooke offre 18 programmes de doctorat ainsi qu’une quarantaine de programmes de maîtrise, dont la majorité sont orientés vers la recherche.Elle encourage le regroupement de ses chercheurs en équipes et se distingue de façon particulière dans les domaines de la télédétection, de l’acoustique, du béton à haute performance, de la valorisation de la biomasse, de l’éducation au travail, des études littéraires, de la pharmacologie, de la biologie moléculaire, de la médecine nucléaire, de la synthèse organique et de bien d’autres.Renseignements : 1-800-267-UdeS UNIVERSITÉ DE SHERBROOKE
Ce document ne peut être affiché par le visualiseur. Vous devez le télécharger pour le voir.
Document disponible pour consultation sur les postes informatiques sécurisés dans les édifices de BAnQ. À la Grande Bibliothèque, présentez-vous dans l'espace de la Bibliothèque nationale, au niveau 1.