Québec science, 1 janvier 1974, Mai
ZINE PER J-69 1 publié par l'université du québec I 1 ' ' • i- • ¦ * i • .11 h: ; ¦ - : • .m ¦ -fjm ¦ it:-.- $0.75 VOLUME 12 / NUMERO 9 / MAI 1974 .' i mA- DES TROUS DANS LE CIEL lip ; LE TÉLÉPHONE DEVENU ORDINATEUR OÙ L’EAU DOUCE DEVIENT-ELLE SALÉE? Radioactivité et radioprotection Au moment où l'Hydro-Québec entreprend la construction de Gentilly 2 et où l’on constate l’importance grandissante du rôle que le nucléaire est appelé à jouer chez nous, il importe d’informer le public sur ce que l’on sait de la radioactivité et sur la façon dont on s’en défend.Ce qu’est le rayonnement Toute substance est composée d'atomes, c'est-à-dire d'un assemblage défini de protons, de neutrons et d'électrons.Presque toute la masse de l'atome est constituée par les protons et les neutrons qui forment un noyau central.Autour, suivant diverses orbites, gravitent les électrons dont la masse est infime.L'état d'organisation de l’atome est relié aux énormes quantités d’énergie qui y sont emmagasinées, et toute modification de cet état est accompagné de phénomènes énergétiques.Il est des atomes stables, dont le noyau demeure de composition constante, et des atomes radioactifs qui se transmutent par une variation dans le temps du nombre de protons et de neutrons que contient leur noyau.En modifiant sa composition, le noyau émet généralement des radiations dites ionisantes dont on reconnaît les quatre types suivants: Rayonnement Particules émises Pouvoir de pénétration Alpha Groupes de 2 protons et 2 neutrons Faible Bêta Électrons Moyen Gamma Photons Élevé Neutronique Neutrons Assez élevé Ses effets Le qualificatif d'ionisant qu'on applique à ces radiations tient aux perturbations physiques qu elles peuvent causer aux molécules (assemblages d'atomes) qu’elles frappent.L'homme peut être atteint de deux façons, soit à distance (irradiation externe), soit en entrant en contact avec la source ou en l'absorbant (contamination).Dans l’un et l'autre cas, la nature des particules émises et leur pouvoir de pénétration seront déterminants quant au danger représenté.Rayonnement Danger par irradiation externe Danger par contamination Alpha Nul Très élevé Bêta Faible Élevé Gamma Modéré Modéré Neutronique Élevé Élevé Une plus grande diversité de radiations présentent un risque sérieux quand il y a contamination, à cause de la proximité entre les sources de rayonnement et leurs cibles.Au point de vue biologique, oh distingue les effets somatiques, limités à l'individu irradié ou contaminé, et les effets génétiques qui peuvent s'étendre à sa descendance.Dans le premier cas, l’organisme peut réparer les dommages faibles subis par les tissus capables de régénération; c’est pour cela qu'il existe des doses estimées tolérables.Mais une exposition excessive est DESINTEGRA TION ALPHA Particule « 84Po210—- 82Pb206 + 2He4 susceptible d'engendrer des états pathologiques parmi lesquels figurent certaines formes de cancer comme la leucémie.Les effets génétiques consistent en des modifications de molécules dépositaires d'informations héréditaires.L'impact de ces modifications est soumis aux lois de l'hérédité.La radioprotection Diverses unités servent à mesurer le rayonnement ionisant: l 'activité de la source se mesure en curies, l'énergie reçue par gramme en rads et l’effet biologique des radiations en rems.Notons que l'effet biologique en rems ne dépend pas que de l’énergie reçue en rads .A énergie égale, il diffère selon la sorte de rayonnement.Il existe une radioactivité naturelle à l'environnement dans lequel l'hommeaévolué.On la retrouve entre autres dans le sol, dans l’air, et même dans les aliments.Une partie de cette radioactivité nous vient du rayonnement cosmique.Cette radioactivité naturelle représente une dose moyenne par individu det 25 m ill ièmes de rem par an.À cela, on doit ajouter la radioactivité artificielle, soit une dose moyenne supplémentaire par individu de 80 millièmes de rem par an.Plus de 90% de cette dose résulte de l’usage médical.Des organismes internationaux et nationaux tels que la Commission internationale de protection radiologique et les Commissions de contrôle de l’énergie atomique ont établi des normes visant à rendre négligeables les risques reliés à l’usage des substances radioactives.La dose annuelle à ne pas excéder a été fixée à 500 millièmes de rem par individu pour l’ensemble de la population, et à 5 rems/an pour le travailleur de l’industrie nucléaire.La radioprotection consiste à faire le nécessaire pour assurer le respect de ces normes, en abaissant le rayonnement transmis le plus possible en deçà des doses acceptées.La centrale Gentilly Dans les centrales nucléaires, les phénomènes énergétiques qui accompagnent les modifications de la composition des noyaux atomiques sont exploités pour produire de l'électricité.Le rôle déjà important que jouent ces centrales pour répondre aux besoins d’énergie dans le monde est destiné à s’accroître.Au Québec, m’ême si l'on juge plus avantageux pour l'instant de produire l’électricité à partir de nos ressources hydrauliques, nous voyons à nous familiariser avec les différents aspects de la technique nucléaire.La centrale Gentilly, première centrale nucléaire québécoise, mérite son qualificatif de "voisin pacifique".La dose moyenne des radiations subies par son personnel n’a été, en 1972, que de 0.236 rem par individu (rappelons que la norme est fixée à 5 rems).La protection du public et de l'environnement y est assurée avec un même succès.Il sera question de cet effort de radioprotection d’une façon plus détaillée dans un prochain texte.Hydro-Québec DES THOU* DAN* U Cin.U TELEPHONE devenuordinateu* OU L'EAU DOUCE DEV1ENT ELLE SALËE?Ce n'est pas demain, mais sûrement après 3 demain, lorsque l'or noir sera devenu si rare et si cher, qu'il faudra bien universaliser l'usage des véhicules électriques, se dire une fois pour toutes que le problème du transport est collectif et troquer le symbole individualiste de la clef de contact pour celui, plus communautaire, de la prise de courant.SO/IWMIRE CASE POSTALE 250 4 O La plongée universitaire O Mars garde la tête froide O Vous avez raison O Invitation COMMENTAIRE 5 O Un cadeau empoisonné / Fernand Miron ACTUALITÉ 7 O Les sirènes de Colomb O Un univers simplifié O La terre se détend O La science du hockey 13 DES TROUS DANS LE CIEL / Pierre Malouin 16 L'HORIZON DES ÉVÉNEMENTS 17 ENQUÊTE SUR UN TROU NOIR ENVIRONNEMENT 18 O L'air condamne le bois O Digérer la pollution O Un oeil sur la pollution 20 LE MARIAGE DU FLEUVE ET DE LA MER / Jean-Pierre Laprise LA SCIENCE & LA SANTÉ 26 O Dialogue à coeur ouvert O Une société de poids lourds O La pharmacie de l'apesanteur O Vaccin anti-carie LA SCIENCE & LES HOMMES 28 O Un rendez-vous manqué ÉNERGIE __________________35 O Mettre l'énergie en bofte O Chauffer avec le vent O Engranger les tempêtes 29 DES ÉLECTRONS DANS VOTRE MOTEUR / Fabien Gruhier 34 DES PREMIERS PAS TIMIDES TECHNOLOGIE ____________________________________________ 45 O Prospecter de là-haut O Souder par explosion O La pêche aux nodules 38 L'ORDINATEUR ÉLECTRO-MÉNAGER / Michel Boudoux 40 L'HYPERMARCHÉ 40 LE LANGAGE DES CHIFFRES 44 UNE PREMIÈRE MONDIALE: DATAROUTE REVUE DE PRESSE 47 POUR EN LIRE PLUS 49 O La dernière exploration, voyage dans un monde qui se meurt O L'ours noir O Introduction à la téléinformatique ÉCHEC ET MATHS 50 O Des grenouilles sauteuses CKSE POSTKLE 250 LA PLONGÉE UNIVERSITAIRE Je lis votre revue depuis 1964.J'aime beaucoup la forme actuelle car, en plus d'être de caractère hautement scientifique, elle apporte un élément pratique à ma vie étudiante tant au point de vue d'un choix de carrière que de celui de la lecture.Vous avez déjà parlé de l'avenir qui existe sous l'eau.C'est-à-dire le forage en haute mer, les études de toutes sortes sur le milieu sous-marin, etc.Je fais de la plongée sous-marine depuic S ans déjà et j'en ai 20.J'ai eu la chance de plonger un peu partout c'est-à-dire aux Caraibes, dans l'Atlantique, dans la mer Adriatique et dans la mer Noire.J'ai fait de l'archéologie en amateur, de la chasse sous-marine et le recensement de certaines faunes de rivières dans le cadre d'un travail de biologie au Cegep, avec en plus une expérience de plongée à 210 pieds avec quatre de mes amis.Comme vous pouvez le voir j'adore la plongée en elle-même et tout ce qui orbite autour.C'est donc très vaste.Mon problème actuel tient au fait que je désire en faire une carrière de niveau universitaire.Je ne suis pas sans savoir qu'en biologie, océanographie et autre on s'en serve comme outil.Ce que j'aimerais savoir c'est s'il existe des cours dans une université quelconque, ou dans n'importe quelle institution, du moment qu'il me serait possible de perfectionner ma technique de plongée.Comme dans le genre de l'équipe Cousteau, mais offrant une étude de niveau universitaire et j'insiste sur ce point.De plus, comme j'ai acquis une certaine expérience en ce domaine j'aimerais faire partie pour la saison estivale d'un groupe de jeunes biologistes en tant que plongeur et recherchiste, cela va de soi.Louis Jourdain 1306, boulevard Sacré-Coeur Saint-Félicien 7.Une équipe anglophone de la fédération des clubs de plongée du Québec s'occupe actuellement de recherche océanographique.H suffit de s'adresser à: Dr Ken Fiegelman, 38, boulevard Anselme Lavigne, Dollard des Ormeaux, Montréal 970, té!.: (514) 684-9840, poste 49, pour obtenir de plus amples renseignements.En cas de besoin, vous pouvez toujours contacter directement la Fédération des clubs de plongée du Québec, a/s M.Richard Béliveau, C.P.40, Ste-Rose, Ville de Lavai, H7L 1K7, té!.: (514) 622-3360, où l'on répondra aimablement à vos questions et tâchera de vous guider.2.L'Université du Québec à Ri mou ski se propose d'engager un certain nombre de plongeurs pour la saison estivale dans le cadre de son programme de recherche océanographique.Vous pouvez toujours envoyer votre candidature à: M.Sandry Strachan, SOUQAR, 300, avenue des Ursuiines, Rimouski.MARS GARDE LA TÊTE FROIDE Dans votre dernier numéro (mars 1974), j'ai constaté une erreur dans l'article «Des planètes revues et corrigées» (par Benoft Drolet).Celle-ci tenait au fait qu'on parlait des calottes polaires composées de gaz carbonique (solidifié) et, que plus loin, on ajoutait que la température de ces régions atteignait —60°C, alors que l'on sait que le CO2 se solidifie seulement à —78°C.Comment cela est-il possible?Peut-être est-ce un manque d'explications, ou tout bonnement une erreur.Dans le seul but d'apporter une précision au reportage que j'ai bien apprécié, j'aimerais qu'une rectification ou une explication soit apportée.Merci de votre bonne compréhension.un étudiant de St-Jovite La température des régions polaires de Mars, lesquelles sont majoritairement constituées de gaz carbonique solidifié, doit en effet être inférieure à celle qui avait été mentionnée dans le texte.Les mesures faites par la sonde Mariner 9 y indiquent une température de 140° kelvin (environ — 130°C), ce qui est beaucoup plus compatible avec la présence de neige carbonique.VOUS AVEZ RAISON Je suis abonné à la revue QUÉBEC SCIENCE depuis sa naissance.C'est dire l'intérêt que je lui porte; considérant son prédécesseur «Le Jeune Scientifique», je remarque avec satisfaction la qualité sans cesse grandissante des articles.J'ai cru, malheureusement, observer une carence importante à mon sens; les articles portant sur la faune et en particulier la faune canadienne, sont d'une rarete alarmante.Bien entendu, je me souviens d'articles fort intéressants sur les périples annuels des oies.Il n'y a pas si longtemps un bref article sur les ours blancs et il y a quelques mois, si ma mémoire est bonne, sur certains insectes (ex.fourmis, tordeu-se.).LE MAGAZINE QUEBEC SCIENCE lli crois1 liilW liCîrti Irons coi DIRECTEUR: Jean-Marc Gagnon REDACTEUR EN CHEF: Jean-Marc Fleury REDACTEURS: Benoft Drolet, Fabien Gruhier, Pierre Sormany, André Delisle et Michel Boudoux.p le pi CONCEPTION GRAPHIQUE: Jean-Pierre Langlois SECRETARIAT: Patricia Larouche et Françoise Ferland SEPARATION DE COULEURS: Qualith Litho Inc.IMPRESSION: l'Eclaireur Itée DISTRIBUTION: les Messageries Dynamiques Inc.[lliut ùplllf COMITE D'ORIENTATION Armand^Bastien, CECM O Paul Bélec, INRS-Urbanisa-tion O Louis Berlinguet, UQ O Claude Boucher, U.Sherbrooke O Maurice Brossard, UQAM O Yvan Chassé, UL O Pierre Dansereau, CRE O Jacques Desnoyers, U.Sherbrooke O Guy Dufresne, Cons.Bathurst O André Fournier, min.de l'Education O Gordin Kaplan, U.Ottawa O Paul Laurent, Hydro-Québec.I •licit I ü’îil l\ |»î ltd Le magazine QUEBEC SCIENCE est publié dix fois l'an par l'Université du Québec en collaboration avec le ministère de l'Education et le Conseil national de recherches du Canada.TOUS DROITS DE REPRODUCTION, DE TRADUCTION ET D'ADAPTATION RÉSERVÉS 1974 Université du Québec, 2875 boulevard Laurier, Ste-Foy, G1V 2M3 / Dépôt légal, bibliothèque nationale du Québec, deuxième trimestre 1974 imprimé au Canada / Courrier de deuxième classe, enregistrement no 1052/PORT DE RETOUR GARANTI © IN tatiti III Hpajt QUÉBEC SCIENCE Case postale 250 Sillery, Québec GIT 2R1 Téléphone: (418) 657-2426 / Télex: 011 3488 COMITÉ de SOUTIEN ?Bell Canada M.René Fortier Vice-président exécutif Zone de l'Est ?Banque de Montréal M.R.Muir Vice-président et secrétaire ?Institut de recherche de l'Hydro-Québec (IREQ) M.Lionel Boulet Directeur ?La Brasserie Labatt Ltée M.Maurice Legault Président ?Hoffmann-Laroche Ltée M.John S.Fralich Président ?Imasco Ltée Les produits Imperial Tobacco Limitée ïijctèi ¦«ntcli fente «Nue liimeri 5 Je crois qu'il serait d'un intérêt immense de mentionner quelques caractères propres à certains animaux que nous nous imaginons connaftre.L'on pourrait, par exemple, expliquer le comportement social d'un animal (loup, singe, dauphin.) ce qui nous permettrait de mieux comprendre le pourquoi de nos agissements! Le but de la revue QUÉBEC SCIENCE étant de vulgariser les domaines scientifiques au Québec, ne serait-ce pas là un secteur à peu près vierge où précisément la plupart de nous, sentons un besoin primordial de connaftre les espèces que nous côtoyons de proche ou de loin?A mon humble avis, je considère qu'un article du genre dans chaque numéro serait apprécié de la grande majorité de vos lecteurs assidus, bien entendu sans que cela n'empiète outre mesure sur les autres sphères d'activités scientifiques.Michel Roy Montréal INVITATION En page 40 du numéro de janvier 1974 de QUÉBEC SCIENCE, on peut lire un article intitulé «Une nouvelle méthode d'analyse d'ultra-traces».Dans cet article, on laisse entendre que cette méthode d'analyse basée sur la détection des rayons-X caractéristiques suivant le bombardement d'un échantillon par des particules, est présentement développée au Centre d'Étu-des Nucléaires de Saclay.J'aimerais apporter un complément d'information à cet article.D'abord cette méthode est déjà utilisée d'une façon systématique en quelques endroits aux USA.Ainsi le faisceau de protons du cyclotron de U.C.Davis (Université de Californie à Davis) est utilisé à mi-temps pour faire des analyses de pollution atmosphérique par cette méthode.D'autre part, ici même à l'Université de Montréal, nous travaillons depuis déjà plus d'un an à mettre au point et à raffiner cette technique en employant les faisceaux de particules produits par nos accélérateurs.Notre projet est suffisamment avancé pour que nous puissions envisager prochainement une utilisation systématique.Vu son intérêt certain pour plusieurs de vos lecteurs, je serais disposé à contribuer à un exposé plus élaboré du mécanisme, des possibilités et des limites de cette méthode.D'autre part, j'invite votre équipe à venir visiter nos installations.Jacques L'Ecuyer Laboratoire de physique nucléaire Université de Montréal COMMENTMRE cadeau empoisonné?par Fernand Miron, directeur général Conseil de la jeunesse scientifique Depuis 1917, de nombreux organismes de loisir scientifique ont vu le jour au Québec.La majorité d'entre eux s'adressaient aux amateurs adultes qui désiraient consacrer une partie de leurs loisirs à l'étude de l'astronomie, de la biologie, de la géographie, de la géologie et des mathématiques.Vinrent ensuite, en 1931, les Cercles des Jeunes Naturalistes qui s'étaient fixés comme objectif de développer l'étude des sciences naturelles chez les jeunes des niveaux élémentaire et secondaire.Ce n'est que depuis 1955 que sont nés les nombreux organismes s'adressant aux jeunes des niveaux secondaire, collégial et début universitaire, intéressés à l'étude des sciences pures et appliquées.Nous assistons actuellement au regroupement de ces organismes à l'intérieur de trois fédérations bien distinctes: Les Cercles des Jeunes Naturalistes (1931): niveaux élémentaire et secondaire en sciences naturelles.Le Conseil de la Jeunesse scientifique (1968): niveaux secondaire, collégial et début universitaire dans tous les domaines des sciences pures et appliquées.La Fédération Québécoise du Loisir Scientifique (1974): niveau des amateurs adultes dans tous les domaines des sciences.Comme on peut le constater, les plus jeunes ont été les premiers regroupés (en 1931) à l'intérieur d'une fédération provinciale.Il faut ensuite attendre en 1968 pour qu'un organisme équivalent se crée à un niveau d'âge intermédiaire et en 1974, pour qu'on voit naftre un organisme de regroupement chez les adultes.L'aide apportée par les autorités gouvernementales au développement de ces activités suit une évolution similaire: les Cercles des Jeunes Naturalistes bénéficient de subventions depuis 1934, le Conseil de la Jeunesse Scientifique depuis 1970 et la Fédération Québécoise du Loisir Scientifique, depuis 1974.De prime abord, on se serait attendu à ce que ce soient les organismes regroupant des adultes qui jouent le rôle de chef de file dans ce domaine et soient les premiers à se regrouper, à débloquer des subventions et à provoquer la création d'autres organismes.C'est exactement l'inverse qui s'est produit.On remarque aussi que le développement de ces organismes est étroitement lié aux sommes d'argent dont ils disposent pour leurs activités.L'expansion qu'ont pris certains d'entre eux au cours des dernières années est due à l'intervention de plus en plus active et cohérente du Haut-Commissariat à la Jeunesse, aux Loisirs et aux Sports dans ce domaine.De complètement autonomes qu'ils étaient au début, ces organismes ont vu leur expansion liée à une dépendance de plus en plus grande vis-à-vis des autorités gouvernementales qui recherchent la meilleure utilisation possible des fonds publics.Ces sociétés ont toujours regroupé un grand nombre de collaborateurs qui y trouvaient le moyen de faire ce qu'ils aimaient, à leur manière et à leur rythme, sans aucune pression de qui que ce soit.Comment concilier ces deux positions contradictoires?Comment coordonner harmonieusement ce besoin d'autonomie et de créativité des organismes avec les critères de rendement et d'efficacité des autorités gouvernementales?Déjà, en 1974, ce problème se pose d'une façon très concrète et il faudra le résoudre sans tarder, avant que la croissance de ce secteur d'activités ne se trouve compromise. ¦ 1 11 La Recherche a des lecteurs dans 78 pays.Il doit bien y avoir une raison.Si La Recherche a des lecteurs dans 78 pays, si les ' articles qu’elle publie sont répertoriés dans tous les grands périodiques bibliographiques mondiaux, si, en bref, La Recherche a une audience internationale, c’est d’abord parce que son contenu est international : dans ses sommaires, des chercheurs du monde entier se donnent rendez-vous.La Recherche est une revue interdisciplinaire destinée aux scientifiques.Interdisciplinaire, elle tait le point des activités de recherche dans tous les domaines, de la biologie moléculaire à l’astrophysique ou à l’informatique.Destinée à des scientifiques, La Recherche est donc rédigée aussi par des scientifiques, français et étrangers, qui font l’effort de décrire clairement, pour des collègues appartenant à d’autres spécialités, leurs expériences, leurs hypothèses et leurs résultats.Grâce à une équipe permanente de rédacteurs qui ont tous une expérience de la recherche en laboratoire, grâce à ses cinquante correspondants, La Recherche est souvent informée la première de tous les développements scientifiques importants.Ce n’est pas tout.Il y a des revues qui publient le genre d’articles qu’on se promet de lire.le jour où l’on aura le temps.Refusant de confondre le sérieux et l’ennui, nous avons décidé, nous, de faire de La Recherche une revue qu’on lit même quand on n’a pas le temps.Et c’est sans doute pour cette raison-là que La Recherche a des lecteurs dans 78 pays.OFFRE GRATUITE Veuillez m’envoyer, sans engagement de ma part, un numéro spécimen de La Recherche à retourner à PERIODICA INC., 7045 avenue du Parc, Montréal 303, Que. yOUÆITÉ LES SIRENES DE COLOMB par Alexandre Dorozynski Le gouvernement de la Guyane, en collaboration avec des scientifiques de plusieurs pays, envisage la création d'un Centre International de Recherches sur le lamantin.Cette initiative pourrait laisser plus d'un lecteur perplexe, car le lamantin est une des créatures les moins connues —et les moins bien connues— quoiqu'il soit un des mammifères les plus volumineux, pouvant dépasser trois mètres de longueur et peser plus d'une tonne.Il semblerait que Christophe Colomb, qui a découvert bien d'autres choses, ait aussi découvert le lamantin, dont il avait aperçu un groupe dans les Antilles, en 1493, quelques mois après son arrivée au Nouveau Monde.Il les avait appelé des sirènes, tout en remarquant qu'elles n'étaient pas aussi belles qu'on l'avait cru, quoiqu'ayant un visage un tant soit peu humain.En fait, sur une photographie représentant un jeune lamantin dans les bras d'une biologiste, la sirène n'est pas celle qu'on croit.La biologiste est d'ailleurs canadienne, originaire de Guelph, Ontario, aujourd'hui en mission d'étude en Colombie, où elle a été envoyée par l'Agence Canadienne pour le Développement International.Car le lamantin est un passionnant sujet d'études et potentiellement un animal très utile.Déjà, en Guyane, il est utilisé pour nettoyer les cours d'eau et les canaux d'irrigation qui se trouvent souvent bloqués par une végétation trop exhubé-rante.C'est un travail qui plaft au lamantin, doué d'une voracité peu commune.Il peut consommer plus de 45 kilogrammes d'herbes, ou d'algues, par jour.Le second rôle que l'on envisage pour cet animal lui est sans doute moins agréable.Il pourrait, dans certaines régions, représenter pour l'homme une importante source de protéines.Cet herbivore amphibie, que l'on croit être le descendant d'un ancêtre préhistorique de l'éléphant, est mal connu.On n'en voit, le plus souvent que la bouche énorme aux lèvres charnues et mobiles entourées d'une sorte de brosse, et les narines à clapets, qui s'ouvrent lorsque l'animal fait surface toutes les quelques minutes pour respirer.Inoffensif et doux, le lamantin risque d'être exterminé par son seul ennemi na- turel, l'homme.Déjà une autre espèce de Sirénien (car les zoologistes ont retenu ce terme), la rhytine ou vache de mer, autrefois commune dans la mer de Béring, près du Kamchatka, a été complètement exterminée au 18ème siècle.De même, le Trichenus senegalensis, autrefois commun en Afrique occidentale, est devenu rare, ainsi que le dugong, son proche cousin de l'océan Indien et du Pacifique (qui possède la particularité d'avoir un coeur à deux pointes).Au cours de son étude du lamantin (ou boeuf marin, ou encore manati), Mlle Diana Magor a constaté qu'en Guyane, au Brésil, en Colombie, au Vénézuéla et au Pérou, le braconnage de cette espèe théoriquement protégée est très actif.Il y a un marché noir de viande de lamantin, entretenu par des chasseurs semi-professionnels.Ils passent des heures à suivre l'animal qu'ils ont repéré, pour le harponner lorsqu'il remonte à la surface (bu parfois lui enfoncer des bouchons dans les narines, jusqu'à ce qu'il suffoque).La viande et la graisse se vendent facilement au prix de la viande de boeuf malgré la menace d'une forte amende.Mademoiselle Magor a réussi à acheter à un chasseur un jeune lamantin harponné, mais encore vivant.Elle l'a soigné aux antibiotiques et alimenté au biberon jusqu'à ce qu'il atteigne un poids de 27 Mlle Diana Magor et son lamantin.(Où est la sirène?) V 5® ’T»- T* A Lamantin, vu de face kilos et passe au régime herbivore.Apprivoisé, le lamantin (surnommé «butter-ball») joue avec divers objets, fait dans son réservoir de l'acrobatie sous-marine, et répond aux signaux sonores.Il ne vocalise que sous l'eau, émettant un son plaintif, d'où ce nom de lamantin.Selon Mlle Magor, il peut apprendre des tâches simples, susceptibles de faciliter l'étude de son comportement.Malheureusement, le lamantin ne semble pas vouloir se reproduire en captivité.En liberté, une femelle ne donne naissance qu'à un veau tous les trois ans.Les scientifiques réunis au début de l'année en Guyane ont envisagé les moyens de préserver cette espèce.L'intérêt est international: la réunion était présidée par M.Dennis Irvine, du Conseil National de Recherches guyanais; M.W.Herbert Allsopp, «expert lamantin» bien connu, du Centre de Recherches pour le Développement International (Ottawa), et M.Donald Earner, de l'Académie des Sciences des USA.Le centre de recherches sera fondé d'ici la fin de l'année.• /a 1 Lisez les derniers BEST-SELLERS ILJ des ÉDITIONS DE L’HOMME PROVENOH ummsscmmsBim PROVENCHER, LE DERNIER DES COUREURS DE BOIS Paul Provencher Tout en faisant revivre un passé presque épique, Paul Provencher nous raconte comment il a appris à tirer parti de choses très simples qui rendent la vie en forêt tonifiante et agréable.$6.00 ‘ LA VOILE Nlk Kebedgy Le choix du voilier, son anatomie, le vocabulaire marin, l'inspection d'un voilier ayant déjà servi, les voiles, les vents, les manoeuvres, la sécurité nautique.les cordages et les noeuds.Tout pour l'amateur présent ou futur.Par un spécialiste.$5.00 «n«fc«r Ÿ, VIVRE EN FORÊT GUIDE DU TRAPPEUR r il» h r:m Les Plantes .d’intérieur j fm.Kxa.iFt LES PLANTES D’INTÉRIEUR Paul Provencher De vieux secrets enfin divulgués.Les cartes topographiques, les abris, les wigwams, les tentes, la pêche, la conservation et la préparation du poisson et de la viande, les plantes comestibles et médicinales.S4.00 Paul Provencher Ecrit par le dernier des coureurs de bois.LE GUIDE DU TRAPPEUR nous donne des notions élémentaires sur l’orientation, le feu.les trappes, les collets, les pièges, le tannage des peaux.$4.00 Paul Pouliot Un guide complet et très pratique à la portée de l'amateur: choix des plantes, cycles et facteurs de croissance, le sol.les arrosages, la fertilisation, la lumière, la 'multiplication.Par l’auteur de Techniques du jardinage.$6.00 0.< LES POISSONS DU QUÉBEC E.Juchereau-Duchesnay J.St-Denys-Duchesnay Dessins et description de quarante poissons que l’on trouve au Québec.$2.00 i Régent n Cburaère _ J’APPRENDS À NAGER Régent La Coursière Tous peuvent nager, même un bébé de 3 semaines.Régent La Coursière nous offre un livre de référence pour l'enseignement des bases de la natation et de la sécurité aquatique $4.00 v ^'i ‘yiiiaiEWi PQgpg LnusSUjnké ^MESURES POIDS ET MESURES, CALCUL RAPIDE Louis Stanké Cet ouvrage contient une série de tables de conversion des poids et mesures.des tables de calcul d’intérêt, de logarithmes, de fuseaux horaires, etc.$3.00 VOUS POUVEZ LES RECEVOIR CHEZ VOUS! REMPLISSEZ SEULEMENT CE COUPON ET RETOURNEZ-LE AUX ÉDITIONS DE L’HOMME C.P.250, Sillery, Québec ?Provencher, le dernier des coureurs de bois .$6.00 ?Vivre en forêt, Paul Provencher .$4.00 ?Guide du trappeur.Paul Provencher .$4.00 ?Les plantes d’intérieur.Paul Pouliot $6.00 ?La voile, Nik Kebedgy .$5.00 ?Les Poissons du Québec, E.Juchereau-Duchesnay et J.Saint-Denys-Duchesnay .$2.00 ?J’apprends à nager, Régent La Coursière $4.00 ?Poids et mesures, calcul rapide, Louis Stanké .$3.00 ?La Météo, A.Ouellet .$3.00 ?Les Mammifères de mon pays, collaboration .$2.00 ?Encyclopédie des oiseaux du Québec, Earl W.Godfrey .$6.00 ?Le Tennis, W.Talbert .$2.50 ?Ouverture aux échecs, Camille Coudari .$4.00 ?Le Parachutisme, Claude Bédard .$4.00 ?Initiation à la plongée sous-marine, René Goblot .$5.00 ?La Taxidermie, Jean Labrie .$4.00 ?CHÈQUE ?MANDAT-POSTE Ci-joint la somme de S.ÉGALEMENT EN VENTE CJTEZ VOTRE FOURNISSEUR PRÉFÉRÉ O S.5-74 NOM ADRESSE VILLE Filiale du groupe Sogides Liée ACTUALITÉ / 9 UN UNIVERS SIMPLIFIE Des expériences récentes de collision entre les éléments constituants de la matière bousculent des conceptions bien enracinées.L'image qu'on se fait souvent de la matière comme étant constituée d'électrons, de protons et de neutrons est parfaitement adéquate pour le chimiste et pour le physicien des basses énergies.Cependant, dès 1930, on nota la présence d'autres particules suspectes à l'horizon des noyaux atomiques.Entre autres, les mésonsp/ et mu ont dû être ajoutés à ce groupe des particules élémentaires.Ces mésons ne sont pas constitués de protons et d'électrons, comme ces derniers ne peuvent être considérés comme faits de mésons.Il s'agit donc de véritables particules fondamentales.A ce groupe vinrent s'ajouter les mésons K, l'hypéron et toute une quirielle d'autres particules.Dès 1960, la belle et simple image des trois particules élémentaires avait fait place à une représentation presque surréaliste des fondations de l'univers.Les brusques dislocations du sol provoquées par les tremblements de terre sont suivies de déformations superficielles périphériques qui rappellent les oscillations d'un milieu semi-élastique.Un corps semi-élastique ne recouvre sa forme originale que partiellement lorsque cesse la force de déformation.Un corps élastique la recouvre parfaitement.Pour expliquer ces propriétés mécaniques les géologues ont imaginé une croûte terrestre semi-élastique, la lithosphère, recouvrant un manteau fluide et visqueux, l'asthénosphère.Cette représentation épidermique de la planète leur est inspirée par les oscillations de la terre.Elles surviennent en particulier lorsqu'on soulage la terre d'un poids longtemps supporté.Le rebondissement du lit du lac Bonneville, en Utah, après son assèchement, en est un exemple.De plus, le modèle de deux couches aux propriétés différentes est confirmé par d'autres phénomènes.Ainsi, si la lithosphère et l'asthénosphère étaient parfaitement élastiques, les rebondissements ne dureraient, tout au plus, que quelques secondes.C'est par la présence d'une asthénosphère visqueuse, sous-jacente à une lithosphère semi-élastique.Les physiciens, frustrés par une si grande complexité à un niveau aussi fondamental de la matière, ont tenté de découvrir l'ordre qui DOIT certainement régner dans ce fouillis apparent.Avec acharnement, ils y sont parvenus.Ils ont d'abord divisé les particules suivant le type d'interaction qui leur est propre.Notons d'abord que toutes les interactions découvertes jusqu'à présent peuvent être expliquées à l'aide de quatre forces fondamentales: les «interactions nucléaires fortes», responsables de la cohésion des noyaux atomiques; les «forces nucléaires faibles», qui régissent la désintégration des particules; les «forces électromagnétiques», qui assurent l'attraction ou la Type de force Intensité relative Portée Nucléaires fortes 1 1 CT1 3 cm Électromagnétiques 10-4 infini Nucléaires faibles io-'3 10-1 3 cm Gravitationnelles 1 0” 7 ?infini que les géologues arrivent à expliquer l'existence d'une détente initiale suivie de déformations transitoires, modulées par la viscosité du manteau.Les Drs A.Nur et G.Mavko, du département de Géophysique de l'Université de Stanford, viennent de réaliser un modèle mathématique qui confirme et raffine ce modèle, dans Science, 18 janvier 1974.Ils ont pu vérifier l'exactitude de leurs équations en tentant de décrire une des plus spectaculaires déformations postséismiques connues, le rajustement de terrain qui a succédé au tremblement de terre du 20 décembre 1946, à Nankaido, Japon.Ce tremblement de terre, qui a atteint la magnitude record de 8,2 sur l'échelle Richter, a été suivi d'une élévation maximum du sol de 0,5 mètre jusqu'à 65 kilomètres de la faille principale.Le modèle Nur-Mavko reproduit très fidèlement les modifications de surface qu'on y a observées.Il confirme que l'asthé-nosphère est visqueuse et prédit même les ajustements de terrain qui se produiront sur une période de cinq ans après une secousse tellurique initiale.• répulsion entre les particules électriquement chargées; et enfin, les «forces gravitationnelles», qui expliquent l'attraction des masses les unes pour les autres.Les physiciens ont d'abord noté que seuls les baryons (particules lourdes comme les protons) et les mésons (agents de liaison entre les parties du noyau) répondent aux forces nucléaires fortes.Les photons (agents de rayonnement électromagnétique) et les leptons (dont l'électron est le représentant principal) ne réagissent en aucune façon aux interactions fortes.Cette différence a permis de diviser les particules élémentaires en deux groupes, les hadrons et les leptons.Or, voilà qu'à la réunion de l'American Physical Society, tenue à Chicago en février dernier, le Dr B.Richter de l'Université de Cornell, annonce que l'électron est lui aussi sensible aux interactions fortes.Une collision à haute énergie entre un électron et un positon (anti-particule de l'électron) met en contact matière et anti-matière, qui s'annihilent avec dégagement d'énergie.Or, cette énergie, qui a d'abord la nature d'une radiation de photons peut se matérialiser en hadrons, dans ce cas-ci en mésons-pi.Puisque le méson pi fait partie des hadrons, force est de constater que des collisions de leptons peuvent donner des hadrons! De plus, fait surprenant, la distribution énergétique des hadrons produits à la suite des collisions électron-positon rappelle la distribution des énergies mesurées lors de collisions de protons.Tout se passe comme si l'électron devenait sensible aux interactions nucléaires fortes, à l'intérieur d'une région dont le rayon est d'environ 10~16 centimètre.Est-ce à dire que le mieux connu des leptons est peut-être, au fond, un hadron?Ce résultat, mis en parallèle avec les travaux des Drs F.V.Murphy et D.E.Yount, qui ont déterminé la nature hadronique du photon (grâce à des expériences d'absorption des photons produits dans l'accélérateur linéaire de l'Université de Stanford) a fait s'écrouler la division des particules élémentaires en deux grandes familles.L'Univers aurait-il une base encore moins compliquée qu'on ne le croyait?C'est ce que permettent de croire les derniers résul tats des grandes machines à casser les briques fondamentales de la réalité.• LA TERRE SE DÉTEND 3 J ?:>’ LAMAHÉRE LA PRÉVISION: LATECHNKXJE LTfŒRACmON L’ÉCOLOGIE L’ÉVOLUTION LHOMÉOSIASE Sciences Physiques : cinq fascicules Sciences Biologiques : cinq fascicules (à paraître en Mai 74 : La démarche scientifique) Dix cahiers de Fiches de rapport (un cahier par fascicule) Un Guide méthodologique Editions Hurtubise, 380 ouest, rue Craig, Montréal, H2Y U9 — Tél.: 849-6381 Université Laval ACTUALITÉ / 11 LA SCIENCE DU HOCKEY La saison de hockey s'achève sans que l'on ait pu détecter quelqu'influence que ce soit de la peur infligée par les Soviétiques à nos fragiles champions du monde.Mais si le hockey commercial ne pense qu'aux profits à court terme, les chercheurs universitaires, eux, se sont installés au chevet de notre sport malade.A Québec, en particulier, le département de l'Éducation physique et des sports de l'université Laval, sous l'impulsion du Dr Gaston Marcotte, a créé « Le Groupe de recherche et de développement sur le hockey»: Cet hiver, le Groupe organisait le premier colloque jamais tenu au Canada sur la recherche appliquée au hockey.Pas moins de 150 professeurs d'éducation physique et entraîneurs se sont déplacés pour écouter 13 communications d'universitaires de Laval, de Montréal, d'Ottawa et de l'Université du Québec à Montréal.Par exemple, on ne connaft pas encore les qualités physiques qu'il faut exiger d'un joueur de hockey.Il n'existe pas de méthode, fondée sur des recherches scientifiques rigoureuses, pratique, simple et objective pour évaluer les athlètes de ce sport.Pourtant, les chercheurs américains ont mis au point des techniques raffinées d'évaluation des joueurs de football et de basketball.L'ensemble des critères retenus est tel que l'analyse des données requiert un traitement sur calculateur.L'objectif du Groupe de Québec n'est pas d'obliger les entraîneurs à louer les services d'un ordinateur.Il s'agit de fabriquer une batterie de tests d'exécution simple, mais extrêmement significatifs.De même, la condition physique des joueurs de hockey peut être mesurée en laboratoire avec beaucoup de précision.CONDITIONNEMENT PHYSIQUE — L'attirail du joueur de hockey n'est-il pas déjà assez compliqué qu’il doive porter un masque à gaz pour se protéger de l'air pollué?Non.Les chercheurs sur le hockey veulent tout simplement connaftre la consommation d'oxygène des athlètes.A Le Dr Georges Larivière, organisateur du colloque, avait comme objectif de réunir, pour la première fois, les recherches disparates effectuées un peu partout au Canada.A plus long terme, il prévoit que le Groupe sur le hockey créera des liens avec les chercheurs soviétiques, américains et tchécoslovaques.De plus, le noyau de chercheurs permettra d'assimiler les recherches scientifiques effectuées outremer.Non pas qu'il n'y ait plus rien à découvrir sur le hockey.Au contraire, beaucoup reste à faire dans ce sport extrêmement complexe.Par contre, les moyens mis en jeu manquent de souplesse.Il faut alors remplacer les appareils compliqués par des exercices simples qui permettent de mesurer les mêmes paramètres sur n'importe quelle patinoire.Par exemple, un test de patinage de huit minutes indique une excellente corrélation entre la vitesse moyenne du patineur etsa consommation maximum d'oxygène.Voilà donc une bonne façon d'évaluer l'endurance organique, l'habilité à fournir des efforts intensifs mais de courte durée.Plusieurs batteries de test existent déjà, mais aucune ne mesure l'ensemble des qualités techniques exigées d'un athlète pour jouer au hockey.Ces qualités sont nombreuses et personne ne s'entend encore sur leur importance relative: coup de patin, habilité à lancer, à passer la rondelle, à feindre, et à effectuer les mises en échec.L'année dernière, un chercheur de l'Université de Boston, M.E.F.Enos, a mis au point une batterie de sept tests qui ont parfaitement mesuré l'habileté des joueurs des Canadiens de Montréal et des Bruins de Boston, dans la Ligue nationale de hockey.Mais le temps nécessaire pour passer les tests est tout à fait prohibitif et l'on ne connaît pas encore l'efficacité d'une mini-batterie de trois tests adaptée à partir de sa méthode.Pendant ce temps, à Québec, les chercheurs du Laboratoire des sciences de l'activité physique de l'université Laval, mesuraient sous toutes leurs coutures les joueurs d'une équipe junior, les Remparts, et d'une équipe professionnelle, les Nordiques, de la Ligue mondiale de hockey.Ils ont obtenu le portrait type du joueur de hockey.Par exemple, le joueur offensif junior mesure 177,3 centimètres, pèse 77 kilogrammes, dont 8,6 pour cent de graisse, développe une charge de travail maximum de 358 watts pour un rapport puissance/poids de 4,7 watts par kilogramme, environ le douzième de la capacité énergétique d'une batterie d'automobile.Dans le cas des professionnels, les chiffres correspondants sont 175,2 cm, 75,9 kg, 10 pour cent, 333 watts et 4,4 watts/kg.Plusieurs autres communications ayant trait à la stratégie, l'équipement et l'instruction des entraîneurs ont aussi été présentées.En fait, c'est une toute nouvelle partie de hockey qui commence.• 'ï* 'i, *- ' %* - ' SUD '.vr^yC-w ¦ • •• v'tvîit Vi'tei.A A*** '-4' * ^ ;¦’ .*/>''*-£*- '& ^ ’• .‘ÆSLJè ‘«.f*.i- i?lÜ: * %*"•: W«." ;•.4- * ' ' 4 *üË«i -:• t «fr „ ACTUALITÉ / 13 'Wi des trous dans le ciel En mourant, des étoiles s'effondrent sur elles-mêmes jusqu'à capter la lumière au lieu d'en émettre.Puits sans fond creusés dans l'univers, ces trous noirs gobent tout, même les lois de la physique.ce qui ne va pas sans compliquer leur description.par Pierre Malouin Aux yeux des astronomes, notre Soleil n'est qu'une étoile ordinaire, comme ils en observent des milliards au bout de leurs télescopes.Cette étoile, la plus près de nous, est née de la contraction d'un immense nuage de gaz interstellaire.En convergeant vers un même point le gaz a transformé l'énergie que lui conférait la loi d'attraction universelle en chaleur.Puis, il y a 5 milliards d'années, la température au centre de la masse vaporeuse, largement composée d'hydrogène, a été suffisante pour allumer les réactions thermonucléaires.La radiation émise à partir de son coeur a alors augmenté suffisamment pour stopper l'implosion, et le Soleil a pris l'allure qu'on lui connaft.Mais, dans huit milliards d'années, lorsqu'il aura brûlé une grande partie de son hydrogène en hélium, il aura enflé jusqu'à multiplier son diamètre par 250.L'astre du jour aura avalé Mercure et Vénus et siégera dans la Galaxie au rang de «géante rouge».Ultérieurement, notre étoile se contractera en une sphère de la taille de la Terre pour mourir à l'état de «naine blanche», puis de «naine noire», au moment où elle sera complètement refroidie.UN GAZ DÉGÉNÉRÉ Une étape supplémentaire sera franchie si l'étoile possède une masse supérieure à 1,4 masse solaire.En effet, la force gravitationnelle supplante alors la pression de radiation, et la contraction se poursuit.Cet écrasement de la matière sur elle- même atteint un seuil où la pression interne et l'agitation thermique provoquent une explosion en catastrophe: une Supernova.Lors de l'explosion, 90% de la matière est projetée dans l'espace, ne laissant comme résidu qu'une faible fraction de l'étoile, perdue au milieu des débris cosmiques de la tragédie.Ce noyau, trop petit et trop dense pour former une naine blanche ne trouvera son équilibre qu'à l'état d'«étoile à neutrons».Dans un tel astre, les électrons sont captés par des protons et deviennent des neutrons.L'ensemble forme alors un «gaz dégénéré» à densité comparable à celle du noyau atomique et dont la cohésion est assurée non par les forces nucléaires mais par les forces gravitationnelles équilibrées par la résistance (à l'écrasement) des neutrons.L'existence de ces corps célestes semble confirmée depuis 1967 par la découverte des «pulsars», qu'on a assimilés à des étoiles à neutrons en rotation rapide.Certaines étoiles possèdent des masses supérieures à 50 masses solaires.Il est fort probable que rendues à l'état d'étoiles à neutrons leur masse résiduelle sera supérieure à trois fois la masse du Soleil.Alors, l'objet ne peut être stable.Il se contracte indéfiniment, la force gravitationnelle dominant toute autre force.La théorie newtonnienne devient insuffisante et l'on doit faire appel à la théorie générale de la relativité pour traiter adéquatement le problème.La matière subit à ce moment ce qu'on appelle l'effondrement gravitationnel, donnant naissance à un «trou noir».Il y a déjà plus de 30 ans que des théoriciens de la relativité générale ont commencé à imaginer des étoiles si denses qu'aucun rayonnement électromagnétique et à plus forte raison, aucune matière, ne pourraient s'en échapper.Les corps ayant servi à engendrer, par leur fusion, un trou noir, deviennent donc prisonniers à l'intérieur d'un certain rayon d'influence appelé l'«horizon des événements», le champ gravitationnel devient si puissant que même la lumière ne peut s'en échapper! De là le nom de trou noir.L'HORIZON DES ÉVÉNEMENTS Considérons une certaine région de l'espace où se trouverait un trou noir et d'autres corps sujets à être dévorés par l'«ogre de l'espace».Après l'assimilation au trou noir, toute substance (qu'il s'agisse même de particules élémentaires, électrons, protons ou neutrons) perd son entité.Seuls les grands principes de conservation de l'ensemble ne sont pas violés: charge, masse et énergie.Même un rayon lumineux tentant de s'échapper est courbé vers le centre de l'étoile et n'en sortira pas si la source émettrice se trouve à l'intérieur de l'horizon des événements.Le mouvement de la matière vers le centre du trou noir est inexorable, sans retour et même sans halte, au même titre que l'est le déroulement du temps dans notre monde.Rien ne pouvant se dégager de l'emprise du monstre, ce dernier ne peut que prendre de l'expansion, avalant littérale- > 14/ ACTUALITÉ >ment son entourage et ne présentant au total que trois caractéristiques spécifiques: sa masse, sa charge et son énergie de rotation (moment cinétique).La théorie de la relativité prévoit en outre que le rayon délimitant la «zone sans retour», ou horizon des événements, est proportionnel à la masse du trou noir.En conséquence, on peut démontrer que la masse spécifique d'un trou noir est inversement proportionnelle au carré de sa masse.Or des trous noirs de masses allant de dix mille à cent millions de masses solaires sont choses possibles au centre des galaxies! Ainsi, pour une masse de cent millions de Soleils la masse spécifique (moyenne) de l'objet serait celle de l'eau! LA MATIÈRE DISTORDUÈ Un effet particulier prend naissance au voisinage des grandes masses, la distorsion de la matière.Il ne s'agit pas là simplement de tensions macroscopiques appliquées sur un objet quelconque mais bien d'un phénomène qui agit sur la structure intime de la matière: atomes, noyaux et électrons.Ce stress occasionné par le champ gravitationnel non homogène est caractérisé par la notion de «courbure de l'espace-temps».Considérons, par exemple, une surface carrée de 10 km de côté située sur la Terre, puis le cube formé en s'élevant aussi de 10 km.Le volume ainsi délimité est assez important.Dans tout cet espace, le champ de gravité peut être considéré comme uniforme.En effet, quelque soit la position d'un objet dans ce volume, son poids restera inchangé.Ainsi un corps homogène subit sur toutes ses parties des forces identiques, toutes dirigées vers le sol.Par exemple, un homme en chute libre (en supposant que l'air ne le freine pas) ressentira une force nulle en toute partie de son corps.Imaginons maintenant un astronaute en chute libre à la surface d'une naine blanche.La densité imposante d'une telle étoile réduit considérablement le volume où l'on peut considérer le champ gravitationnel comme uniformejenviron 1 centimètre cube au moins!).À tel point que la tête et les pieds du cosmonaute seraient soumis à des forces d'intensité différentes de l'ordre du cinquième de son poids.En plus de tomber l'homme se sentirait «étiré» par une force mystérieuse.La même expérience menée à la surface d'une étoile à neutrons entrafnerait des accélérations différentes pour les diverses parties du corps de plusieurs millions de «g» (g représente l'accélération de tous les corps à la surface de la Terre, soit 9,8 m/s2).La notion de «courbure de l'espace-temps» est une mesure de l'intensité de cet effet de distorsion propre à toute ré- LA VIE DES ETOILES NUAGE DE GAZ INTERSTELLAIRE CONTRACTION GRAVITATIONNELLE LE NOYAU S'ALLUME i UNE ÉTOILE EST NEE EXPANSION ET REFROIDISSEMENT GÉANTE ROUGE (200 DIAMÈTRES SOLAIRES) 1 NAINE BLANCHE O (UN DIAMÈTRE TERRESTRE) 1 ÉTOILE ORDINAIRE (SOLEIL) ÉTOILE MASSIVE (50 MASSES SOLAIRES) ^WIV^ - SUPER—- NAINE NOIRE NOVA TROU NOIR (RAYON DE 5 KM) ACTUALITÉ / 15 gion de l'espace soumise à un champ gravitationnel non uniforme.Plus le rayon de courbure associé est petit, plus important sera l'effet de distorsion créé sur une masse plongée dans ce champ.À la surface de la Terre, le rayon de courbure de l'espace-temps n'a pas de sens à l'échelle humaine: il est approximativement égal à la distance Terre-Soleil (coincidence).Par contre, à la surface du Soleil, il est deux fois plus grand en vertu de la densité solaire moyenne inférieure à celle de la Terre.Si on assume par hypothèse que la géométrie d'un trou noir soit à symétrie sphérique, la relativité spécifie que l'espace-temps est courbé sans limite au fur et à mesure que l'on s'approche du centre où «la densité de tout tend vers l'infini».Il est ambitieux d'interpréter ou de donner un sens à un pareil lieu qu'on considérera respectueusement comme «point singulier» de l'espace.Toujours selon la théorie d'Einstein, l'objet «tombé» à l'intérieur d'un trou noir ressentira une «force de déformation interne» qui deviendra infinie en un temps fini! UN SYPHON STE LIAI RE Un observateur aux écoutes d'une source de rayonnement électromagnétique (par exemple un laser orientant son faisceau vers nous) lancée à partir d'un trou noir détecterait un signal dont la fréquence diminuerait de plus en plus.Cette baisse de la fréquence est associable à l'énergie cédée par le rayonnement pour s'échapper de l'étreinte gravitationnelle.Au moment de franchir l'horizon des événements, l'énergie à céder devenant égale à celle même du rayonnement, toute communication est interrompue et l'observateur perd contact avec la sonde.RAYON DE COURBURE DE L'ESPACE-TEMPS (à la surface de quelques objets célestes) Objet Rayon de courbure Terre Distance Terre-Soleil 150 000 000 kilomètres Soleil 2 fois la distance Terre- Soleil Naine blanche environ 8 000 000 km (comparable au rayon du Soleil) Étoile à neutrons environ 50 km V___________________________________________J Dépourvu de tout éclat et s'étant contracté à un volume quasi nul, le trou noir est très difficile à détecter.Seuls peuvent le trahir ses effets électriques (dus à sa charge) et son influence gravitationnelle sur son entourage.Plus de la moitié des étoiles sont doubles dans notre Galaxie aux environs du Soleil.Ces systèmes se présentent comme des couples d'étoiles en rotation l'une autour de l'autre.Dans la plupart des cas, les deux entités en présence sont de luminosité et par conséquent de masse comparables.On a observé des étoiles, apparemment seules, mais qui par leur mouvement, révèlent la présence d'une autre étoile formant le couple.Cette dernière, de faible dimension et anormalement peu lumineuse en dépit d'une masse importante, peut être soit une naine noire, une étoile à neutrons ou .un trou noir! Les cas où le compagnon invisible possède une mas- se supérieure à trois fois celle du Soleil laissent croire fortement à cette possibilité.L'existence de tels trous noirs expliquerait aussi une multitude de phénomènes incompris par les astronomes.Ainsi en va-t-il de l'énergie fantastique rayonnée par les quasars et les radio-galaxies, les explosions inimaginables se produisant au centre des galaxies, le rougissement anormal observé dans le spectre de certaines galaxies à géométrie imprévisible et enfin le problème des «masses galactiques».Sur ce point, l'étude théorique révèle que les galaxies ne contribuent que pour une fraction de 10% à la masse totale des a-mas qu'elles forment! La présence possible de trous noirs expliquerait la «masse manquante» et ferait de ces objets des astres communs de notre univers.L'émission probable de trains d'ondes gravitationnels émanant du centre de notre galaxie, si cette émission est continue et se fait dans le plan galactique de la Voie Lactée, signifierait annuellement une perte de masse de plusieurs milliers de masses solaires.Apparemment, ce fait contredit les observations.L'émission d'ondes gravitationnelles par un Trou noir en formation ou en rotation rapide au centre de la Galaxie serait une solution.A ce jour, les chercheurs n'ont pas encore en main les indices certains de l'existence des trous noirs.Pourtant les possibilités sont grandes.On a en effet étudié deux systèmes particulièrement intéressants qui à première vue laissent supposer la présence d'un trou noir.Vient tout d'abord le système double formé par l'étoile Epsilon Aurigae, supergéante chaude de 20 à 40 masses solaires dont le compagnon invisible possède une masse 20 fois supérieure à celle du Soleil.L'objet, invisible, possède un spectre d'absorption pendant les éclipses partielles de l'étoile visible, éclipses qui durent presque deux ans.DES COMPAGNONS INVISIBLES Plus récemment (QUÉBEC SCIENCE, vol.12, no 5) des savants du University College de Londres, sous la direction du docteur R.L.F.Boyd, ont confirmé que la source de rayons X Cygnus X-1 constitue bien l'autre étoile du système d'étoiles double HDE 226868 situé dans notre galaxie à quelque 6 000 années lumières de la Terre, et dont le seul membre visible est une géante rouge.Le partenaire invisible gravite autour de l'étoile observable en provoquant la formation d'un disque de gaz ionisé qu'il entrafne avec lui.Ces gaz émettent des rayons X en tombant de toute évidence sur l'étoile invisible qui effectue une révolution en 5 ou 6 jours autour de la géante.Les renseignements recueillis grâce au satellite d'observation astronomique «Copernic» de la NASA ont permis de conclure que la source de > Prenons le cas d'un trou noir qui aurait une masse égale à celle du Soleil.Un corps franchissant l'horizon des événements subira dès lors une force de distorsion trente fois supérieure à celle qui s'exercerait sur lui à la surface d'une étoile à neutrons.Au début de la vertigineuse «descente» dans le coeur sans fond du trou, l'objet supposé de faibles dimensions, restera intact; mais avec sa progression vers le «point singulier» les forces d'attraction, inégalement réparties sur les divers points de l'objet, auront bientôt l'effet d'un stress qui se répercutera à l'échelle moléculaire, atomique, nucléaire et même au niveau des particules élémentaires! Et tout ça en quelques millièmes de seconde.Un tel spectacle ressemblerait en quelque sorte à une implosion irrémédiable, à une sorte de retour de la matière sur elle-même.Dans le cas d'une étoile dont la masse spécifique est celle de l'eau, le phénomène mettrait quelques minutes à se produire tandis que pour un trou noir de masse égale à dix milliards de Soleils, la sublimation s'opérerait en un jour.Une des voies de recherche utilisée par les astronomes se fonde sur la possibilité de trouver des trous noirs au centre des amas globulaires, énormes concentrations de vieilles étoiles.La plupart de ces ensembles sont des objets très anciens d'environ dix milliards d'années.L'équilibre atteint laisse supposer que les corps les plus massifs les composant en occupent le centre; l'énergie cinétique moyenne à peu près égale pour chaque étoile de l'amas confère en effet des vitesses plus grandes aux masses faibles, leur imposant une position périphérique.Le trou noir, s'il y en a un dans l'amas, se situerait donc au centre où il prendrait avec le temps, l'aspect d'un syphon stellaire.Une telle situation doit alors engendrer un accroissement du nombre d'étoiles vers le centre de l'amas.L'étude de la distribution radiale de la luminosité, si elle révélait une augmentation marquée au milieu, serait ainsi un indice révélateur.Malheureusement, la recherche menée dans ce sens n'a pas encore apporté les résultats espérés.LE ROUGISSEMENT ANORMAL 16/ ACTUALITÉ L'HORIZON DES ÉVÉNEMENTS La théorie de la relativité générale n'est pas la seule à prévoir des étoiles si denses qu'aucun rayonnement ne peut s’en échapper.En particulier un calcul classique de Pierre Simon de Laplace permet de montrer que dans certaines conditions une masse suffisamment élevée et de densité appropriée peut interdire à tout corps matériel de s'échapper de son voisinage.L'énergie mécanique totale d'un corps de masse «m» et de vitesse «v» dans le champ gravitationnel d'une masse «M» est donnée par l'expression c _ 1 mv2 _ GMm “ 2 r où G est la constante de gravitation universelle et r la distance séparant les centres de masse respectifs de m et de M.La condition à remplir pour qu'un corps puisse quitter le champ attractif de M s'écrit E = 0 ce qui exige une valeur minimale pour sa vitesse (vitesse d'échappement): H 2GM Considérons une masse M telle que la vitesse d'échappement soit égale à celle de la lumière (symbolisée par la lettre «c»); le rayon de cette étoile suivra donc l'équation r = 2GM c2 Ce rayon, proportionnel à la masse de l'objet céleste, définit donc'«rhorizon des événements».On constate aussi que si ?représente la masse spécifique de l'étoile, on aura M Volume =(k 77 = k M_ ) = J_ M3' M2 1 «La masse spécifique moyenne de l'étoile est inversement proportionnelle au carré de sa masse.» > radiation était de dimension réduite et qu'elle possédait une masse égale à trois fois celle du Soleil, le candidat idéal au titre de trou noir.En définitive, il est remarquable que l'indice de la présence possible d'un trou noir ne vienne jamais d'un effet isolé, tel le mouvement insolite d'une étoile soumise à l'attraction d'un corps invisible, mais de deux ou plusieurs indices en accord avec l'existence de ces entités bouleversantes que sont les trous noirs.Les étoiles à neutrons sont des objets qui ont leur place dans le cadre d'un espace euclidien gouverné par les lois de Newton.Par contre le concept de trou noir est strictement relativiste: la relativité générale fait de l'effondrement gravitationnel une réalité inexorable.Peut-être la fin ultime de l'univers d'Einstein se résume-t-elle à un de ces objets, tel un puits sans fond où toute substance aura perdu son identité pour se fondre au Tout: une sorte de nirvana cosmique.Qu'arrive-t-il au «centre» d'un trou noir?On assiste, comme il a déjà été mentionné, à une singularité de l'espace-temps.Dans ce volume très réduit de densité presqu'in-finie, il y a gros à parier que les lois physiques connues seront prises en défaut.La courbure extrême de l'espace-temps, ayant alors atteint la valeur d'un Fermi (dimension approximative du rayon du proton) imposera très probablement l'élaboration d'une nouvelle théorie de la gravitation pour particules élémentaires.Devant la vertigineuse compression de toute matière, confrontée avec cette irrésistible descente dans les abysses spatio-temporelles de notre univers, la physique rejoint la métaphysique! L'existence probable de ces structures ébranle nos conceptions du monde et souligne notre ignorance de l'essence même des choses.Au sein d'un trou noir, que signifient les mots masse, énergie, charge, espace, temps?La fusion de ces réalités en une seule devient des plus accablantes.Et qui sait, le trou noir n'est peut-être que le troisième chaf-non permettant de construire un triangle des énergies fondamentales: masse, rayonnement électromagnétique et.trou noir?• ACTUALITÉ / 17 ENQUÊTE SUR UN TROU NOIR Les premières observations qui ont conduit à l'identification de Cygnus X-1 ont démarré il y a environ dix ans.Cependant, ce n'est qu'au printemps de 1971 que les premières indications sérieuses commencèrent à parvenir.A cette époque, un groupe de l'American Science and Engineering, utilisant le satellite UHURU, ont perçu un fait nouveau: des rayons X de grande intensité et variant rapidement, en provenance de la constellation du Cygne.Les variations de la source se produisaient sur une période de l'ordre de quelques millièmes de seconde.Les astrophysiciens supposent généralement que les variations d'intensité proviennent d'une explosion qui se produit au centre d'une étoile et se propage ensuite vers la surface.Plus ces variations sont rapprochées dans le temps, moins le choc aura mis de temps à traverser le rayon de l'étoile.Ainsi, en supposant que la fluctuation se déplace à la vitesse de la lumière (300 000 kilomètres à la seconde), une variation qui se produirait à tous les millièmes de seconde, impliquerait un objet d'environ 300 kilomètres de rayon.Il n'en fallait pas plus pour mettre les astronomes sur la piste d'un de ces trous noirs, dont la petitesse et la voracité pour la matière qui les côtoie, sont tout à fait exceptionnelles.L'enquête ne tarda pas à porter fruit, puisqu'on nota très tôt, qu'une «géante rouge», située dans la même région du Cygne, présentait des variations très bien apparentées à celles du mystérieux objet.Entretemps, les astronomes à l'écoute de UHURU parvenaient à délimiter avec précision la position de ce dernier.La concordance de la position et des variations observées était frappante.Ainsi, Cygnus X-1 serait un objet invisible en orbite autour d'une étoile géante.De son côté, le Dr T.Bolton de l'Observatoire David Dunlap, situé près de Toronto, faisait franchir une nouvelle étape à cette enquête déjà bien amorcée.Observant l'étoile géante rouge HDE 226868, il y décela une variation périodique d'une signification déterminante.En mesurant la position des raies du spectre de cette étoile pour calculer sa vitesse, il parvint à prouver V_________________________________________ Cygnus X I UN VA ET VIENT D'ÉTOILES - L'étoile géante et le trou noir de la constellation du Cygne, tournent Tun autour de Tautre.Ce faisant, un observateur terrestre les voit s'approcher et s’éloigner périodiquemen t.Ainsi, même d'une distance de 6 000 années-lumière, il est possible de déceler l'existence du couple d'étoiles.La courbe en trait plein indique la vitesse de va et vient de l'étoile visible, et le trait pointillé indique celle du trou noir.C'est la lumière émise par T hélium, sur le point de s'engouffrer dans le trou noir, qui en trahit le mouvement.Le Dr Bolton estime à environ 35 millions de kilomètres, la séparation moyenne entre les étoiles de ce système.A que la géante en question est bien la «maîtresse» d'un couple d'étoiles.Ainsi, HDE 226868 possède un compagnon (Cygnus X-1) qui lui tourne autour, périple qu'il met 5,6 jours à accomplir.Mais là ne s'arrêtent pas les trouvailles du Dr Bolton: il nota des raies d'émission (radiations produites lors de l'excitation des gaz qui constituent l'enveloppe de l'étoile principale) dont le comportement trahissait un écoulement de gaz de la géante vers l'invisible compagnon.Un autre coup d'oeil sur les observations X, cette fois grâce au satellite Copernic, permit aux Drs R.L.F.Boyd et P.Sanford, du University College de Londres, d'établir que la source de l'intense rayonnement X (un million de fois supérieur à celui du Soleil) provient précisément de l'important écoulement de matière, d'abord détecté par l'astronome de l'Université de Toronto (voir QUÉBEC SCIENCE, janvier 1974).Dernier indice de l'enquête: les émissions de rayonnements présentent des hauts et des bas, au cours des 5,6 jours que met le compagnon noir pour compléter son orbite autour de sa maîtresse.Forts de ces importantes observations, les astrophysiciens passèrent ensuite au calcul de la masse de l'obscure étoile dont la nature se précisait de plus en plus.Il s'agissait maintenant de déterminer la masse de l'étoile maîtresse pour arriver à déterminer celle de son compagnon.Le Dr Bolton trouva que la géante rouge est 30 fois plus massive que le soleil, et qu'ainsi, en tenant compte de la période orbitale, la masse de l'objet suspect est d'au moins six fois celle du soleil.Sachant qu'un objet d'une telle masse et de si petite dimension, ne peut figurer au rang des étoiles normales, la seule conclusion possible était d'accepter qu'il s'agit d'un trou noir.Les théoriciens voient en Cygnus X-1 la confirmation éclatante de leur modèle d'étoile en effondrement gravitationnel et les observateurs, la preuve que la collaboration est hautement profitable.Bien sûr, il reste encore des sceptiques.Par exemple, les docteurs J.Bahcall et M.Rosenbluth, du Institute for Advanced Study de l'Université de Princeton.Ils soutiennent qu'il n'est pas nécessaire de faire appel à un trou noir pour expliquer le rayonnement X observé chez Cygnus X-1.Ces astronomes proposent un modèle où un intense champ magnétique contrôlerait les mouvements de l'enveloppe gazeuse de HDE 226868.Ainsi, l'étoile compagnon ne pourrait être qu'une vulgaire étoile secondaire comme tant d'autres.Ces tentatives des Drs Bahcall et Rosenbluth sont loin de déplaire à ceux qui s'objectent à la présence des trous noirs, objets considérés comme un peu trop spectaculaires.Néanmoins, la confrontation des modèles avec l'observation est la voie ultime de la connaissance et, dans le cas de Cygnus X-1, les observateurs semblent en meilleure posture que jamais pour confirmer l'existence d'un modèle qui, il n'y a encore que quelques années, semblait tout à fait utopique.• ¦ 18 BvMBONNF/MFNT L'AIR CONDAMNE LE BOIS D'après des économistes, la production de bois ne suffira plus à la demande d'ici à la fin du siècle.Même dans des pays aux forêts immenses comme le Canada la production marque déjà des signes d'essoufle-ment dangereux.Il devient donc de plus en plus urgent de préserver la matière ligneuse.Présentement, on a recours à des produits chimiques plus ou moins toxiques.En effet, malgré de nombreuses études sur la dégradation biologique du bois par les micro-organismes, il n'existe pas encore de méthode purement biologique pour le conserver.Dans l'édition de mars àu Journal canadien de microbiologie, M.R.F.Sharp, du Imperial College of Science and Technology de Londres relate ses travaux en vue de préserver le bois en privant la faune microscopique qui le recouvre d'un élément nutritif essentiel, l'azote.En effet, la surface d'une planche possède une écologie qui lui est propre.Dans une forêt, on observe facilement les gros champignons qui se développent sur les arbres morts.Par ailleurs, il existe une multitude de micro-champignons qui détériorent le bois.Si on les privait d'une de leurs substances vitales, il serait peut-être possible de stopper leur activité.Dans cet ordre d'idée, l'élimination de l'azote du bois semble offrir de bonnes possibilités, à prime abord.On sait, par exemple, que la décomposition de la matière ligneuse par les micro-champignons s'accélère lorsqu'on enrichit le milieu en azote.Par contre, l'élimination de l'azote du bois par lavage prolonge grandement la vie utile des planches et des poutres.Pourtant, l'arbre lui-même, lorsqu'il est vivant, accueille des bactéries capables de fixer l'azote de l'air dans ses fibres, ce qui accélérera sa décomposition lorsqu'il mourra.De plus, une autre difficulté rencontrée par cette approche tient au fait que d'autres micro-champignons peuvent accaparer l'azote de l'air, au bénéfice des autres espèces qui se développent sur le bois mort.Cette méthode biologique de préservation du bois exigerait donc qu'on enveloppe les poutres pour les préserver de l'air.Ceci risque de poser des problèmes sérieux dans la pratique.Avec cette approche, la protection biologique, risque donc d'attendre longtemps avant de remplacer les modes de protection chimiques du bois.• DIGERER LA POLLUTION Une étude récente effectuée au Department of Plant Science de l'Université de Colombie Britannique, révèle que les substances polluantes favorisent la croissance des plantes.De plus, selon les Drs Bennett, Resh et Runeckles les végétaux qui sont sujets à de telles stimulations s'adaptent à la présence de faibles concentrations de polluants et sont désavantagés lorsqu'ils croissent dans l'air pur.Depuis plus d'une trentaine d'années, les scientifiques se préoccupent des effets de la pollution de l'air sur la croissance des plantes, et plus particulièrement sur celle des céréales.Au Canada, ces dernières ont une grande importance sur le plan économique et tout ce qui les touche ne laisse personne indifférent.La plupart des chercheurs se sont intéressés aux symptômes aigus des plantes soumises à des polluants spécifiques, en grandes concentrations.Le résultat global de leurs recherches est une accumulation encyclopédique de ces symptômes, même s'ils ne se produisent que très rarement dans des conditions normales.En effet, l'exposition des plantes à des doses soudaines et élevées de polluants est exceptionnelle.Même si les pertes encourues à cause de ces éphémères catastrophes écologiques posent de sérieux problèmes locaux à l'agriculture et à la foresterie, leur nature passagère fait qu'elles ne sont pas les plus importantes.Ce sont les maladies chroniques qui constituent le coeur du problème de la poilu-> tion.Celles-ci résultent de l'exposition des plantes à des polluants pendant de longues périodes, à des concentrations qui ne provoquent pas nécessairement de symptômes visibles.Les Drs Bennett, Resh et Runeckles, dans l'édition de janvier 1974 du Journal canadien de botanique, expliquent comment ils ont tenté de savoir si ces maladies chroniques peuvent être provoquées par des concentrations de l'ordre de celles qu'on trouve dans la nature.L'étude de la pollution atmosphérique tend à montrer qu'elle est omniprésente.Il est donc possible que le monde biologique ait eu à se débattre depuis fort longtemps avec des polluants naturels.Les chercheurs de l'Université de Colombie Britannique soulignent que soumises à de faibles concentrations de fluorures, de bioxyde d'azote, d'ozone et de bioxyde de soufre, les plantes poussent de façon accélérée par comparaison à celles entourées d'air pur.Par exemple, les végétaux qui ne trouvent pas suffisamment d'azote dans le sol pourraient utiliser le bioxyde d'azote de l'air pollué.L'attention des chercheurs s'est surtout portée sur les effets de l'ozone sur trois plantes cobayes: la fève, l'orge et le sarra-zin.Ayant exposé ces plantes à une concentration de 0,03 ppm (parties par millions) d'ozone, ils ont comparé leur taux de croissance avec celui de plantes témoins situées dans une enceinte d'air pur.Dans tous les cas ils ont observé une plus grande augmentation de poids chez les plantes soumises à l'air pollué.Il reste maintenant à se demander jusqu'à quel point les concentrations des polluants utilisés pour leurs expériences se comparent à celles que l'on rencontre dans la nature.Rappelons qu'ils ont utilisé une concentration de 0,03 ppm (ce qui signifie que pour 1 million de litres d'air, on ne retrouve que 3 centièmes de litre d'ozone).En Ontario, la norme considérée comme normale pour ce gaz toxique en grande quantité, est de 0,1 ppm, mais elle atteint parfois 0,35 ppm dans la banlieue de Toronto.Il semble donc irréaliste de dire que les plantes ne peuvent s'adapter aux polluants de l'air.Plusieurs types de plantes ont amplement le temps de se modifier au cours de l'échelle des temps géologiques.Par exemple, le ginkgo, arbre très ancien qui n'existe plus qu'à l'état cultivé en Chine, est très tolérant à la pollution de l'air.11 est tentant de conclure que cette tolérance est due à une adaptation étendue sur de longues périodes.Ainsi, les plantes se seraient adaptées à l'atmosphère polluée, à tel point que maintenant, elles s'en tireraient moins bien dans des atmosphères d'air pur! • ENVIRONNEMENT/19 UN OEIL SUR LA POLLUTION Radiomètre infrarouge Télescope récepteur des échos Radar micro-onde Lasers Cheminement du foyer Coudé - Déflecteur du faisceau- sonde Tableau de contrôle Enregistreuses C'EST ÉCRIT DANS LE CIEL — Pour mieux connaftre l'atmosphère, les scientifiques de la NOAA ont mis au point cette unité mobile.Sa batterie d'instruments de mesure en fait un outil très versatile pour la télédétection des constituants de l'air, donc des polluants qui peuvent la souiller.Ces instruments permettent de «lire» directement l'état de pollution de cette ultime frontière de notre planète, qu'est l'atmosphère.A Utilisant un nouvel instrument de télédétection, les scientifiques de la National Oceanic and Atmospheric Administration (NOAA), aux USA, ont entrepris de sonder les nuages et les vents à la recherche de la pollution atmosphérique.Mis au point par le Wave Propagation Laboratory de la NOAA, cet appareil est le fruit de recherches en spectroscopic atmosphérique, science de l'émission et de l'absorption de la lumière par les gaz de l'atmosphère.Les LIDARS (laser-radar) avaient déjà été utilisés par des chercheurs de la NOAA pour mesurer l'état de pollution de l'atmosphère.Le système LIDAR utilise un faisceau laser pour sonder l'atmosphère.Cette dernière réfléchit une partie de la lumière qui la traverse, et c'est en étudiant ces échos lumineux qu'il est possible de connaftre, avec une grande précision, les constituants de l'atmosphère.En effet, chaque atome ou chaque molécule possède un spectre de couleurs qui lui est propre.Ce spectre constitue une véritable signature.Le nouvel appareil de la NOAA utilise le principe des lidars, avec cette différence que les bandes spectrales mesurables y ont été multipliées.Ainsi, ce «super-lidar» utilise trois lasers, de sorte que trois couleurs différentes peuvent être mesurées simultanément, dans les échos lumineux que renvoie l'atmosphère.Mais, ce n'est pas tout.On y a incorporé un radar à ondes courtes, qui permet de mesurer l'altitude et l'épaisseur des nuages, de même qu'un radiomètre infrarouge grâce auquel on peut déterminer la température de la zone atmosphérique concernée.Cette combinaison en fait un appareil d'une très grande versatilité pour étudier l'atmosphère.Ce télédétecteur peut être comparé à un oeil d'une très grande sensibilité.Il permettra de scruter les aérosols, les vapeurs d'eau et la brume pour connaftre leurs caractéristiques à mesure qu'elles évoluent.Dans ce nouveau système, les faisceaux des lasers entrent dans le télescope par un chemin optique «Coudé» (voir diagramme).Les unités de transmission de ces faisceaux possèdent des filtres ajustables pour en varier la couleur, et un système pour mesurer la polarisation de la lumière réfléchie.En effet, chacun des «pinceaux» de lumière laser lancés pour sonder l'atmosphère est fait d'oscillations (électriques et magnétiques) perpendiculaires au faisceau.Initialement, ces oscillations enrobent le faisceau uniformément.Lorsqu'une molécule renvoie la lumière, elle le fait dans un seul plan à la fois, et ainsi, le faisceau réfléchi est privé des oscillations électriques et magnétiques suivant des plans bien précis.La polarisation de la lumière est précisément cette élimination des oscillations selon certains plans.Chaque élément ou chaque molécule polarise à sa manière et la détection de cette polarisation complète la lecture de sa signature.Le dernier élément de l'ensemble est un télescope de 70 centimètres de diamètre qui recueille les échos lumineux de l'atmosphère, pour les acheminer vers les détecteurs qui sauront les interpréter.Enfin, une roulotte abrite, dans une enceinte à température rigoureusement contrôlée, tous les appareils de mesures.Éventuellement, un mini-ordinateur capable de faire sur place l'analyse des données recueillies par les instruments sera incorporé à cet arsenal.Les premiers tests du super-lidar ont eu lieu en novembre 1973, dans la région de Boulder, au Colorado, sous les auspices de ^Environmental Protection Agency.Cependant, ce n'est que le mois dernier, après quelques améliorations mineures, que les recherches ont commencé sur une base routinière.Les polluants atmosphériques n'ont qu'à bien se tenir, les scientifiques de la NOAA ont ouvert l'oeil, et le bon.• 20/ ENVIRONNEMENT Sur une distance de 250 kilomètres, de Québec à Pointe des Monts, les eaux douces et salées se livrent à une joute dont dépend la vie même du Fleuve Saint-Laurent.Qu'arrivera-t-il si le pétrole et les barrages s'en mêlent?le mariage du Fe Il parJea L ESTUAI RE se termine vis-à-vis Les Méchins, sur la Rive sud.en face de Pointe-des-Monts.mm sa® ’ .^ ; i;'! /»• :f Or ,* r%T ENVIRONNEMENT/ 21 euve et de la Mer par Jean-Pierre Laprise A l'automne dernier, le plus important groupe d'océanographes du Québec, le Groupe interuniversitaire de recherches océanographiques du Québec, ou Gl ROQ, soulevait des objections majeures contre le projet d'accueillir des pétroliers géants dans l'ESTUAIRE du Saint-Laurent.Dans un manifeste qui fut repris par plusieurs journaux, et par QUÉBEC SCIENCE (octobre 1973), ils attiraient l'attention de l'opinion publique sur cette partie vitale du grand fleuve.Dans cette région de brassage intensif, l'éventrement d'un super-pétrolier risquait de stériliser tout le Golfe du Saint-Laurent.Contre l'implantation du super-port, les signataires invoquaient un seul argument, on ne fait pas cela dans un «estuaire».Mais qu'est-ce qu'un «estuaire»?L'EAU DOUCE ATTIRE L'EAU SALÉE Tout fleuve ou rivière qui se jette dans la mer possède un estuaire; c'est là que se rencontrent l'eau douce du ruissellement et l'eau salée de l'océan.Plus précisément, on définit un estuaire comme un système hydrologique partiellement entouré de terre, avec un libre passage vers la mer et dont les eaux sont plus ou moins diluées par l'eau douce de rivières ou d'un fleuve.Ce système peut être influencé par l'onde de marée et les frontières physiques limitant l'évolution de ses masses d'eau.En un mot, c'est le point de rencontre des eaux fluviales s'éloignant tout naturellement de leur lieu d'origine et des eaux océaniques risquant une timide incursion à l'intérieur du continent.En été, les premières, généralement plus chaudes et plus douces, chevauchent les eaux océaniques dont le caractère estival est nettement plus froid et surtout plus salé.Par contre, en hiver, les eaux de surface sont près du point de congélation, donc de température inférieure aux eaux marines sous-jacentes.L'interface de ces deux masses d'eau est le siège de mélanges turbulents intensifs.L'étendue même de cette zone de transition varie au gré d'influences extérieures telles que la marée, les contours topographiques, le climat, les saisons et plusieurs Schéma d'un estuaire classique Océan Fleuve ESTUAIRE EMBOUCHURE INTRUSIONS SALINES eaux océaniques eaux saumâtres eaux fluviales courant moyen sans la marée autres agents perturbateurs qui sont plus ou moins connus à l'heure actuelle.Par exemple, l'écoulement des eaux douces superficielles sera plus important au jusant (marée descente) qu'au flot (marée montante), et vice versa pour la nappe océanique du fond.Ainsi, selon la profondeur, le sens de circulation des eaux ne sera pas le même! Inévitablement, il se produit de la friction à l'interface, de sorte que dans leur course vers l'océan, les eaux fluviales entrafnent avec elles les premières couches de la nappe marine.Ceci crée un appel d'eau vers l'amont, provoquant la pénétration de l'eau saline dans le fleuve.Au flot, la marée encourage ce processus tandis que l'influence négative du jusant réussit avec peine à le neutraliser quelques fois.Là où l'on observe ce processus se trouve l'estuaire.Nous sommes alors dans une antichambre où se déroule un super mariage.Certains facteurs peuvent influencer ce mariage et en changer complètement l'aspect, par exemple, l'apport d'eau douce, les précipitations et l'évaporation.Si cette dernière est plus importante que les précipitations et l'apport d'eau douce, l'estuaire est dit «négatif».On a alors un système à très forte teneur en sel, ou hypersalin.Il existe fréquemment sous des climats tropicaux, chauds et secs.Par opposition, si l'équilibre est inversé, l'évaporation devenant moindre que les précipitations et l'apport d'eau douce, l'estuaire est «positif».C'est le plus courant dans nos régions tempérées.De plus, notre mariage peut être plus ou moins réussi selon l'influence de la marée.On retrouve, suivant les circonstances, un estuaire stratifié, partiellement mélangé ou bien, mélangé.Dans le premier cas, la surface de séparation entre les eaux fluviales et océaniques est très marquée.Sur quelques mètres, on observe vers le haut une diminution rapide de la salinité, ou une augmentation brusque de la température, ou les deux phénomènes à la fois.Un courant de décharge rapide et une faible influence de la marée explique ce genre de stratification.Le fjord de la rivière Saguenay en est un remarquable exemple.L'estuaire devient partiellement mélangé lorsque les deux masses d'eau se mêlent de façon appréciable.La surface de sépa-> 22/ ENVIRONNEMENT >ration perd sa franchise et l'on parle plutôt de zone de transition.Enfin, l'estuaire devient bien mélangé si l'effet de la marée gagne beaucoup en amplitude.La surface de séparation s'évanouit et l'on constate une homogénéité presque complète sur toute la verticale.En plus des critères hydrologiques, il est possible de classer les estuaires selon leur morphologie.Il y a ceux situés ou formés par sédimentation à l'embouchure d'un fleuve, le Mississippi, par exemple, construisant ainsi, au large, des dunes de sable et des fies.Les fjords, ou vallées en forme de «U», creusés par les glaciers, généralement de grandes profondeurs et fréquemment terminés par un seuil peu profond, constituant la dernière catégorie.Ceci correspond parfaitement à la majeure partie du Saguenay, à partir d'une douzaine de kilomètres en bas de Chicoutimi, où commence une fosse de 275 mètres, terminée à la hauteur de Tadoussac par un seuil d'une vingtaine de mètres de profondeur seulement.Malheureusement, au désespoir des profanes et pour le plus grand plaisir des océanographes, l'estuaire du Saint-Laurent ne cadre avec aucune de ces catégories simples.OÙ EST L'ESTUAIRE?En prenant en considération la topographie du fond, la distance séparant les rives et certains critères d'ordre biologique, chimique et physique, la partie principale de l'estuaire du Saint-Laurent est délimitée en amont par l'fle d'Orléans et en aval par une ligne imaginaire allant de Pointe des Monts sur la rive nord, jusqu'à Cap-Chat, sur la rive sud.Il se subdivise en deux sections: l'«estuaire maritime» et le «moyen estuaire», la ligne de démarcation entre les deux se situant à l'embouchure du Saguenay.Une profonde vallée glaciaire appelée Chenal Laurentien, ayant son origine dans la région de Tadoussac et se prolongeant jusqu'à l'océan Atlantique par le Golfe, constitue la principale caractéristique géomorphologique de tout l'estuaire.Ce chenal débute par un abrupt changement de pente, la profondeur passant subitement de 50 m à plus de 350 m sur une distance de 20 km environ, en aval de l'embouchure du Saguenay.C'est par cet énorme couloir que l'eau océanique pénètre dans notre antichambre.Du point de vue océanographie physique, et à la lumière de notre théorie estuarien-ne élémentaire et des travaux antérieurs, on peut déduire que l'estuaire du Saint-Laurent est une plaine côtière de type positif, dont le caractère varie de «très bien mélangé» à la tête, passant à «partiellement mélangé» jusqu'à l'embouchure du Saguenay, pour devenir «stratifié» dans l'estuaire maritime.Nous y retrouvons, simultanément, les trois types décrits précédemment, d'où la complexité du système.De plus, la circulation des différentes masses d'eau sera affectée par un nouvel agent perturbateur, la force de Coriolis.Elle naft de la rotation de la terre et elle influence tout corps se déplaçant dans le champ gravitationnel terrestre (courant marin, vents, satellites) en déviant sa trajectoire vers la droite, dans l'hémisphère nord, et vers la gauche, dans l'hémisphère sud.Par conséquent, les eaux superficielles s'écoulant vers la mer auront tendance à longer la rive sud, tandis que l'intrusion saline remontera l'estuaire en longeant la rive nord.AVIS AUX TOURISTES Cette circulation particulière amènera une légère inclinaison de la surface de séparation, révélée par les pentes des isothermes et des isohalines, courbes d'égale température et salinité.Simultanément, cet effet modifiera considérablement les paramètres température et salinité des eaux superficielles.En effet, en été, on peut constater que la rive nord est baignée par des eaux plus froides et plus salées que celles de la rive opposée.Les baigneurs de Hauterive et Baie Comeau, sur la rive nord, en savent quelque chose! La zone de transition entre l'estuaire moyen et maritime, lieu de processus encore très mal connus est d'importance vitale du point de vue physique, biologique et chimique.Là se situe véritablement le coeur de l'estuaire.T rois systèmes majeurs y convergent, les eaux du Saint-Laurent, celles du Saguenay et les eaux océaniques transitant par le Golfe.Le Saguenay étant plus ou moins un intrus dans notre mariage, je me contenterai d'une description brève.Sa principale Modèle en boftes de l'estuaire laurentien.La boîte qui contient le point d'interrogation traduit l'état des connaissances sur la zone de mélange de l'estuaire. ENVIRONNEMENT/23 caractéristique d'été est la présence, sur toute la longueur du fjord, d'une thermo-halocline, zone transitoire séparant des masses d'eau de température et de salinité différentes, de très grande amplitude déterminant une stratification stable à deux couches.La nappe superficielle mesure moins de 20 mètres d'épaisseur et sa température varie entre 16 et 18°C et sa salinité entre 5%o et 8%o.Le symbole °/oo se lit «partie par mille» et indique le nombre de grammes de sels par kilogramme d'eau.Sa nappe profonde constitue environ 93% de la masse d'eau du fjord.Presque isotherme, la température de la nappe profonde varie seulement de 0,4°C à 1,7°C et sa salinité augmente régulièrement de 26%o jusqu'à 31°/oo, parvenu au fond.La circulation est celle d'un estuaire positif, sortie de l'eau douce de la surface du Saguenay avec entraînement des couches salines sous-jacentes et pénétration, au-dessus du seuil, des eaux du Saint-Laurent.DEUX RÉGIMES L'estuaire maritime est de loin le plus complexe de nos trois systèmes.Le Chenal Laurentien lui confère une grande profondeur, influençant de façon prédominante la température et la salinité de l'eau.En fait, du point de vue dynamique il est assez difficile de différencier l'estuaire maritime du Golfe.Le rétrécissement du Golfe, à la hauteur de Pointe des Monts et une circulation superficielle des eaux quelque peu différente, constituent une limite naturelle, mais assez floue entre les deux régions.Le profil de salinité se modifie considérablement selon les saisons de sorte qu'il faut considérer séparément le régime d'hiver et celui d'été.En hiver, l'eau est soumise à un refroidissement qui abaisse sa température jusqu'au point de congélation, à —1,8°C (Ne pas oublier qu'elle est salée.un peu comme les rues en hiver).En outre, la formation de la glace et l'évaporation due au vent glacial soufflant au-dessus des étendues libres, augmentent la salinité.Une telle évolution de ces paramètres amène une augmentation de densité, d'où chute vers le bas, et provoque un brassage vertical, créant ainsi une nappe superficielle bien mélangée.Les masses d'eau inférieures sont alors plus chaudes, 4°C, donc en principe moins denses et on pourrait présager que le brassage s'étendrait jusqu'au fond, mais il n'en est rien.En effet, aux basses températures les variations de densité sont surtout tributaires de la salinité.Par conséquent, l'accroissement de la salinité de 31°/oo à 35°/oo avec la profondeur, due à l'intrusion saline, compensera amplement l'effet du réchauffement et maintiendra une stratification stable à deux couches.1/ LA NAPPE FROIDE passe au-dessus de la tête du Chenal Laurentien au flot, ou à la marée montante.2/ CALAGE DES EAUX au jusant, ou marée descendante.1 TEMPÉRATURE (en degrés Celsius) 60 ¦ TEMPÉRATURE (en degrés Celsius) NAPPE 200 24/ ENVIRONNEMENT BAS ESTUAIRE » ««-HAUT ESTUAIRE Pointe- des- Monts Québec Rimouski — 100 — 200 —300 ESTUAI RE MARITIME DU FLEUVE SAINT-LAURENT — Par dessus les mouvements ascendants et descendants des masses d'eau se superpose un immense tourbillon entre Rimouski et Pointe-des-Monts.De plus, une immense vague interne d'une trentaine de mètres de hauteur s'agite en permanence à l'interface des eaux superficielles et profondes, à environ 75 mètres de profondeur.> C>Avec la crue printannière, les eaux superficielles deviennent nettement moins salées, 28°/oo.Retrouvant les journées chaudes d'été, les vacanciers ne sont pas les seuls à se faire chauffer par les rayons du soleil et les eaux de surface voient leur température s'élever graduellement jusqu'à 10°C.Ce qui oblige quand même les vacanciers à se maintenir hors de l'eau.Celle-ci devenue moins dense, en se réchauffant et en s'adoucissant, ne peut s'enfoncer, ce qui contribue à en accentuer la stabilité.DES EAUX ARCTIQUES ÉGARÉES A cause de cet équilibre très stable, il faut beaucoup d'énergie et de temps pour réchauffer les couches profondes.À un point tel que le réchauffement d'été n'a pas le temps, avant l'arrivée de l'automne, de faire disparaître la nappe d'eau froide et nous la retrouverons tout l'été se déplaçant en moyenne entre 50 m et 75 m.Par contre, la température des couches profondes ne varie pas en fonction des saisons, mais plutôt en réponse à des changements survenus hors du Golfe.Ainsi, le système hivernal à deux couches se transforme en un système à trois couches à l'été.La nappe d'eau froide intermédiaire est présente dans tout le Golfe et est très importante du point de vue biologique, transportant en son sein une faune et une flore marines caractéristiques des eaux arctiques.Pour compliquer encore plus la situation, on a suggéré la présence d'un immense tourbillon anticyclonique (qui tourne dans le sens des aiguilles d'une montre), dont le centre serait situé quelque part entre Pointe-aux-Pères et Pointe-des-Monts.De plus, à la suite de mesures récentes, on a trouvé que la marée favorisait la formation d'une onde interne stationnaire à l'interface des deux principales masses d'eau d'environ 60 km de longueur d'onde, en phase avec la marée et de très grande amplitude.Pointe-des-Monts serait près d'un point d'amplitude maximum tandis qu'un des noeuds serait situé dans la région de Pointe-aux-Pères.Enfin, l'estuaire moyen est relativement peu profond, passant lentement de 20 m à l'île d'Orléans jusqu'à 70 m à l'embouchure du Saguenay.On y remarque la présence d'fles centrales éparses divisant le chenal en deux bras, celui du nord étant généralement plus profond.Ce qui contribue à amplifier la circulation due à l'effet Coriolis.Il est caractérisé par des eaux saumâtres (0-25°/oo) et par de fortes dénivellations dues à la marée.L'intrusion saline se propage presque jusqu'à l'île d'Orléans et c'est aussi dans cette région que l'on note les plus fortes marées du Saint-Laurent (5 mètres).Ce qui crée à la tête de l'estuaire un mélange intense de toute la colonne d'eau.Il ne reste plus qu'une différence d'environ 1°/oo entre la salinité de la surface et celle du fond.En hiver, ce mélange est accentué encore plus grâce à l'instabilité produite par le refroidissement des eaux superficielles.Plus bas, la stratification s'intensifie légèrement.Les eaux saumâtres résultant du mélange à la tête chevauchent les eaux plus salées venant périodiquement de l'estuaire maritime.La stratification maximum se trouve dans la région située entre l'Ile-aux-Coudres et l'Ile-aux-Lièvres.UN MÉLANGE DANS LE BRASSAGE À la tête du Chenal Laurentien se trouve la «zone de mélange», la partie la plus complexe de l'estuaire.C'est là que dans son lent cheminement vers l'amont, l'intrusion saline remonte la pente du chenal et remet en suspension les sédiments riches en sels minéraux et en matières orga- niques du fond.Mais quelle sera l'influence de ce recyclage des engrais, de la marée, des saisons ou de la température extérieure?Comment ce déplacement modifie-t-il la structure thermo-haline?De quelle manière le Saguenay perturbe-t-il le système?Autant de questions auxquelles tenter de répondre serait pour le moins hasardeux.On sait tout de même qu'au jusant la décharge des eaux refoule l'intrusion saline vers le fond pour la faire buter contre la pente.Incapable de franchir ce seuil ou de passer au travers, il y a calage des eaux et création d'un mouvement turbulent au-dessus du fond qui provoque la remise en suspension des substances nutritives.Ce processus est marqué par l'épaississement et la descente vers le fond de la nappe d'eau froide.Au flot, la nappe passe au-dessus de la tête du chenal.Là où il n'y avait que de l'eau relativement chaude, à 4°C, on retrouve maintenant une intrusion froide à 0°C, aux environs de 20 m de profondeur.Celle-ci atteint régulièrement la surface et refroidit considérablement les eaux à l'embouchure du Saguenay.Lors de cette remontée il y a apport d'éléments nutritifs, phosphates, nitrates et silicates, arrachés du fond.Parvenus à la surface, les sels nutritifs sont largement distribués dans le Golfe.Le cycle est complété par la sédimentation des détritus organiques et inorganiques.En ce qui a trait à l'influence du Saguenay, il semble que dès que ces eaux ces- ENVIRONNEMENT/25 sent d'être refoulées par les eaux du Saint-Laurent, au flot, elles traversent rapidement l'estuaire en surface et viennent grossir les eaux de décharge qui longent la péninsule gaspésienne et forment le courant de Gaspé.Ce courant est équivalent à 20 fois le débit d'eau douce du fleuve.1/ LE REMORQUEUR DE HAUTE MER, la «Metridia» a été transformé en navire océanographique et loué par le Groupe interuniversitaire de recherche océanographique du Québec, le Giroq.Ce fut le premier navire océanographe du groupe de scientifiques qui s'est donné comme mission de connaftre l’estuaire .2/ SONDE OCÉANOGRAPHIQUE - Pour mesurer la salinité, la quantité de particules en suspension et la teneur en particules organiques et en substances polluantes de l'estuaire, les océanographes vont chercher des échantillons d'eau à diverses profondeurs à l'aide d'une bouteille Van Dohrn., LA BOUCHE DU GOLFE De par leur situation géographique, les estuaires sont considérés comme une porte ouverte sur l'arrière-pays.De plus, leur dynamique particulière, apportant avec générosité les sels nutritifs à la surface, les rendent six fois plus productifs que l'océan du large.Il n'est donc pas surprenant qu'ils aient attiré sur leurs rives la faune et les hommes de tous les temps, lesquels les ont utilisés de façons très variées, voies de communication, installations portuaires, sanctuaires d'oiseaux aquatiques, lieux de tourisme et régulateur de température.Zone de brassage intensif, l'estuaire est aussi devenu l'«usine d'épuration» dont les villes de Montréal, Trois-Rivières et Québec refusent de se doter.L'impact des estuaires sur les civilisations a toujours été très important.Malheureusement, l'homme ne les a pas ménagés.Parmi tous les supplices qu'il leur a infligés, il y en a un qui doit être placé dans une catégorie spéciale, la régulation du débit d'eau douce par la construction de barrages sur les tributaires.L'eau douce est un besoin vital pour un estuaire.En restreindre l'alimentation peut, à plus ou moins brève échéance, amener un déséquilibre lourd de conséquences pour la flore et la faune marines allant même jusqu'à entraîner leur disparition.Il y a quelques années j'étais fier du soi-disant grandiose projet de la Manicouagan, ignorant les conséquences écologiques pour ne voir que les réalisations technologiques.Maintenant la perspective du développement du potentiel hydroélectrique des rivières de la Basse Côte Nord me fait peur.Quel prix devrons-nous payer cette électricité qu'on nous dit indispensable à notre progrès?C'est uniquement par une étude systématique de l'estuaire que nous trouverons la réponse.Il devient donc urgent que cessent les tracasseries politiques retardant le projet du Golfe (voir QUÉBEC SCIENCE, janvier 1974) et de libérer les crédits nécessaires à la mise en œuvre des travaux.Des millions de personnes ont besoin de cette «machine» à fertiliser le Golfe et à épurer le Fleuve Saint-Laurent.Université de Montréal Université de Montréal ( i /•jf 26 M SCIENCE & IA S/4NTÉ DIALOGUE A COEUR OUVERT Au mois de février 1974, l'Institut de Cardiologie de Québec a inauguré un système d'enseignement programmé, contrôlé par ordinateur.Cette réalisation fait suite à une collaboration entre l'Institut et le Centre de traitement de l'information de l'université Laval.Inspiré des expériences dans ce domaine menées à l'Université d'Edmonton, Alberta, mais adapté aux conditions particulières d'un Institut de Cardiologie, cet enseignement programmé par ordinateur a ceci de particulier qu'il s'accompagne, outre le terminal conventionnel, d'un ensemble de moyens audio-visuels assez sophistiqués.Qu'on en juge: l'étudiant en cardiologie dispose, outre d'un clavier lui permettant d'interroger et de répondre à l'ordinateur, d'un écran cathodique où s'écrit le dialogue homme-machine, mais aussi d'un deuxième écran où apparaissent des diapositives illustrant tel ou tel passage du cours.Et, pendant ce temps, un casque d'écoute et un stétophone lui donnent accès aux illustrations sonores enregistrées sur des bandes magnétiques.La diapositive projetée est-elle celle d'un coeur?En appuyant son stétophone (équivalent acoustique du crayon lumineux) sur le ventricule gauche de ce coeur, l'étudiant pourra alors entendre les battements caractéristiques correspondants, tandis que l'ordinateur lui demandera de répondre à une série de questions, ou encore, lui fournira un texte explicatif.UN PROFESSEUR INTÉRESSANT - A l'ombre de l'étudiant, l'enseignant-ordinateur de l'Institut de cardiologie de Québec répond aux questions du premier, lui projette des diapositives, et lui fait subir des tests simples.L'écran de projection de diapositives est situé à gauche de l’écran cathodique sur lequel s'inscrit le texte du cours.Le clavier permet à l’étudiant d'engager le dialogue avec l'ordinateur et le stétophone, d'entendre les sons enregistrés sur bandes magnétiques.V ««CiTj $4*rri .• * *ip- mih L'utilisation des ordinateurs comme outil pédagogique ne peut que se généraliser.Ce nouvel enseignant de l'Institut de Cardiologie de Québec est un excellent exemple de l'utilisation rationnelle des possibilités des ordinateurs modernes (voir L'Ordinateur électro-ménager, en page 38 de ce numéro).grandes catégories, l'obésité constitutionnelle et l'obésité psychogène.Dans le cas des femmes, l'obésité constitutionnelle touche celles qui restent grosses malgré des régimes ne dépassant pas habituellement 10 à 20 pour cent de leurs dépenses de base.Souvent, ces besoins ont été aggravés lors de la puberté, de grossesses, de la prise de la pilule ou après un choc.Dès que ces obèses commencent à perdre un peu de poids, leurs tissus adipeux présentent une aptitude particulière à stocker le moindre excès d'ingesta.De plus, leur activité physique est spontanément réduite et leur situation encore aggravée parce qu'ils diminuent en même temps leurs dépenses de base et leur niveau de vigilance, dès qu'ils jeûnent un certain temps au-dessous de 600 calories/ 24 heures.En fait, leur état est caractérisé par une grande aptitude à faire des réserves.On a développé ce type d'obésité, caractérisé par une augmentation du nombre des cellules adipeuses, chez des rats en leur donnant dès le sevrage des régimes riches en graisse.Par ailleurs, l'obésité psychogène se développe chez les individus, en particulier les femmes, qui, sous l'influence d'émotions, de soucis ou de fatigue prennent du poids sans manger davantage.D'autres, soumis aux mêmes conditions, en perdent.L'émotion produit ainsi des changements métaboliques, reliés aux transformations chimiques de l'organisme.Ceux-ci sont encore mal élucidés.On sait néanmoins qu'ils entrafnent une assimilation des protéines et un stockage de graisse et d'eau, tout comme ce qui se produit chez les animaux hibernants.Ces obèses, selon le Dr Trémolières, ont souvent été des «enfants de mère à sucette» donnant un bonbon à la moindre contrariété ou, au contraire, des enfants surcontraints, suceurs de pouce, puis téteurs et mâcheurs de chewing-gum ou fumeurs.Pour guérir l'obésité, une approche à court terme met tout le fardeau sur l'obèse, c'est l'approche diététique.Une autre remet en cause les habitudes alimentaires de la société.UNE SOCIÉTÉ DE POIDS LOURDS L'enquête Nutrition-Canada vient de révéler que plus de la moitié de la population adulte canadienne a un poids excessif.L'excès de poids touche les deux sexes.Dans le cas des femmes, de 65 à 87 pour cent de celles âgées de 40 ans et plus sont trop lourdes.Une telle situation pose de graves problèmes tant sur le plan santé que sur le plan psychologique.Du côté espérance de vie, par exemple, la Metropolitan Life Insurance calcule ses primes en tenant compte qu'un surpoids de 11,4 kilogrammes chez un homme de 45 ans réduit son espérance de vie de 25 pour cent.La surabondance coûte très cher à notre société.Malheureusement les causes de l’obésité sont nombreuses et la simple diététique ne suffit pas à guérir cette maladie.Il faut faire appel à un mélange de médecine et de psychologie.Lors d'une conférence internationale sur la nutrition, tenue à Québec en mars dernier, le spécialiste français J.Trémolières a passé en revue les différents types d'obésité.Ceux-ci se divisent en deux Les aliments modernes portent aussi une large part du blâme.En fabriquant des aliments frustrants, l'industrie alimentaire porte l'homme à manger de plus en plus, puisqu'il est toujours à la recherche d'une jouissance qu'il ne trouve plus dans ses aliments.Enfin, la situation évolue continuellement.L'homme industriel a besoin de moins en moins de calories tout en gardant un taux de protéines élevé.Par exemple, les taux de calories recommandés diminuent de LA SCIENCE & LA SANTÉ / 27 connaissances en nutrition pauvres moyennes bonnes EIL I bonne | moyenne | pauvre qualité de l'alimentation L'INFORMATION NOURRIT - Cette distribution des connaissances en nutrition en fonction de la qualité de l’alimentation; dans le milieu québécois, indique que l'informationaapporte autant de nou-nourriture au corps qu'à l'esprit.A 100 à 200 calories tous les cinq ans.L'industrie doit donc mettre au point de nouveaux aliments riches en protéines et pauvres en glucides et lipides, sans quoi il va falloir éliminer de notre table les céréales, graisses, confiseries, boissons sucrées, biscuiterie et charcuterie au profit d'aliments ÿrès onéreux comme les viandes, le poisson, les laitages maigres, les légumes verts et les fruits.Dans ce vaste programme de bouleversement des habitudes alimentaires, l'information va devoir jouer un rôle de premier plan.Ainsi, une équipe du Centre de recherche en nutrition de l'université Laval, dirigée par Mme Micheline Beaudry-Darisme, vient d'étudier les habitudes alimentaires des milieux défavorisés et aisés de la ville de Québec.Le Centre a constaté que l'obésité tenait plus à un manque de connaissances qu'au montant d'argent consacré à l'alimentation.Il n'en coûte pas plus cher de se nourrir bien ou mal.Par contre, la fréquence de l'obésité diminue à mesure que le niveau de scolarité augmente et que le niveau de connaissance en nutrition augmente.Enfin, dans tous les milieux socio-économiques, l'apport en calories est nettement inférieur au taux recommandé.Ce n'est donc pas tant l'excès de calories qui est la cause du mauvais état physique de la population que le manque général d'exercice.LA PHARMACIE DE L'APESANTEUR Il est très difficile de s'imaginer un monde où l'effet de la pesanteur a été annulé.Elle nous maintient sur terre et fait tomber les pommes juste au moment où Newton cherche comment expliquer le mouvement de la Lune autour du Soleil.Elle a aussi beaucoup d'autres effets moins évidents, la turbulence, par exemple.Lorsque l'eau s'échauffe, sa densité diminue et elle a tendance à s'élever par rapport à l'eau froide.Ce mélange permet une distribution uniforme de la température qui évite, entre autres, que les pommes de terre collent au fond.Par contre, dans certaines circonstances la gravité présente des inconvénients majeurs.Lorsque l'industrie pharmaceutique cherche à séparer et concentrer des vaccins avec une très grande pureté, la turbulence due à la gravité complique et ralentit considérablement les opérations.Ainsi, un processus industriel de purification des vaccins fait appel à l'électrophorèse.Dans cette méthode on place la solution dans un champ électrique, entre une électrode positive et une autre négative.Comme les molécules d'intérêt médical peuvent s'associer à des ions chargés positivement ou négativement, selon les propriétés de la solution, les molécules seront attirées respectivement vers la borne négative ou positive.Les gamma-globulines du sang, qui jouent un rôle important dans l'immunité du corps ont été découvertes par ce moyen.Par contre, la moindre petite différence de température permet à la gravité de mêler ce qu'on s'évertue à séparer.M.David Keller, prévoit donc que la navette spatiale et les futures centrales orbitales deviendront de véritables usines pharmaceutiques.À cause des conditions d'apesanteur réalisables dans l'espace, selon M.Keller, le traitement d'une tonne des dix vaccins les plus itulisés pourrait justifier à lui seul le coût d'un lancement de plusieurs millions de dollars.La validité de la technique a déjà été démontrée lors des vols Apollo et Skylab.De plus, le degré de concentration d'un médicament fait souvent la différence entre un bon et un mauvais vaccin.Et, qui sait, il sera peut-être possible de produire un vaccin efficace contre le rhume.VACCIN ANTI CARIE Selon la revue «Santé du monde», publiée par l'Organisation mondiale de la santé, un vaccin rudimentaire, impropre à l'usage de l'homme, s'est révélé très efficace comme moyen de réduire l'incidence des caries chez les singes utilisés comme sujets d'expérience.Des animaux non vaccinés sont infectés par des streptocoques cariogènes et alimentés suivant un régime riche en glucides fermentescibles; peu de temps après, la carie apparaft.Par ailleurs, soumis à un même régime, des singes vaccinés se voient protégés contre la carie dans une proportion impressionnante.À tel point qu'on est en droit de se demander si un effet similaire ne pourrait pas être obtenu chez l'homme.Mais les experts restent très prudents quant à ce vaccin actuellement en cours d'expérimentation au Royal College of Surgeons de Londres.Ils conviennent que tout additif utilisé contre la carie doit ' non seulement être hautement efficace, mais encore, doit nécessairement satisfaire à des normes rigoureuses de sécurité.Ces dernières années, de nombreux scientifiques ont été attirés par la possibilité de recourir à la vaccination comme moyen de prévention collective contre la carie.Comme il s'agit essentiellement d'une maladie infectieuse —bien que l'agent d'infection soit tributaire de certains substrats provenant de l'alimentation humaine— il peut paraftre plus logique d'attaquer l'agent responsable plutôt que les résidus alimentaires qu'il utilise.Mais la carie n'est pas mortelle, et pour qu'un vaccin puisse être recommandé comme moyen préventif, il faut que son innocuité soit prouvée hors de tout doute, conclut la revue «Santé du monde» dans son numéro de décembre dernier entièrement consacré à la santé dentaire. LA SCIENCE & LES HOMMES UN RENDEZ-VOUS MANQUÉ Le 24 mars 1971, le premier ministre Robert Bourassa créait le Comité des politiques scientifiques comprenant les ministres de l'Éducation, des Affaires sociales/ de l'Industrie et du Commerce, et de l'Environnement.Il leur confiait la tâche de définir une politique scientifique pour le Québec.Trois ans plus tard, la science québécoise ne connaft pas encore cet «ensemble de mesures» qui permettrait au gouvernement de lui assurer «sa pleine efficacité», selon les mots mêmes du document «Les principes de la politique scientifique du Québec», publié en 1971 par le gouvernement.Pendant ce temps, le gouvernement fédéral avance à pas de géants afin de se doter d'«un système complet de recherche scientifique», (voir QUÉBEC SCI ENCE, avril 1974).L'opération n'est pas encore terminée à Ottawa et les objectifs demeurent des souhaits vagues inspirés par la conjecture, le dernier étant bien entendu, l'énergie.Mais cela n'empêche pas l'importante activité du gouvernement fédéral dans ce domaine de laisser présager un impact de plus en plus capital dans un domaine qui touche plusieurs responsabilités provinciales.On n'a qu'à songer aux juridictions des provinces dans le domaine de l'éducation, de la culture, de l'industrie et des richesses naturelles.Or, l'absence de politique scientifique articulée, à Québec, place la province à la remorque des initiatives fédérales.Ainsi, M.François Cloutier, ministre de l'Éducation et membre du Comité des politiques scientifiques, demandait récemment au ministère d'Etat aux Sciences et à la Technologie d'Ottawa (MEST), de bien vouloir accepter la participation du Québec aux choix des priorités scientifiques fédérales.Sur la scène québécoise intérieure l'absence de politique scientifique engendre aussi plusieurs difficultés.Le Québec, même s'il est la seule province dotée d'un organigramme complet d'organismes voués à la politique scientifique, n'a pas d'objectifs pour autant.Cela tient peut-être au fait que presque tous les membres de ces organismes ont d'autres préoccupations beaucoup plus immédiates et accaparantes que celles de penser à organiser la recherche en science.La politique scientifique ne peut décoller.Elle demeure clouée au sol des préoccupations partielles des gens chargés de l'articuler.En fait, la seule personne à temps plein préoccupée de politique scientifique, et elle n'est pas bien placée pour s'abstraire du court terme, demeure M.Michel Slivitsky, secrétaire du Comité des politiques scientifiques.Ainsi, la recommandation adressée au Centre de recherche industrielle du Québec (CRIQ) d'accorder 150 000 dollars pour trois ans à la compagnie Gentec, de Québec, n'a pas réglé les problèmes de développement à long terme du laser TEA, l'invention québécoise la plus importante depuis la motoneige.En fait, au moment où le Conseil de la politique scientifique du Québec, dirigé par M.Lionel Boulet, directeur de l'Institut de recherche en électricité du Québec (IREQ), recommandait d'orienter les efforts vers la mise au point de lasers TEA à des fins industrielles, l'IREQ et l'Institut national de la recherche scientifique (INRS) achetaient des lasers TEA destinés à la recherche fondamentale sur la fusion thermonucléaire, d'une conception entièrement différente des TEA destinés à découper et perforer des matériaux.Le cas du laser TEA nous indiquera, dans quelques années, si les organismes de politique scientifique québécois ont raté ou non leur premier test.Le laser TEA n'est qu'un cas.Beaucoup d'autres décisions attendent.L'une d'entre elles touche le statut de IT N RS, présentement rattaché à l'Université du Québec.Avec l'Institut, on a séparé l'activité recherche de l'enseignement universitaire de premier cycle.Ceci inquiète grandement les autres constituantes de l'Université du Québec et les uni- versités «privées» qui ont peur de voir ITNRS accaparer la recherche universitaire.Un moyen envisagé par les universités a été de se doter elles aussi de centres de recherches universitaires.Mais le contribuable québécois est-il prêt à favoriser une autre ronde de dépenses universitaires?Il faut croire que non.Le gouvernement devra donc décider s'il ouvre ou non l'Institut national de la recherche scientifique à toutes les universités du Québec.Un débat qui trame depuis près de cinq ans.D'autres décisions à prendre touchent la structure interne du Complexe scientifique, près de Québec, où le gouvernement a rassemblé tous ses laboratoires.Certains ont suggéré d'en faire une centre de recherche intégré qui accepterait des contrats des ministères.Par contre, le Conseil de la politique scientifique a recommandé au gouvernement de renforcer le pouvoir d'un comité de coordination interne qui existe déjà.Enfin, les objectifs en éducation, énergie, santé, foresterie, communications et océanographie ne sont toujours pas définis.Selon les principes de politique scientifique adoptés par le gouvernement du Québec, politique et science égalent développement.Il ne faudrait pas que la vie scientifique devienne trop comme l'activité politique des gouvernements, où l'on est passé maftre dans l'art de sauter d'une crise à l'autre.• ORGANIGRAMME DE LA POLITIQUE SCIENTIFIQUE AU QUÉBEC.- Les traits pleins indiquent les liens hiérarchiques tandis que les lignes achurées soulignent les liens de consultation.conseil secrétariat Organisme de subvention à la recherche Organisme de recherche Comité des politiques scientifiques Conseil de la politiqu scientifique Ministères Conseil des ministres LA SCIENCE & LES HOMMES / 29 des électrons dans votre moteur Si les cheiks veulent bien patienter encore quelques années avant de fermer pour de bon leurs robinets, nos automobiles iront s'alimenter aux eaux vives de la Baie James.par Fabien Gruhier En 1890, à Londres, l'autobus assurant la liaison Charing Cross-Victoria était électrique.La firme Studebaker offrait, dans son catalogue de 1902, cinq modèles différents de véhicules qui, comme 90% du peu d'automobiles circulant à New York, s'alimentaient à cette énergie d'avenir.Le Berlin d'avant la première guerre mondiale possédait une flotte de 600 taxis dans le même cas.Thomas Edison, après avoir, avec sa lumière à incandescence, chassé le pétrole de l'éclairage, eut l'imprudence de prophétiser que la même chose surviendrait dans le transport: «On vendra beaucoup plus d'électricité pour les véhicules que pour les lampes», déclarait-il.Mais, à l'époque, le concurrent sérieux avait nom cheval; le taux d'accroissement du parc des véhicules hippomobiles, extrapolé de 1900 jusqu'à 1950, aurait conduit, pour peu que le Club de Rome ait existé, à une prédiction épouvantable du genre: «Au milieu du siècle, les grandes villes étoufferont sous le crottin».Si les contemporains d'Edison se réveillaient subitement pour lire les journaux, ils s'étonneraient sans doute d'apprendre que, de-ci de-là, en ces années 70, quelques rares firmes avant-gardistes expérimentent timidement la construction, en toutes petites séries, d'automobiles électriques.Il faudrait tranquillement leur expliquer que le monde occidental vient de se réveiller lui aussi, après un long sommeil provoqué par ce narcotique enchanteur: le pétrole à bon marché.Lequel pétrole nous a tout de même valu d'échapper à la catastrophe prévisible du crottin.LE PLOMB NE FAIT PAS LE POIDS Il nous a surtout donné le temps et les moyens de perfectionner luxueusement notre technologie.Celle-ci ne commence en effet qu'à peine à permettre d'envisager raisonnablement une relève électrique —très partielle— dans le domaine des transports: les accumulateurs au plomb de grand-papa, à l'heure où la préférence a été donnée aux hydrocarbures, ne faisaient réellement «pas le poids», à cause justement de leur prohibitive lourdeur.Le plomb n'étant pas plus léger aujourd'hui qu'en 1900, et les accumulateurs classiques n'ayant connu que des améliorations timides (à poids égal, l'essence contient 100 fois plus d'énergie), la revanche de l'électricité passe nécessairement par d'autres modes de stockage.Soyons justes cependant avec ce vieux plomb antidétonnant sans qui nos carburants auraient été explosifs, et cette batterie sans laquelle nos automobiles refuseraient de démarrer: de très nombreux véhicules électriques lui doivent l'existence depuis des dizaines d'années.Car ce sont bien des «automobiles» électriques, ces cha- riots, véhicules utilitaires divers qui circulent dans les ateliers, les usines, ou sur les quais des gares européennes.Et, depuis plus de vingt ans, des camions électriques à accumulateurs de plomb livrent leur lait matinal aux Anglais (50 000 véhicules en service).Il s'agit donc d'une technologie éprouvée; pourquoi nos automobiles ordinaires persistent-elles à s'abreuver exclusivement de pétrole?Il faut parler de «créneaux d'utilisation»: les contraintes présidant au choix d'un mode de transport peuvent être très particulières.Dans une enceinte limitée et close —cas d'une usine ou d'une gare— la pollution d'un moteur thermique devient intolérable.Mais les impératifs de vitesse ou d'autonomie restent très modestes.Voilà un «créneau» prédestiné au véhicule électrique, même équipé de batteries au plomb.Quant à la distribution du lait à Londres, elle est également soumise à des conditions bien spéciales: une loi interdit, en Grande-Bretagne comme dans de nombreux pays, qu'on laisse tourner le moteur d'un véhicule à l'arrêt.Comme en plus cette loi connaft —les Britanniques semblent en cela bien particuliers.— une application rigoureuse, elle suffît à imposer la compétitivité de la traction électrique: la fréquence des redémarrages du camion augmenterait singulièrement le coût de la pinte de lait si le moteur, constamment stoppé, fonctionnait à l'essence. 30/ ÉNERGIE E.D.F.¦r* A LA CITADI NE DE TEI LHOL - Autonomie 50 à 70 km.Vitesse 50 km/h.V LA RENAULT E.D.F.R5 - Autonomie 100 km.Vitesse 60 km/h.Tftffs toHBi DES VOITURES «PROPRES PROPRES PROPRES» C>Ceci termine à peu près la gamme des usages accessibles à la traction électrique classique, si l'on ajoute les terrains de golf, sillonnés depuis belle lurette par de petits véhicules à batteries.Il n'est de toute façon pas question, pour les électrons, de remplacer complètement, au pied levé, un pétrole de plus en plus cher et —les Arabes fussent-ils infiniment compréhensifs— appelé à se raréfier et à disparaftre.Donc les chercheurs s'emploient à mettre au point des méthodes de stockage de l'énergie électrique, non pas dans le but utopique de détrôner de but en blanc l'automobile traditionnelle, mais simplement pour élargir graduellement les créneaux accessibles aux voitures «propres propres propres» Avec l'espoir que l'électricité aura à peu près supplanté les autres, le jour encore bien lointain où tous les puits d'huile auront affiché: «sec!».D'ici là, beaucoup reste à faire.De nombreux centres de recherche se préoccupent de la question, depuis fort longtemps, mais avec un net regain d'intérêt depuis la crise du pétrole.L'Union internationale des producteurs et distributeurs d'énergie électrique (UNIPEDE) organisait aux Etats-Unis, en février dernier, un congrès spécifiquement consacré à l'automobile électrique.Sur le même thème, les «Journées d'études d'Arc et Senans» (France, février 1973) avaient déjà permis de faire le point.Le gros problème, bien entendu, se situe au niveau du «réservoir».Car, il faut le dire, le pétrole constitue réellement une source d'énergie idéale adaptée à l'automobile et, à moins de recourir à des hypothèses hautement fantaisistes, les batteries actuellement imaginables —y compris les plus futuristes— font piètre figure dans la comparaison.EMBOUTEILLAGES ET PRINCIPE DE CARNOT Sauf sur un point, qui n'est certes pas sans importance, celui du rendement énergétique global: pour parcourir 1 km, une automobile ordinaire brûle 80 grammes d'essence; pour conférer la charge correspondant au même parcours aux batteries d'un véhicule électrique, une centrale thermique ne consommera que 55 grammes de fuel.En polluant d'ailleurs beaucoup moins, compte tenu des dispositifs d'épuration dont sont dotées les usines modernes.Le nucléaire ne peut que renforcer cette tendance.Et chez nous, où l'électricité est hydraulique, l'avantage s'accroft démesurément: nos automobiles fonctionneraient tout simplement.à l'eau! Ajoutons qu'en ville, les embouteillages se conjuguent au «Principe de Carnot» pour limiter à un dérisoire 7 - 8% le rendement énergétique des moteurs à essence.Or, les batteries de toutes natu- ! l’îilleu 1 Wlt I içlffl j •:rh'C I I ü'IcfS I -scéic I » I H m il stîean I .; - -.t; I »,( I iQûpo I SiE i I :3!Ç0 H niint I îirv I Muta I aire» j :Jtii I .J Qui I .3 ai || -Mie I imoini I %! aile le tait m Mleni lhei ¦«tiini Mi %ou jileinj S Mo Mu i-Tlt* E.D.F. ÉNERGIE / 31 res —même au plomb— ont, de ce point de vue, une performance deux fois meilleure.C'est tout naturellement en circulation urbaine (exigences de vitesse et d'autonomie limitées, pollutions chimique et sonore chroniques) que le véhicule électrique trouvera ses premiers créneaux.Sans parler à nouveau des laitiers londoniens, il a déjà entrepris d'en gruger quelques-uns: une trentaine de véhicules construits par la firme Téhiol et l'Électricité de France (voir QUÉBEC SCIENCE de février 1974) servent, depuis le printemps de cette année, de taxis à Paris.Une expérience du même type est en cours à Amsterdam.Des autobus électriques Daimler-Benz circulent en Allemagne.La firme britannique Entfield a dépensé plus d'un million de dollars pour mettre en route, fin 1973, la fabrication en série (500 pour la première année) de son modèle «Entfield 8000».Mais il s'agit dans tous les cas d'automobiles alimentées par des accumulateurs au plomb, ou, ce qui revient à peu près au même, au nickel-cadmium ou au nickel-fer, dont les performances sont si mauvaises qu'on ne peut guère envisager l'insertion massive dans le trafic des véhicules de cette génération, quel que soit le succès des expériences.Les taxis Téhiol, par exemple, ne peuvent —outre le chauffeur, ce qui est vraiment la moindre des choses— transporter qu'un seul passager.Leur vitesse de croisière ne dépasse pas 50 km/h, et leur autonomie 75-100 km.La batterie représente à elle seule la moitié du poids total.Le pétrole devrait donc devenir vraiment très très rare pour que des véhicules de ce genre se taillent une place un peu significative sur le marché.LES RETOMBÉES LUNAIRES Fort heureusement, d'autres solutions sont en vue.Pour commencer par la plus lointaine, il y a les piles à combustibles.Alcool, hydrazine, hydrogène, hydrocarbures.on peut les concevoir pour une large gamme de carburants.Sur la base des prouesses spatiales de ces cellules, on en attendait monts et merveilles il y a quelques années.Dès 1969, la General Motors présentait son «Electrovan», prototype d'une camionnette mue par une pile à combustible qui fonctionnait à l'hydrogène et à l'oxygène, la seule formule pleinement maîtrisée.L'engin, pesant 3 200 kg, dont 1 770 pour le bloc piles-moteur, avait une vitesse de pointe de 110 km/h, et 240 km d'autonomie, ce qui était somme toute très bien.Mais ses réservoirs de gaz liquides (oxygène et surtout hydrogène) le rendaient plutôt dangereux, et d'une extraordinaire complexité technologique.Ne parlons pas du coût.Avec d'autres combustibles, le méthanol (alcool de bois) par exemple, si de tels problèmes de stockage ne se posent pas, on bute au niveau du catalyseur.Donc, ces «retombées lunaires» ont un peu déçu, tout au moins quant aux délais d'adaptation: les piles à combustibles devront refaire un long séjour au laboratoire avant de s'habituer à la circulation terrestre.Bien sûr, ces types de générateurs conservent des avantages théoriques immenses, notamment leur rendement trois ou quatre fois supérieur à celui de l'essence; contenant, à poids égal, dix fois moins d'énergie que cette dernière, ils en renferment néanmoins dix fois plus que les batteries au plomb.Nul ne doute que ces qualités séduisantes entreront dans la pratique automobile.Mais quand?Avant la fin du siècle suggèrent prudemment les spécialistes.La voiture électrique n'en est pas pour autant repoussée aux calendes grecques car, si les puits de pétrole devaient s'assécher avant l'an 2000, le relai pourrait être assuré par les piles au sodium-soufre.Nées chez Ford en 1966, elles sont depuis l'objet d'actives recherches un peu partout dans le monde.Stockant à poids égal six à huit fois plus d'énergie que le plomb, elles autoriseraient à des véhicules une autonomie estimée actuellement à environ 200 km, avec des vitesses de pointe de 100 - 200 km/h.Leur mise au point définitive demandera cependant une bonne dizaine d'années de recherches, tant sont particulières les difficultés posées par ce type de batterie: contrairement à l'usage, les électrodes sont liquides, et l'électrolyte, solide.Fonctionnant entre 250 et 400°C, la pile doit conserver en permanence une telle température.Quand l'automobile roule, donc que la batterie se décharge, ou bien en période de recharge, les réactions électrochimiques fournissent elles-mêmes la chaleur requise; le problème se pose pour un arrêt excédant 36 - 48 heures: on doit absolument maintenir alors la batterie en charge, ce qui interdit le stationnement prolongé —sous peine de détérioration irréversible (sans compter les amendes.)— en dehors d'un endroit spécialement conçu.LES DANGERS DU CHLORE L'Electricity Council britannique a fait rouler l'année dernière le premier prototype de véhicule mû par un accumulateur au sodium-soufre.Constituée de 960 éléments, avec une capacité de 50 kilowattheures, la batterie pesait à elle seule 900 kg.Le même laboratoire s'efforce maintenant d'améliorer ces performances qui en ont bien besoin.On espère obtenir la même puissance avec 250 kg et le sixième du volume initial.Avec des performances théoriquement un peu plus avantageuses encore que celles du sodium-soufre, le système lithium-chlore est étudié par la Commission américaine de l'énergie atomique; l'extrême légèreté du lithium est malheureusement compensée par son prix élevé, et surtout par les dangers du chlore.Comme la température de fonctionnement se situe aux alentours de 700°C, cette option ne figure pas parmi celles susceptibles de déboucher dans le domaine des véhicules.En réalité, en dehors des piles à combustible et des cellules sodium-soufre, un seul type de générateur électrique possède des chances sérieuses du côté automobile, et, contrairement aux deux autres, à court terme: le système zinc-air.Le zinc, métal bien connu des électrochimistes, qui entre dans la quasi-totalité des piles sur le marché depuis des dizaines d'années, est, dans les accumulateurs zinc-air, associé à une électrode à oxygène.En décharge, le métal d'oxyde, cédant à l'un des pôles les électrons que l'oxygène récupère à l'autre pôle.Un courant électrique est donc obtenu, et la batterie consomme à la fois du zinc —«brûlé en douceur» pour produire non de la chaleur mais directement de l'électricité— et de l'oxygène, tandis qu'elle fabrique de l'oxyde de zinc.Sur ce principe, une firme anglaise a d'ores et déjà commercialisé des piles, non rechargeables il est vrai, et non destinées à l'automobile.Mais les versions réversibles actuellement expérimentées surclassent, par un facteur 3 ou 4, les accumulateurs au plomb, quant à la quantité d'énergie stockée à poids égal.«LE PLEIN DE ZINCS.V.P.» Étudié en vue d'une application à l'automobile dans divers pays, notamment par Sony au Japon, et par la Compagnie générale électrique en France, ce système semble donner satisfaction au stade du laboratoire.La Compagnie générale électrique et Sony —mais les prototypes de cette dernière firme, avec leur réseau fragile et sophistiqué de soupapes d'admission semblent de nature à compliquer beaucoup plus la tâche des garagistes de demain— ont opté pour l'approche discontinue: après épuisement, au lieu de recharger en électricité, on vidange la solution d'oxyde de zinc et on la remplace par du zinc neuf, finement dispersé dans un électrolyte alcalin.50 kilogrammes de cette «bouillie» permettraient cinq heures de conduite.Avantages: il n'y a pas besoin de prévoir, dans le véhicule, de dispositifs électronique pour une recharge rendue de surcroît instantanée (il suffit de s'adresser à une «station-service» pour demander: «le plein de zinc!»).En outre, on élude le problème délicat et général de la durée de vie des accumulateurs, car tout accumulateur se détériore définitivement après un nombre plus ou moins grand de cycles charge/décharge.Et la régénération du zinc, groupée dans de grosses unités électrochimiques, s'avère plus rentable.Inconvénient: la généralisation des automobiles basées sur un tel principe impli- > 32/ ÉNERGIE CLASSEMENT DES VÉHICULES ÉLECTRIQUES ACTUELLEMENT DISPONIBLES EN FONCTION DES DIFFÉRENTS CRÉNEAUX D'UTILISATION TYPE USAGE CONSTRUCTEURS CHARGE PUISSANCE VITESSE TRANSPORTÉE NOMINALE km/h kg kW Mini-véhicule Loisirs, golf, handicapés.Divers 150 1 30 tondeuses, tricycles (États-Unis, Suède, France) Deux places Véhicule La voiture électronique.200 3-5 40/50 spécifiquement urbain Bertin, Téhiol (France) Urbanina (Italie) Entfield (Royaume-Uni) Service Petites interventions ou La voiture électronique, 200 5-10 50/80 livraisons, postes, taxis Bertin, Électricité de France, à Compagnie Générale d'Élec-tricité (France) 350 Morrison (Royaume-Uni) Domier (Allemagne) Daihatsu (Japon) Livraison Livraisons urbaines, mini- Volkswagen (Allemagne) 800 15-20 50 bus 10-12 places Sinpar (France) à Harbilth-Smith (Royaume-Uni) Mercedes, Messerschmidt (Allemagne) 1200 Utilitaire Véhicules lourds, bennes à Sovel-Semat (France) 2000 30-50 50 ordures, autobus urbain Man (Allemagne) à t Morrison (Royaume-Uni) Mitsubichi (Japon) 3000 >que le développement d'une lourde infrastructure.Ceci va à l'encontre de la «philosophie» généralement retenue, selon laquelle le véhicule électrique ne saurait s'insérer que graduellement, et au début fort timidement, dans la circulation actuelle.On peut en effet douter que les pompistes accepteront de se reconvertir en grand nombre de l'essence à la bouillie de zinc.La solution consisterait donc à intéresser des administrations (la poste par exemple) ou des compagnies de transport qui, utilisant des flottes importantes dans une même ville, pourraient s'offrir l'infrastructure requise.D'AUTRES CHATS À FOUETTER De toute façon, les recherches sur l'air-zinc se poursuivent activement.Si son fonctionnement en solution aqueuse et à température ambiante en fait, de toutes les super-piles connues, celle dont la technologie parait la plus aisément maîtrisable, sa légèreté ne l'empêche pas de pécher par excès de volume.On s'efforce d'aboutir à une réduction de la quantité d'électrolyte; s'il est possible d'augmenter à volonté la concentration de poudre de zinc dans la «bouillie» d'alimentation, le bât blesse au niveau de la solubilité de l'oxyde de zinc naissant: dès que la saturation est atteinte, l'oxyde se dépose sur les grains de zinc encore présents, interrompant le processus.Donc on doit accroître le plus possible le pouvoir dissolvant de l'électrolyte.MOTEUR Le principe de la pile AIR/ZINC ÉNERGIE / 33 E.D.F % » Ce n'est pas tout: même électrique, une automobile ne se réduit pas à une batterie.Certes, les difficultés les plus aiguës concernent le stockage de l'énergie, au point d'éclipser les autres organes du véhicule: moteur et commande.La technologie des moteurs électriques a d'ailleurs atteint depuis longtemps le stade «adulte».Les constructeurs de prototypes, réservant toute leur attention aux accumulateurs, n'ont que l'embarras du choix pour trouver sur le marché un moteur à peu près convenable.Ajoutons que la lourdeur considérable des batteries actuelles dispense de s'inquiéter du poids du moteur: celui-ci ne représente qu'une proportion assez négligeable du total, et il y a d'autres chats à fouetter.Il ne faudrait pas croire cependant que les chercheurs se contentent de mettre des piles sur roulettes; de plus en plus on s'astreint à concevoir des ensembles cohérents, c'est-à-dire qu'on s'inquiète de l'harmonisation des diverses parties, au lieu de rassembler des éléments plus ou moins hétéroclites: si les véhicules de la «génération plomb», qui roulent à 20 km/h s'accommodent de moteurs tout à fait conventionnels, il n'en va plus de même quand on cherche à atteindre des vitesses compatibles avec le trafic urbain normal à, disons, 65 km/h.Les impératifs de freinage, d'accélération en douceur, de réserve de puissance pour dépassement ou montée, etc.exigent alors l'intervention d'un appareillage électronique de contrôle assez sophistiqué, donc coûteux.Un sys- tème classique d'embrayage-bofte de vitesse offrirait également une solution, mais détruirait l'image déjà très répandue de simplicité d'emploi: pour triompher un jour de son «grand-frère» à essence, le véhicule électrique ne peut se permettre d'abandonner l'un de ses plus séduisants atouts.LE LIÈVRE ET LA TORTUE Le voltage d'utilisation prête également à réfléchir: élevé, il accroft la puissance du véhicule, mais réduit le rendement énergétique des batteries et pose des problèmes de sécurité.Les compromis retenus se situent entre 48 et 360 volts, selon le poids à déplacer (de 1 000 kg à 20 tonnes).Autre choix à faire: courant continu ou alternatif?Là encore, tout dépend du type de véhicule: les voitures légères fonctionneront en continu, tandis qu'on préférera sans doute l'alternatif pour les camions.On songe à réduire le poids, par une optimalisation dont le moteur électrique est certainement capable si l'on veut prendre la peine de le concevoir spécifiquement dans une optique automobile.Mais l'allègement risque de se faire aux dépens du rendement, conduisant à une consommation plus élevée, c'est-à-dire en fin de compte à une augmentation du poids de batterie embarqué, pour ne pas ébrécher une autonomie déjà fort limitée.Le gain à attendre de ce côté là paraft donc fort 34/ ÉNERGIE >que le coût de l'essence, celui de l'électricité, la motivation des citoyens par rapport aux questions d'environnement, le niveau de pollution, celui des limitations de vitesse, la découverte de nouvelles sources d'énergie, les lois et règlements et, bien entendu, les progrès enregistrés par les chercheurs, interviendront.A un moment donné, la pression deviendra suffisamment forte pour que s'écroule, dans les villes, le monopole du moteur thermique.Le véhicule électrique aura atteint sa «masse critique».Selon que cette révolution aura lieu en 1980, 1990 ou 2000, la solution retenue sera le zinc-air, le sodium-soufre ou la pile à combustible.Telle est du moins la prévision la plus raisonnable aujourd'hui.En attendant, au contraire de l'automobile à pétrole, qui, proche de son asymptote de perfection, n'espère plus aucune amélioration sensible au niveau de ses performances, la traction électrique, longtemps délaissée, se voit tout soudain assidûment courtisée par les chercheurs.Elle n'a pas dit son dernier mot et risque de progresser énormément.Comme dans la fable, on peut supposer que la tortue va finir par triompher du lièvre.• DES PREMIERS PAS TIMIDES Si, au cours de l'été ou l'hiver prochain par un froid québécois de moins vingt-cinq, vous voyez un homme en gris venir lire votre compteur d'électricité au volant d'un étrange petit véhicule, ne vous méprenez pas: cela ne signifiera pas que l'Hydro-Québec aura pactisé avec des hommes gris de quelque planète étrange.L'entreprise d'État aura tout simplement décidé d'expérimenter l'un ou l'autre modèle de camionnette électrique.Oui, l'Hydro-Québec prévoit l'implantation certaine, quoique graduelle, des véhicules mus par électricité.Selon M.Jacques Beaudet, de la section des transports à l'électricité au sein de la direction de la mise en marché, trois études sont en cours, qui permettront de mieux situer l'action de l'Hydro-Québec dans cette implantation.Voilà pourquoi elle consulte 600 usagers de parcs de véhicules de dimensions assez importantes dans la plupart des villes du Québec, choisis exclusivement parmi ceux qui utilisent des voitures pesant moins de 3 000 kilos (environ 6 000 livres), parcourant moins de 160 km ( 100 milles) par jour et effectuant de fréquents arrêts.Soixante-cinq pour-cent des firmes consultées ont déjà répondu, dont —et ce n'est pas la moindre, de dire M.Beaudet—: Bell Canada.C'est dire le grand intérêt que suscite la question en cette pénible période de crise pétrolière.D'autant plus d'ailleurs que l'exploitation d'un parc de voitures électriques reviendrait à un tiers du coût actuel.En même temps, l'Hydro-Québec est sur le point de se porter acquéreur de deux camionnettes électriques et d'entreprendre des essais d'une durée d'un an pour les lectures de compteurs.Le tout soumis à l'expertise constante de chercheurs de l'IREQ, sous la direction de M.Louis Masson.Au cours de cette période, ils auront entre autres à résoudre les problèmes liés à l'alimentation et à la propriété des batteries.Une troisième étude, concurrente à la première, vise à répertorier les types de véhicules sur le marché.À noter que tous les modèles disponibles utilisent des piles acide-plomb et sont fabriqués par les firmes américaines Otis et Patronic, les géants de l'automobile n'ayant à peu près pas fait d'efforts pour «se convertir».Au Canada, le seul manufacturier de véhicules électriques est la compagnie Marathon Golf Car.Comme son nom l'indique, cette firme montréalaise ne s'est intéressée jusqu'à présent qu'aux véhicules de golf.Mais il semblerait qu'elle travaille actuellement à mettre au point un prototype de véhicule à plate-forme.Quant à l'éventualité que l'Hydro-Québec s'intéresse à ce point aux voitures électriques qu'elle songe à pousser la recherche, les chances sont bien minces.L'Hydro ne veut pas se transformer en hydre, se substituer à l'initiative privée ou assumer des responsabilités qui incombent à l'État.En tant que fournisseur d'électricité, elle ne cherche pour l'instant qu'à développer un nouveau marché.Bien sûr, s'il surgissait un nouveau «Bombardier électrique» et que le gouvernement décidait de verser les fonds de recherche requis, les électrochimistes experts de l'IREQ ne se feraient pas tirer longtemps l'oreille pour se mettre à la tâche.En attendant, si vous voyez un homme en gris conduire un curieux petit véhicule de même couleur, rassurez-vous: pour une fois, l'Hydro s'intéresse bien plus au véhicule qu'à votre compteur d'électricité! • 35 ÉNERGIE METTRE L'ELECTRICITE EN BOITE L'énergie électrique n'est pas stockable.Elle doit être utilisée aussitôt que produite.Cette particularité devient un handicap de taille lorsque 90 pour cent des centrales d'un réseau électrique sont hydrauliques, comme c'est le cas au Québec.En effet, l'allure de la demande connaît des pointes et des creux importants au gré des saisons, des jours et des heures.Or, tout comme les centrales nucléaires, les installations hydroélectriques ne possèdent pas la souplesse nécessaire pour suivre l'irrégularité de la demande.On ne peut tout de même pas arrêter les rivières de 23h à 5h parce que les gens consomment moins d'électricité la nuit! Pour garder à celles-ci un débit raisonnable on doit pratiquer le délestage.Il représente une perte de 5 à 10 pour cent de la puissance de l'Hydro-Québec.Cette moyenne élevée est la rançon du tout à l'hydraulique.La situation empire d'année en année puisque l'écart entre les maximum et minimum de la demande annuelle va en augmentant.Par exemple, alors que la puissance installée de l'Hydro-Québec dépasse 11 100 mégawatts, la compagnie a dû répondre à une pointe de 10 600 MW pendant l'hiver 1973, mais la demande instantanée est tombée à 7 800 MW au cours du mois de juillet.La société pourrait bien songer à modifier l'allure de la demande, mais ce serait pour elle s'engager sur les difficiles chemins de la psychologie sociale.Les experts de la planification s'avouent d'ailleurs impuissants à expliquer les raisons de ce décalage croissant.Tout au plus invoquent-ils la popularité croissante du camping et l'allongement des vacances.L'été, en fin de semaine et pendant la nuit, l'Hydro-Québec se retrouve donc avec une grande capacité de production superflue.Une première solution consiste à vendre les surplus.Déjà un accord a été conclu avec des compagnies d'électricité américaines pour la vente d'un bloc de 800 MW à la ville de New York pendant l'été, à partir de 1977.Une autre approche vise à emmagasiner les surplus en prévision des périodes de forte demande.Elle est éminemment réalisable puisque 30 pour cent de la puissance installée ne fournit présentement que 5 pour cent de l'énergie.Toute la question est de stocker des milliards de watts.Des piles électriques de cette taille n'existent pas.L'astuce est d'emmagasiner de l'énergie sous une forme facilement convertible en énergie électrique.Il y a quelques semaines, les chercheurs de l'Institut de recherche de l'Hydro-Québec (IREQ) ont donc invité leurs confrères ingénieurs de la planifica- 10 ooo .9 000 8 000 7 000 I.MM 6 000 juin juillet août septembre octobre novembre décembre janvier février mars DES HAUTS ET DES BAS— Ce graphique illustre les variations saisonnières de la demande pour l'électricité de l'Hydro-Québec.Il a été dessiné à partir de la courbe de l'année 1972.A tion pour passer en revue les moyens de mettre l'électricité en boîtes.Jusqu'ici, l'Hydro-Québec a réglé le problème avec plus de la même chose.On a suréquipé les centrales hydroélectriques en les dotant de turbines qui ne servent que quelques heures par jour, quelques jour par semaine, ou quelques mois par année.Mais à mesure que l'on construit les installations loin des centres de consommation, cette approche devient très onéreuse.Dans le cas de la baie James, par exemple, il faudrait ajouter aux 5,8 milliards de dollars du projet quelques centaines de millions supplémentaires pour des lignes de transmission partiellement utilisées.Voilà pourquoi le plus important complexe hydroélectrique du Québec ne produira que de la puissance de base.Mais l'eau n'est pas éliminée pour autant comme énergie de pointe.Les hydrauli-ciens ont conçu d'immenses «piles à l'eau» capables d'emmagasiner des watts par milliards, les centrales à réserve pompée.Dans les centrales hydroélectriques classiques une fois que l'eau a coulé en bas du réservoir supérieur pour faire tourner les turbines, elle poursuit sa route dans la rivière et est perdue.Avec la centrale à réserve pompée on conserve l'eau qui a turbiné dans un réservoir inférieur.Puis on la refoule dans le réservoir supérieur en alimentant les turbines réversibles avec les surplus de puissance des périodes creuses.Ceci permet de construire de gigantesques piles électriques «à l'eau» dont le potentiel se calcule en milliers de mégawatts.Ce sont les plus puissantes piles électriques que l'on connaisse.La pile à l'eau exigeant deux réservoirs, un inférieur et un supérieur, on préférera les sites où le rapport entre la distance horizontale entre les réservoirs et la hauteur de chute est le plus faible.En pratique, il faut une hauteur de chute de 240 à 300 mètres.Il y a deux ans, la société d'État a cru tenir le site idéal dans la belle vallée en U de la rivière Jacques-Cartier, près de Québec.L'Hydro avait manifesté sa volonté d'y construire une centrale de pointe de 1 000 mégawatts.Le potentiel hydroélectrique de la rivière dépassait même 25 000 MW selon les études de la société.Mais les groupes de protection de l'environnement réussirent à convaincre le gouvernement de fermer les portes de la Jacques-Cartier à l'Hydro-Québec parce qu'une partie du projet Champigny aurait été située dans un parc naturel.L'énergie peut aussi être calorifique.Toute forme d'énergie se dégrade d'ailleurs ultimement en chaleur.Si on l'emmagasine à température élevée, par contre, elle demeure une forme d'énergie utile.Les sources de chaleur sont nombreuses: l'électricité des délestages et des creux de la demande, la pollution thermique des industries, le soleil, le vent (voir Chauffer avec le vent dans cette chronique), la chaleur d'explosions nucléaires souterraines, les gaz chauds rejetés par les moteurs à combustion interne et les hydrocarbures inutilisés des raffineries.Le problème se trouve encore une fois du côté de la pile.t> 36/ ÉNERGIE C>Quel matériau peut le mieux capter, conserver et retransmettre l'énergie thermique?Il semble être particulièrement abondant et peu coûteux, c'est l'eau, avec une capacité calorifique de 655 Wh (watts-heures) par mètre cube.La ferraille suit avec 625 Wh, l'aluminium avec 413, le béton avec 402, le roc avec 381 et la brique avec 296.Ainsi, pour stocker les 12 000 MWh (mégawatts-heures) du projet Champigny il faudrait un réservoir d'eau chaude d'un kilomètre carré par plus de 20 mètres de profondeur! La très faible efficacité de cette méthode, efficacité d'autant plus faible que la température de la pile thermique est peu élevée, entraîne des coûts prohibitifs et restreint considérablement l'utilisation des piles thermiques à grande échelle.Par ailleurs, le pétrole est le liquide industriel le plus riche en énergie que l'on connaisse.Chaque kilogramme d'essence automobile contient 9 kWh (kilowatts-heures) d'énergie et un grand réservoir de raffinerie contient 50 fois l'énergie qu'aurait pu emmagasiner le projet Champigny.Pourquoi alors ne pas stocker de l'énergie en fabriquant de l'essence.A N REQ, on y a pensé.La matière première ne manque pas et aucun pays ne seja dispute, ce sont les déchets des villes.À elle seule, Montréal en produit 1,8 millions de tonnes par année, de quoi faire autant de barils d'un fuel à basse teneur en soufre.A Montréal et à Québec on produit déjà de l'énergie à partir des déchets en les brûlant dans des incinérateurs, mais cette énergie ne peut être stockée et doit être utilisée immédiatement.En choisissant plutôt de chauffer les déchets organiques dans des enceintes sous pression, on peut les transformer par pyrolyse en gaz ou en fuel liquide.De cette façon, le fuel extrait des déchets de la métropole suffirait à alimenter une centrale de 140 MW (mégawatts), soit une usine thermique quatre fois moins puissante que celle de Tracy, près de Montréal, Malgré tout, les villes de Baltimore et de San Diego pyro-lisent déjà en fuel synthétique respectivement 1 000 et 200 tonnes de déchets par jour.Étant donné que le traitement en usine des déchets urbains sera de plus en plus largement répandu, il deviendra probablement rentable de stocker l'énergie contenue dans les déchets.Piles à l'eau, pile thermique et pile à déchets, tout cela semble bien difficile à construire.Le bon vieil accumulateur au plomb serait-il dépassé?Il l'est depuis plusieurs années.En fait, il trône comme une véritable antiquité au siècle des ordinateurs et des centrales nucléaires.Sa capacité énergétique, limitée à 20 Wh par kilogramme fait grimper le coût de son kilowatt-heure à 50 dollars, soixante-dix fois le coût de l'énergie pétrolière.Pourtant, le principe de la pile chimique est bien simple.Toutes les réactions chimiques entraînent l'échange d'électrons entre une substance qui a tendance à en donner et une autre qui préfère en recevoir.Dans une pile, on oblige tout simplement cet échange à se faire par l'entremise d'un fil conducteur.C'est ainsi que l'on crée le courant électrique.Pour augmenter le contenu énergétique des piles, on n'a qu'à favoriser les échanges entre les éléments les plus affamés d'électrons avec les plus généreux.Par contre, ces éléments sont très réactifs et corrosifs.Lorsque l'on pense avec quelle CHAUFFER AVEC LE VENT Dans les régions éloignées de l'Arctique l'acheminement des barils de fuel pour le chauffage des quartiers habités pose de graves problèmes de logistique.Quelques professeurs du département de Génie mécanique de l'Université de Sherbrooke, dirigés par M.Baruir Ashikian, ont pensé réchauffer les explorateurs du Nord grâce à une énergie locale disponible en grande quantité, le vent.L'originalité de leur approche consiste à vouloir transformer l'énergie éolienne mécanique directement en énergie calorifique.Pour effectuer cette transformation, ils ont d'abord étudié les turbines à vent.Mais les rigoureuses conditions arctiques font geler les meilleurs moulins à vent connus.Pour éviter le dilemne posé par les turbines classiques, on a alors cherché, et trouvé, un moulin à vent sans pièces mobiles: le tube de Venturi.En effet, la vitesse de l'air augmente lorsqu'on l'oblige à passer par un col étroit, et se traduit automatiquement en une diminution locale de la pression.C'est ainsi qu'à Sherbrooke, on a songé à utiliser cette succion pour faire osciller ou circuler l'eau d'une citerne dont un côté est soumis à la pression atmosphérique.Il ne restera plus qu'à transformer les mouvements du liquide en chaleur par friction.Les calculs indiquent que le tube de Venturi, ou déprimogène, devrait convertir 15 pour cent de l'énergie du vent en chaleur.Une turbine à hélice en retire quatre fois plus, mais la simplicité du déprimogène justifie la continuation des recherches sur ces «tuyaux d'orgue» chauffants.• fréquence les simples piles au plomb perdent leur électrolyte on comprend que les problèmes technologiques des nouvelles piles n'aient pas encore été résolus.Tout de même, une compagnie américaine envisage de produire dès 1985 une superpile lithium-soufre d'une capacité de 400 kWh par mètre cube.Le coût initial du kW reviendrait à 7,80 dollars, d'où un coût de 23 mils (millième de cent) par kWh.Ceci se compare favorablement aux 27 mils par kWh des turbines à gaz.En pratique un volume de 485 mètres cubes de piles lithium-soufre équivaudrait à une petite centrale de pointe de 100 MWh.Ne produisant aucune pollution, sonore ou gazeuse, ces petites centrales s'intégreraient au coeur même des villes.De plus, l'investissement pourrait s'effectuer au fur et à mesure des besoins grâce à la nature modulaire du système.OUfiiû jlosse Wïli IbimI taé Àctpi Mai ;itairs! iai lias la Il est une autre pile qui fait beaucoup parler d'elle, la pile à combustible, où les réactifs sont de l'hydrogène et de l'oxygène, et le produit de l'eau.Il y a trois ans, l'Hydro-Québec pensait même pouvoir compter sur cette technologie mise au point lors du programme spatial Apollo.Mais le rendement des piles PC-11 de Pratt and Whitney, expérimentées à Québec, n'a pas dépassé 40 pour cent alors que les piles mises au point pour la NASA atteignaient 70 pour cent de rendement.Néanmoins, la propreté, le fonctionnement silencieux et la grande efficacité théorique des piles à combustible continuent de fasciner les chercheurs.Selon des compagnies américaines, un système tout à l'hydrogène, avec usine de production, système de liquéfaction du gaz et piles à combustible pourrait débiter 20 000 MWh d'électricité à partir de 608 tonnes d'hydrogène.Pour produire 16 tonnes d'hydrogène par jour, il faudrait une usine de 24 modules d'électrolyse (séparation de l'eau en oxygène et hydrogène à l'aide de l'électricité) consommant 100 MW d'électricité pendant 8 heures par jour.Sous forme gazeuse l'hydrogène occuperait un volume considérable.Une fois liquéfié, par contre, le gaz pourrait être entreposé dans un réservoir de seulement 8 mètres cubes.Enfin, la centrale à J l'hydrogène comprendrait 50 modules de 20 MW.Le prix d'une telle centrale de pointe de 1 000 MW reviendrait à 170 millions de dollars, dont 150 millions pour les piles.Le rendement se situe à 40 pour cent, si l'on saute l'étape de la liquéfaction, et descend à 30 pour cent avec liquéfaction.Le projet Champigny fournissait 1 000 MW pour 250 millions de dollars.Cette approche pourrait donc devenir acceptable.De plus, elle s'inscrit dans le courant qui laisse présager une société où des pipelines d'hydrogène remplaceront les lignes de transmission élec- iliflüt IMS EfllS jîei ««fis, îapti ï»î *(0l «M supe^ kdia: %.nûCtîÇf tyOCfin tel «toi ïn®ft Û3f Jfyy «oie ftfljy.% % «Ois Jo !|f)Ullr fcpoi %) ÉNERGIE / 37 ENGRANGER LES TEMPETES Lorsqu'on a affaire aux besoins énergétiques d'une communauté isolée, il ne s'agit plus seulement de stocker de l'énergie pour les pointes, mais aussi pour la demande de base.Le cas le plus célèbre de centre coupé de la grille de l'Hydro-Québec est sans aucun doute celui des I les-de-la-Madeleine.Présentement, l'Hydro y répond à une demande maximum de 14 mégawatts grâce à des génératrices diesel qui ont brûlé pour six mil-Ijons de dollars en fuel, l'année dernière.À ce problème particulièrement difficile il fallait une solution originale.Les chercheurs de l'I REQ l'ont trouvée.Ce sera des moulins à vent.Mais les éoliennes sont elles-mêmes aux prises avec un grave problème de pointes et de creux.Il ne fait pas tempête tous les jours.MM.C.Leigh et J.Royet de l'I REQ ont tout de même trouvé la réponse à cette objection.Ils proposent de stocker de l'air comprimé dans d'immen- trique comme mode le plus efficace pour transporter l'énergie.Enfin, à l'Institut national de la recherche scientifique on a entrepris l'étude des roues d'inertie pour stocker de l'énergie.En 1950, la Suisse possédait plusieurs autobus «Oerlikon» propulsés par l'énergie emmagasinée dans des volants (flywheels, en anglais).Aujourd'hui, de nouveaux matériaux composites faits de graphite et de résine permettent d'emmagasiner jusqu'à 410 Wh par kilogramme :de volant.Il devient alors possible d'envisager des centrales de pointe abritant des supervolants de 200 tonnes, de 4,5 mètres de diamètre et tournant à 3 500 tours/minute.Une seule de ces roues pourrait stocker 200 MWh.Il faudrait donc en synchroniser une soixantaine pour remplacer Champigny.Mais on n'a pas encore trouvé de méthode satisfaisante pour générer un courant stable de 60 cycles par seconde en dépit de la vitesse décroissante du volant.Supervolants, piles à l'hydrogène ou piles lithium-soufre, une de ces solutions sera-t-elle applicable lorsque l'Hydro-Québec aura besoin de 2 500 MW de pointe, dans trois ans?Il est fort probable que non.Il faudra probablement encore compter sur l'«hydroénergie», grâce à des centrales à réserve pompée.A moins que l'on soit obligé d'avoir recours aux seules centrales de pointe dont on n'a pas parlé pendant le colloque, mais qui demeurent les plus faciles à construire, les centrales thermiques au fuel ou les turbines à gaz.• ses cavernes souterraines, creusées dans les dômes de sel découverts sous les Iles.Selon une des configurations retenues, des moulins à vent de 100 kW dotés d'hélices de 27 mètres de diamètre actionnent des compresseurs.Ceux-ci alimentent des moteurs à air qui font tourner les génératrices électriques.En période calme, l'air provient des cavernes sphériques de 40 mètres de rayon cachées à 600 mètres sous terre.Les chercheurs de l'I REQ ont calculé qu'une telle caverne, remplie de 270 000 mètres cubes d'air à 100 atmosphères, contiendrait l'équivalent de 1 500 MWh.L'air comprimé ferait tourner plusieurs turbines à air d'une puissance de 40 kW.Ces moteurs possèdent une grande fiabilité malgré qu'ils soient très peu utilisés.Leur démarrage est presque instantané, ils ne chauffent pas, s'usent lentement et nécessitent peu d'entretien.«Si on pouvait mettre Éolienne Compresseur une caverne sous une voiture, ce serait le moteur idéal», commente M.Royet.Pourtant, malgré leur solidité, les turbines à air risquent de faire les frais de cette approche.Car même si l'air est stocké à une température supérieure au point de congélation de l'eau, une chute de seulement une dizaine d'atmosphères l'amène à plusieurs dizaines de degrés en dessous de 0°C.À cause de l'air marin humide des Iles, les palettes des moteurs à air seraient arrosées d'une perpétuelle chute de grêle.Il faudra donc extraire le plus possible d'humidité de l'air avant son admission dans la caverne.Puis, juste avant l'admission dans les moteurs, l'air devra être chauffé suffisamment pour que la chute de pression ne fasse pas baisser sa température en bas de 0°C.Une autre difficulté provient du creusage de la caverne, estimé à 500 000 dollars.La seule façon de rentabiliser ce projet serait de conjuguer le stockage d'air comprimé avec l'extraction commerciale du sel des dômes.Enfin, il faudrait que les fiers Madelinots acceptent de voir d'énormes moulins à vent briser la douce monotonie de leur paysage.• Système de stockage d'énergie pour les lles-de-la-Madeleine.L'injection d'eau dans la caverne d'air comprimé permettrait de maintenir une pression constante.Moteur à air Pompe Génératrice Dans l'état d'organisation croissante qui en résulte, l'individu risque de perdre certaines des libertés dont il jouit à l'heure actuelle, notamment la liberté de s'épanouir.L'État peut, mieux que quiconque, remédier à cette situation puisqu'il est l'instigateur (avec les grandes entreprises) de la plus grande partie des activités de collecte, d'évaluation et de transmission de l'information.A cet égard, au Canada, en plus du groupe d'études sur la téléinformatique, les ministères fédéraux des Communications et de la Justice ont déjà formé un comité d'experts.Ce comité a d'ailleurs publié certaines recommandations dans un rapport intitulé: «L'ordinateur et la vie privée».Mais l'ensemble du problème ne pourra être résolu que grâce à l'action conjuguée de spécialistes de l'informatique, d'administrateurs compétents, de mesures technologiques de pointe, d'une législation judicieuse et, souhaitons-le, de très nombreuses interventions de la part des citoyens.Des ordinateurs dispersés au service des gouvernements et des grandes entreprises, stockent des informations parcellaires.Réunis demain par la téléinformatique, ils risquent sinon de mettre l'individu en fiche, à tout le moins de ne pas rendre aux citoyens les services qu'ils devraient attendre et exiger de tout progrès, quel qu'il soit.Jusqu'à nouvel ordre, pareille révolution des communications semble beaucoup plus appelée à servir des intérêts mercantiles et administratifs que de permettre à l'ensemble des citoyens d'accéder à l'information instantanée.Si, demain, nos téléphones et nos téléviseurs peuvent nous relier à un ordinateur en plus de nous permettre de converser avec la voisine, tous les obstacles à la participation des citoyens à la gestion des affaires publiques comme à l'accès immédiat à la connaissance se trouveront brisés.Pour une fois, le contrôle de la société pourrait passer de l'élite à la masse.Après tout l'ordinateur, comme le téléphone, ne sera jamais qu'un instrument au service de l'homme.Reste à savoir s'en servir.POUR EN SAVOIR PLUS LONG OCDE, Études informatiques, no 3, Ordinateurs et télécommunications, 1973 PELCHAT, Jean-Paul, Introduction à la téléinformatique.Presses de l'université Laval, 1974 Rapport sur la téléinformatique au Canada, L'Arbre de vie, vol.1 et 2, Information Canada, 1972 TECHNOLOGIE 45 PROSPECTER DE LA- HAUT La recherche de dépôts de minerais et de nappes d'eau souterraines à partir de satellites, dont l'avantage principal est d'observer de grandes étendues de terrain en très peu de temps, est maintenant presqu'une question de routine pour les scientifiques du Jet Propulsion Laboratory de la NASA, en Californie.Grâce à des photographies multispectrales (série de photos ne comprenant qu'une couleur) du satellite ERTS (Earth Resources Technology Satellite) analysées par ordinateurs, les prospecteurs de la NASA sont parvenus à découvrir de précieux gisements de minéraux dans le Sud-Ouest américain.La technique utilisée est identique à celle qui avait été mise au point pour corriger les photos de la Lune et de Mars.D'abord, on en augmente le contraste (différence de teinte entre les plages brillantes et les plages sombres) puis on élimine les effets d'ombrages du terrain.Ainsi devenus prospecteurs, les spécialistes de la NASA ont détecté la présence d'importants affleurements de limonite (oxyde de fer) près de Goldfield, au Néva-da, et des indices trahissant la présence de grandes nappes d'eau souterraines au nord de l'Arizona.Les minéraux ne peuvent être repérés directement par ERTS-1.Ses caméras photographient uniquement les détails que les gisements veulent bien laisser voir en surface.Ce qu'il faut chercher, ce sont donc des indices secondaires tels que des traces de minéraux transportés par les eaux.Les oxydes de fer et les glaises revêtent une couleur orangée ou blanche aux yeux de ERTS.De plus, ils possèdent des caractéristiques spectrales qui deviennent de véritables signatures sur les images infrarouges du satellite.De même, la prospection des nappes d'eau repose sur les traces brunes ou indigo qu'elles laissent voir dans l'infrarouge.Les photos corrigées de ERTS ont révélé la présence de failles dont certaines n'avaient pas encore été observées.Ces failles pourraient être importantes pour localiser des sites de forage de puits.Ainsi, le satellite, qui laissait deviner la présence d'une nappe d'eau souterraine à environ 15 kilomètres au sud du Grand Canyon, a vu ses dires confirmés lorsqu'on y a trouvé de l'eau à seulement 10 mètres de profondeur.Ce puissant moyen de prospection, étendu à l'échelle de la planète, pourrait peut-être permettre de résoudre les problèmes d'approvisionnement en eau potable de régions désertiques.• vert i * UN VISAGE À TROIS FACES - ERTS photographie une seule couleur du visible à la fois ainsi que certaines bandes de l'infrarouge.Ici, la baie de Montery, à 150 km au sud de San Francisco, a été regardée dans le vert, le rouge et l'infrarouge.Le vert indique surtout la présence d'eau de surface, le rouge souligne la topographie, et l'infrarouge renseigne sur la végétation et l’hydrologie de la région.infrarouge 5$*."f' rouge ¦TSè -T SOUDER RAR EXPLOSIONS Une nouvelle technique permet de souder, sans distinction, aussi bien des métaux semblables que dissemblables.Lorsque bien maftrisée, la «soudure par explosion» effectue des soudures parfaites entre plusieurs combinaisons de métaux différents, même s'il est impossible de les souder avec les méthodes conventionnelles, la fusion par exemple.Au niveau de la structure même du métal, la soudure à l'explosif réalise un contact très intime et les deux plaques deviennent très étroitement liées.Pour obtenir cette liaison durable, une couche d'explosif est placée sur une ou sur les deux pièces à souder.Après détonation les plaques métalliques sont accélérées l'une vers l'autre et se fusionnent partiellement l'une dans l'autre.La liaison métal-métal s'établit lorsque le contact est suffisamment étroit pour que les liens atomes-atomes s'exercent entre les pièces.Le Dr Robert Hay, qui décrit la méthode dans la revue VIngénieur, explique que l'air, les impuretés de surface et les oxydes réfractaires forment souvent une couche qui empêche la liaison parfaite de plaques métalliques.Dans le soudage par fusion, cette couche est dissoute dans le métal fondu, ou bien charriée à la surface comme scorie.Par contre, dans le cas du soudage par explosif, il se produit un jet de matériel qui se charge précisément de débarrasser les surfaces qui viendront se joindre.Ainsi, lors du mouvement de la plaque volante vers la plaque fixe, l'onde de choc> 46/ TECHNOLOGIE nettoye les surfaces des dépôts qui pourraient entraver la liaison métallurgique.En pratique, on utilise l'explosif plastique sous forme de feuilles.La compagnie Canadian Safety Fuse a mis au point un tel explosif, dont la flexibilité présente beaucoup d'avantages pour cette nouvelle technique de soudure.L'avantage principal de la soudure explosive vient de son aptitude à réunir les métaux les plus diversifiés, les uns aux autres.Ainsi, les combinaisons de métaux différents, tels aluminium-acide, qui sont très difficiles à réaliser par méthodes conventionnelles, deviennent possibles par le soudage à l'explosif.Le désavantage de la technique tient au fait qu'on ne peut souder autre chose que des plaques.• I explosif plaque réceptrice ATTENTION, ON SOUDE - Pour lier des plaques métalliques les unes aux autres, on place un explosif en feuille sur la pièce volante.Le front de la détonation traverse rapidement la feuille d'explosif, accélérant la pièce vers le bas.Les dépôts de surface de la plaque réceptrice, aussi bien que ceux de la plaque volante, sont automatiquement'et brutalement balayés vers l'extérieur.LA PÊCHE AUX NODULES L'histoire de la prospection minière abonde de techniques extractives spécialement mises au point pour exploiter de nouveaux «gisements-problèmes».La découverte de nodules de manganèse, riches en cuivre et en nickel, au fond des océans constitue un de ces problèmes de taille.Une multitude de compagnies sondent présentement les mers à l'aide de caméras de télévision et ramassent des échantillons de cette manne minérale.Les nodules types contiennent de 27 à 30 pour-cent de manganèse, de 1,1 à 1,4 pour-cent de nickel, de 1,0 à 1,3 pour-cent de cuivre et de 0,2 à 0,4 pour-cent de cobalt.Dans les gisements du Pacifique on trouve en moyenne 10 kilogrammes de nodules au mètre carré.De l'avis des experts, le cuivre et le nickel seront les deux principaux métaux tirés des nodules, malgré que certaines compagnies envisagent aussi d'extraire le cobalt et le manganèse.Jusqu'ici, les procédés classiques ont échoué parce qu'en chauffant les nodules on ne réussit qu'à créer des alliages! On préfère donc des modes de séparation chimiques.Les nodules sont partiellement ou entièrement dissous et les métaux retirés en solution.Plusieurs essais ont porté sur la réduction par l'acide sulfurique.Les métallurgistes réduisent un minerai lorsqu'ils séparent le métal des éléments qui lui sont associés.Ils redonnent alors des électrons aux métaux, qui ont tendance à les prêter à d'autres éléments.Comme les charges électroniques possèdent des signes négatifs, on dit que le métal est réduit.L'opération inversé, lorsqu'un métal partage ses électrons avec un autre élément, s'appelle oxydation.Ainsi, l'acide sulfurique réduit rapidement le cuivre, le nickel et le cobalt en dissolvant les oxydes des nodules.Par contre, l'acide dissout aussi le manganèse, le fer et d'autres éléments résiduels indésirables.De plus, cette technique requiert de grandes quantités d'acide sulfurique à cause de la présence de matériaux basiques (qui neutralisent l'acide) dans les boulettes marines.La méthode n'aurait aucune perspective de rentabilité.Une autre technique de séparation repose sur l'utilisation d'ammoniaque, utilisé de pair avec un sel d'ammonium.On cuit d'abord les boulettes pour les réduire en présence de CO.Ensuite, le minerai est traité en solution à des températures et des pressions très élevées.Selon le Dr D.W.Fuerstenau, de l'Université de Californie, à Berkeley, ce procédé dissout jusqu'à 80 pour-cent du cuivre et du nickel et environ 50 pour-cent du cobalt, tout en laissant le manganèse et le fer intacts.Une troisième approche passe par la dissolution totale du nodule.On réduit ensuite le minerai en le cuisant dans du bioxyde de soufre.Il y a effectivement réduction POUR UNE BONNE CUEILLETTE - Pour extraire les nodules, la compagnie Deepsea Ventures favorise l'utilisation d'une technique de conception très simple.L'effet d'entrainement d'un courant ascendant, assuré par l'injection d'air sous pression, ferait remonter les nodules dans une longue tuyauterie déployée à cette fin.Cependant, l'installation des tuyaux à de grandes profondeurs, pose encore encore de sérieux problèmes pratiques.V injecté nodules ascendants nodules car les métaux gagnent quelques électrons en passant de l'état d'oxydes à l'état de sulfures.On a ensuite moins de difficultés à séparer les sels de soufre.Le grillage au bioxyde de soufre plaft particulièrement aux compagnies minières qui en produisent de grandes quantités comme sous-produit.Enfin, une compagnie appelée Deepsea Ventures réalise une dissolution complète par chauffage dans l'acide chlorhydrique.Tous les métaux, à l'exception du fer, sont alors transformés en chlorures solubles dans l'eau.Il ne reste qu'à séparer les sels de nickel, de cuivre et de cobalt en phase aqueuse.On obtient finalement des métaux purs après traitement dans des chambres électrolytiques.Le détour par les chlorures permettrait de récupérer 95 pour-cent des métaux.De plus, le recyclage des solutions minimiserait les problèmes de pollution.De même, pendant la cueillette, la perturbation des milieux marins est peu considérable car les champs de nodules sont de véritables déserts pour la vie aquatique.• REVUE DE PRESSE Les personnes qui se préoccupent de la politique scientifique au Canada ne représentent qu'un pourcentage infime de l'ensemble de la population.La même situation prévaut d'ailleurs dans les autres pays.Et, même, ceux qui s'en préoccupent risquent fort d'être mal informés ou déconcertés par les aspects négatifs du développement de cette politique.La vérité, c'est que l'écrasante majorité des Canadiens ne sont ni impliqués ni concernés par la politique scientifique.Leurs préoccupations immédiates se situent d'abord et avant tout au niveau économique et, en second lieu (mais loin derrière), à celui des politiques sociales.Après tout, dans le passé, la politique scientifique n'a fait gagner aucun vote.(Chemistry in Canada, févr.1974) «Toutes les études faites à travers le monde démontrent que les gens aiment travailler et qu'ils ne sauraient quoi faire de leur vie s'ils ne travaillaient pas.Plus les gens sont instruits, moins ils sont satisfaits de leur travail.Il faudrait peut-être envisager de fermer les écoles.Les industries, grandes ou petites, augmentent sans cesse leurs exigences d'emploi: pour elles, ces exigences deviennent de se sécuriser.» Ce n'est pas un humoriste professionnel ni un amuseur public qui parle ainsi.C'est un professeur très sérieux de la Graduate School of Business, à l'Université de Columbia (New York), auteur de plusieurs livres sur le problème du travail, Leonard Sayles.(Le Jour, 25-3-74) Le Dr Peter Goldmark, père du microsillon, a décidé de s'attaquer au mal des grandes cités, surpeuplées, polluées, affamées d'énergie.«Le remède est à notre disposition.Il n'y a même pas besoin d'inventer de nouveaux matériels.Il suffit de savoir tirer parti de ceux qui existent déjà sur le marché.» Il propose d'installer des centres de communications communaux utilisant de façon systématique tous les moyens de transmission de données à distance existants.De tels centres régleraient, entre autres, la crise de l'énergie: 54% de l'essence consommée actuellement aux États-Unis est consacrée aux aller et retour des banlieusards.Ils permettraient également de choisir d'habiter la cité ou la campagne, les possibilités de travail, de loisir, d'éducation, de soins médicaux y seraient pratiquement les mêmes.(L'Express, 11-3-74) En tant qu'hôte des Jeux olympiques et, par conséquent, du monde entier, le Canada se doit de recevoir ces importantes assises internationales que constitue le Congrès international des sciences du sport.C'est maintenant devenu une coutume pour la ville hôtesse des Jeux d'ac- cueillir ce congrès scientifique qui a pris une ampleur particulièrement significative en 1972, à Munich, où quelque 2 000 scientifiques de toutes natures s'étaient donné rendez-vous.Le Dr Fernand Landry, directeur du département d'Éduca-tion physique de l'université Laval, à qui on a confié la mission de vendre la responsabilité de ces assises à la ville de Montréal, pour 1976, éprouve toujours certaines difficultés, après trois ans de travail en ce sens.«On aura l'air fou vis-à-vis le monde si on ne reçoit pas cette session internationale», soutient-il.(Le Soleil, 20-3-74) La principale source de pollution de l'air sur le territoire de la Communauté urbaine de Montréal semble être la gigantesque carrière de la compagnie Miron, le long du boulevard Métropolitain, entre la rue Papineau et le boulevard Saint-Michel.Cette moyenne géométrique annuelle est supérieure au maximum prescrit par les normes de la CUM, soit 250 microgrammes.La CUM a intenté des poursuites contre Miron en 1971 pour avoir émis trop de poussières.Le jugement n'a pas encore été rendu.À cause du «sub judice», il est impossible de donner plus de détails.Quoi qu'il en soit, l'amende maximale prévue pour une «première offense» est de 500 dollars.(Le Devoir, 25-3-74) Le Dr André Desmarais, du ministère d'État, Sciences et Technologie, a déclaré lors d'un colloque sur les universités canadiennes et la culture, que le rôle futur des universités doit être évalué en termes financiers.«Au cours des années, le gouvernement fédéral a joué un rôle sans cesse croissant dans le financement de la recherche universitaire, a-t-il dit.Désormais, a-t-il poursuivi, la compression économique et la concurrence des autres organismes ralentiront le taux de croissance des subventions aux universités.Les gouvernements voient les coûts grimper sans cesse et sont de plus en plus intéressés à savoir où va leur argent, a conclu le Dr Desmarais.» (The Ottawa Journal, 11-2-74) C'est avec un sous-marin à «batterie» que la compagnie Artie Canadian Continental Shelf Exploration Services Ltd se propose d'effectuer les premières recherches pétrolières sous-marines.Le sous-marin, d'une valeur d'environ un million de dollars, sera aussi silencieux que possible afin de permettre un meilleur retour des signaux acoustiques.(The Globe and Mail, 8-2-74) L'armoire à provisions du monde est presque vide.Les réserves de céréales connues suffiraient à peine à tenir deux mois.Jamais elles n'ont été si basses.Avec un aussi maigre rempart contre la famine, une mauvaise récolte généralisée cet été activerait encore la montée des prix alimentaires dans le monde.De l'avis de bon nombre d'observateurs, cela pourrait mener à la panique générale.(Le Soleil, 19-3-74) La crise de l'énergie, ou plus précisément, la crise pétrolière, a provoqué une accélération des commandes de centrales nucléaires.Ces dernières consomment de l'uranium.Ne risque-t-il pas d'y avoir pénurie de ce métal?Plusieurs études bien documentées montrent que cette crainte, si elle n'est pas totalement dénuée de fondement, ne résiste pas à un examen attentif.Il n'en reste pas moins que les prix actuellement très bas de l'uranium devraient augmenter considérablement avant la fin de la décennie.En prévision, la prospection s'amplifie partout dans le monde.(Le Monde, 27-2-74) Le Québec est encore sous-développé en terme de recherche, selon M.Jean-Marc Lalancette, vice-recteur à la recherche de l'Université de Sherbrooke.Malgré le fait que le Québec compte 28 pour-cent de la population, il ne reçoit du fédéral que 10 pour-cent des argents destinés aux recherches et ce, depuis 15 ans.De plus, à l'intérieur même des frontières du Québec, la francophonie est loin d'être avantagée.Ainsi, des 50 millions de dollars attribués au Québec, 18 sont dirigés à l'université McGill.(La Tribune, 19-3-74) La décision que devra prendre la Grande-Bretagne d'utiliser ou non la filière nucléaire canadienne CANDU aura de très fortes implications au Canada.Pour le moment, il n'existe que deux alternatives en matière de réacteurs nucléaires sur le marché international: CANDU et la filière américaine produite par Westinghouse et General Electric.Mais la situation dans laquelle se trouve le système canadien ressemble fort à celle de David par rapport à Goliath.(The Gazette, 30-1-74) La Jacques-Cartier n'est pas sauvée des eaux.En effet, tout à tour convoitée par l'Hydro-Québec qui projetait d'y installer un barrage et une station hydroélectrique et par le ministère du Tourisme qui doit y construire des aménagements récréatifs, la désormais célèbre rivière se retrouve maintenant sur les planches à dessin de la Communauté urbaine de Québec.Ce sont les besoins en eau de consommation cette fois qui en sont la cause.(Le Soleil, 29-3-74) , OUVERTURE: SEPTEMBRE 1974 L'École de technologie supérieure de l'Université du Québec ouvre à Montréal en septembre 1974.La nouvelle École offre deux programmes en MÉCANIQUE et en ÉLECTRICITÉ conduisant à l'obtention d'un baccalauréat en technologie.Pourquoi une École de technologie supérieure La nouvelle École de technologie supérieure a pour mission spécifique d'assurer la formation d'un nouveau type de spécialistes susceptibles de contribuer grandement à la croissance économique du Québec, spécialistes que l'industrie recrute en dehors du Québec.Les diplômés de cette École seront fortement recherchés par les diverses entreprises oeuvrant dans le secteur de la production industrielle et dans les divers domaines des communications, du transport, de l'énergie, etc.Ils seront particulièrement bien préparés à assumer des fonctions-clé dans les diverses opérations industrielles.À qui s'adresse le nouvelle École Les programmes de la nouvelle École s'adressent principalement aux diplômés du CEGEP professionnel.Ils s'adressent également à tous les techniciens déjà engagés sur le marché du travail et possédant une formation appropriée.Le baccalauréat en technologie Les programmes de baccalauréat en technologie s'étendent sur quatre sessions de 15 semaines, soit deux années universitaires complètes, entre lesquelles sont intercalés des stages dans l'industrie et un projet industriel.Le baccalauréat en technologie comporte un total de 72 crédits, dont 60 crédits de cours (sciences humaines, administratives, fondamentales et spécialisation) et 12 crédits pour les stages et le projet industriel.Conditions d'admission Les candidats désireux d'obtenir leur admission à l'un ou l’autre des programmes offerts, doivent être munis d'un diplôme d'études collégiales (DEC) ou d'un diplôme jugé équivalent, en particulier dans l'un ou l'autre des programmes suivants: O en ÉLECTRICITÉ (243) O en MÉCANIQUE (211, 241,245, 248, 270, 280) Les candidats retenus devront passer une entrevue au mois de juin avec un comité de sélection qui décidera de leur admission.Tout autre candidat possédant connaissances et expérience pertinentes, pourra être admis sur recommandation expresse du comité de sélection.Demandes d'admission Tous les candidats intéressés à l'un ou l'autre des programmes de l'Ecole de technologie supérieure peuvent obtenir un formulaire de demande d'admission en s'adressant à: École de technologie supérieure Université du Québec a/s Secrétaire général 1255, Carré Philippe Montréal H3B 3G1, P.Q.Tél.: (514) 876-3555 Date limite pour demandes d'admission Le 1er juin 1974.Université du Québec Ecole de technologie supérieure Veuillez me faire parvenir des renseignements supplémentaires ainsi qu'un formulaire de demande d'admission à l'École de technologie supérieure.Nom:_______________________________________ Adresse:___________________________________ Téléphone:_________________________________ (Découper et poster à l'adresse ci-haut mentionnée) ETSQS 49 POUR EN LIRE PLUS LA DERNIERE EXPLORATION, VOYAGE DANS UN MONDE QUI SE MEURT Ia nFRIMiÈRE î A nFRIMiÈRE EXPLORATION VOYAGE I DANS UN MONDE OUI SE MEURT vr\ par Alain Bombard, Éditions la Presse, 1974, 199 pages, $4.95 En vente dans les librairies Malgré toute la ferveur qu'il y met et les titres aboyants dont les éditeurs ont coiffé les chapitres, le manifeste contre la pollution du Dr Alain Bombard est un livre raté.Si vous avez la patience de vous rendre jusqu'au bout, vous trouverez que c'est mal écrit, que les explications laissent à désirer et que la litanie des désastres accumulés a bien plus le don de fatiguer que de convaincre.L'OURS NOIR par Fernand Hébert, Les Éditions du Jour, 174 pages, $3 En vente dans les librairies et kiosques à journaux L'ours semble devenir un gibier de plus en plus populaire auprès des chasseurs.Est-ce à cause de la pénurie de certaines autres espèces ou de la prolongation de la saison de chasse (1er mai au 31 juillet) pour cet animal?L'Ursus Americanus de nos forêts, qu'il ne faut pas confondre avec l'ours gris, brun, blanc et polaire, vient de se mériter chez nous un honneur exceptionnel: être le sujet d'un gros ouvrage, peut-être trop gros, où il est question d'à peu près tout, évolution, mœurs, habitat, accouplement, oursons, ennemis, techniques de chasse, etc.M.Hébert a trouvé moyen d'accumuler une somme d'informations qu'il livre au lecteur un peu en vrac.Il aurait peut-être suffi d'une méthode de travail différente pour classer davantage la matière et éviter ainsi des répétitions, des redondances et quelquefois des contradictions.Au chapitre 7, il traite du comportement de la femelle durant l'hivernement et revient sur le même sujet au 24e.Les opinions de l'auteur sur la monogamie de M.Noirot Ursidé portent à confusion.Une des grandes déceptions de l'ouvrage tient au fait que ce scientifique semble avoir préféré colliger les articles de journaux plutôt que de se livrer à un authentique travail de vulgarisation.Il y a même des erreurs.Par exemple, on accuse le monoxyde de carbone (CO) d'être «non recyclable, définitivement polluant, inerte et de s'accumuler à la surface du sol».L'auteur oublie de dire que ce poison violent disparaft rapidement de l'atmosphère.Des chercheurs de l'université Queen's, en Ontario, ont découvert que les plantes s'en nourrissent et les microbiologistes soupçonnent les bactéries du sol d'en faire autant.L'homme qui a traversé l'Atlantique à bord d'un simple canot pneumatique, sans aucune vivre, demeure un individu extrêmement attachant.Par contre, il faut craindre que ce livre mal fait nuise plus à la cause qu'il défend qu'il ne l'aide.Ce livre est une sorte d'incarnation littéraire de la pollution dénoncée par l'auteur.Il n'en demeure pas moins que ce premier ouvrage d'une nouvelle collection sur les espèces animales comble un vide pour le lecteur francophone.Celui qui s'intéresse à l'ours sera ravi de la variété des faits étalés.L'animal devient plus sympathique encore, individualiste, humoriste et toujours plein de ressources pour mener une vie agréable et se défendre de son pire ennemi, l'homme.Quelques détails intéressants, par exemple, l'ours n'est pas bon pêcheur de poisson, contrairement à ce que prétend la croyance populaire; les matières végétales comptent pour 77% de son menu, il est donc surtout végétarien omnivore; il fait preuve d'un jugement (!) étonnant quand il trace ses sentiers: il sait contourner les obstacles, éviter les montées abruptes ou les virages brusques; plus que d'autres animaux, il possède la prémonition du danger; la mère-ourse élève ses petits en leur distribuant régulièrement des taloches quand ils désobéissent; la famille se comprend grâce à un langage varié: le père hurle, grogne, tousse, grince des dents, rugit quand il est en colère; sa femme toussote, sait geindre de douleur presque comme l'être humain; et les enfants soupirent dès l'instant de la naissance, pleurnichent et cherchent à attirer l'attention des parents.Marcel A.Gagnon INTRODUCTION À LA TÉLÉINFORMATIQUE par Jean-Paul Pelchat, Les Presses de l'université Laval, 289 pages (notes de cours), 1974, $4.95 En vente aux Presses de l'université Laval, Cité universitaire, Québec 10 La téléinformatique, si elle s'avère très simple à l'usage, n'en demeure pas moins un casse-tête incessant pour les concepteurs de systèmes.Ces derniers, ainsi que ceux qui veulent réellement «goûter» la téléinformatique dans toute sa complexité, trouveront dans Y Introduction à la téléinformatique du professeur Pejchat la réponse à toutes leurs questions.À condition évidemment qu'ils se donnent la peine de décoder les explications techniques et d'en suivre le cheminement mathématique.Cet ouvrage, conçu spécifiquement comme notes d'accompagnement d'un cours, n'en demeure pas moins un document quasi complet en lui-même, et celui qui possède déjà les notions informatiques de base pourra aisément le comprendre.Il y trouvera la description technique des principaux systèmes (terminaux interactifs, terminaux à entrée par lots, multiplexeurs, ordinateurs de communication), de l'équipement de liaison (services téléphoniques, systèmes micro-ondes, câbles coaxiaux, modems), de la programmation des systèmes et des réseaux d'ordinateurs (besoins, topologie des réseaux et description de quelques réseaux existants).Il n'est pas nécessaire, bien sûr, de connaf-tre tout cela pour utiliser la téléinformatique (comme il suffit de savoir composer un numéro de téléphone pour utiliser cet instrument merveilleux, sans pour cela se douter même de la complexité technologique requise pour son fonctionnement efficace et sans faille).Mais tout homme intelligent a besoin de comprendre le comment des choses.Tant mieux pour ceux qui se rendront jusque là.Sans doute aussi, le professeur Pelchat sera-t-il heureux de répondre aux questions. décom 50 ECHEC & /144THS par Claude Boucher PROBLÈME NUMÉRO 32 DES GRENOUILLES SAUTEUSES Sur 13 disques disposés en cercle on place 12 grenouilles, numérotées de 1 à 12 suivant le sens des aiguilles d'une montre, laissant inoccupé le disque placé entre la grenouille numéro 12 et la grenouille numéro 1.Les grenouilles peuvent, soit se déplacer sur un disque vide adjacent, ou sauter par dessus la grenouille voisine pour aboutir au disque vide à côté de celle-ci, un peu comme on le fait au jeu de dame.On demande de déplacer les grenouilles une à la fois de manière à ce que, à la fin, le disque vide soit placé au même endroit qu'au début.La grenouille numéro 1 doit se rendre là où était la grenouille numéro 12, la grenouille numéro 2 là où était la grenouille numéro 11, et ainsi de suite, pour donner un déplacement général dans le sens opposé des aiguilles d'une montre.SOLUTION DU PROBLÈME NUMÉRO 31 On représente les maris par les lettres A, B, C, D, et E et leur épouse respective par les lettres a, b, c, d, et e.Les traversées se dérouleront comme suit: abc passent et c revient; cde passent et de reviennent; ASC passent et Ce reviennent; CDE passent et b revient; ôcc/ passent et d revient; et enfin, de passent.Ce n'est pas la seule solution possible, mais aucune autre exige moins de traversées de la rivière.• CONTRE LA PÉNURIE Aussitôt distribué, QUÉBEC SCIENCE disparait des kiosques.Prenez une assurance contre la pénurie: abonnez-vous à QUÉBÈC SCIENCE.?ABONNEMENT ?RÉABONNEMENT NOM ADRESSE CODE POSTAL VILLE ?Chèque ?Mandat-poste TARIFS 1 an / 10 nos: RÉGULIER: $5.00, ÉTUDIANT: $3.50.insérer dans une enveloppe et adresser à: LE MAGAZINE QUÉBEC SCIENCE Case postale 250 Sillery, Québec GIT 2R1 A NOTRE PROCHAIN SOMMAIRE ^^Enrichissement de l'uranium:,'les immenses ressources hydro-électriques du Québec serviront-elles à raffiner une partie du combustible nucléaire de la France ou du Japon?Em attendant une décision à ce sujet, voyons les grandes lignes de ces procédés dont les détails constituent des secrets militaires jalousement gardés."^Ethnographie: comment vivaient les premiers habitants de notre territoire, il y a plusieurs milliers d'années ?L'ethnogr; phie, science qui décrit les peuples, commence à s'imposer ic et nous livre ses premiers résultats.rLe papier pollue: l'industrie des pâtes et papiers, pilier de l'économie québécoise, vient en tête du palmarès de la poilu tion industrielle.Supersatellite de télécommunications: les pionniers de l'étude de l'ionosphère par satellites préparent les satellites de télécommunications de demain, dans les laboratoires du ministère des Communications, à Ottawa. |«||L ENCYCLOPÆDIA UNIVERSALIS On ne peut tout savoir Deux cents ans après Diderot, paraît UNIVERSALIS qui offre à l'homme du vingtième siècle la somme des découvertes et des progrès de la connaissance dans tous les domaines sous la forme de 20 volumes, contenant 10 000 articles rédigés par 3 000 spécialistes internationaux.Le médecin, l'ingénieur, le chercheur, le professeur, l'étudiant, l'homme d'affaires découvrent au fil des 23 000 pages de UNIVERSALIS les domaines de leur spécialité ou ceux dans lesquels ils entendent se documenter et se cultiver.Au Canada, des personnalités des arts, des lettres et des sciences, comme André Vachon, Maurice Labbé, Michel Brunet, Maurice Olliver, Louis-Edmond Hamelin, André Desautels et Michel Bélanger apportent leur culture et leur expérience à la réalisation de la partie canadienne de UNIVERSALIS et collaborent à d'autres articles.Ce concours prestigieux fait de UNIVERSALIS un véritable ouvrage de la francophonie.La Centrale des bibliothèques du ministère de l'Éducation recommande UNIVERSALIS en ces termes: O valeur et importance de l'ouvrage : EXCELLENT, INDISPENSABLE O niveau auquel il convient : POUR TOUS.Chaque article débute par une prise de vue qui rassemble les données et les principales questions, ainsi que les solutions et les conséquences du sujet abordé dans l'article.Lorsque le sujet est susceptible d'interprétations diverses, voire contradictoires, UN I VE RSALIS présente chaque argument pour que le lecteur puisse se faire sa propre opinion.Chaque article est suivi d'une bibliographie en français et en langues étrangères rassemblant les ouvrages fondamentaux sur le sujet traité.De plus, une abondante iconographie (photos, diagrammes, schémas, planches) illustre intelligemment les articles.Enfin, une liste de corrélats renvoie à d'autres articles qui complètent le sujet traité.Ainsi, par exemple: ÉCOLOGIE: comprend 7 divisions majeures, 29 subdivisions.— Principales orientations.Organisme et milieu.Relations interspécifiques.Reconnaissance et caractérisation d'une biocénose.Fonctionnement d'un écosystème.Applications pratiques (lutte contre la pollution, protection de la nature).Perspectives.— Bibliographie citant 20 ouvrages essentiels.PROFITEZ DE CETTE OFFRE UNIQUE (SANS ENGAGEMENT DE VOTRE PART): POSTEZ LA CARTE RÉPONSE CI-JOINTE POUR OBTENIR UNE BROCHURE DESCRIPTIVE ET DES RENSEIGNEMENTS SUR CET OUVRAGE QUI COMPREND 20 VOLUMES, PLUS DE 23 000 PAGES, PLUS DE 30 MILLIONS DE MOTS.Il est possible pour vous, lecteur du magazine QUÉBEC SCIENCE, de bénéficier d'arrangements spéciaux, parmi lesquels une réduction de prix qui n'est pas offerte au public.ENCYCLOPAEDIA UNIVERSALIS DU CANADA LTÉE 4480, boulevard Côte-de-Liesse Montréal 306, tél.:(514)342-2511 ||:l lit k-A " « -) r^ r' * I § ; d
Ce document ne peut être affiché par le visualiseur. Vous devez le télécharger pour le voir.
Document disponible pour consultation sur les postes informatiques sécurisés dans les édifices de BAnQ. À la Grande Bibliothèque, présentez-vous dans l'espace de la Bibliothèque nationale, au niveau 1.