Québec science, 1 janvier 1979, Mai
Ç< -69 THREE MILE ISLAND yv.£ r S - ifS&ErCHER 183 Volume 17, numéros MAI 1979 Des moteurs à bois m i ¦ •„ ¦ Albert Qcauard Ces deux personalités scientifiques françaises participeront au colloque CRITERE sur la déprofessionalisation Albert Jacquard Il se tourne tardivement vers une carrière scientifique et se penche plus spécialement vers la génétique.Après avoir enseigné dans différentes universités (Paris, Genève, Montréal), il est maintenant chef du service de génétique à l'INED (Institut national d'études démographiques).Albert Jacquard joue un rôle actif au MURS (Mouvement universel pour la responsabilité scientifique) dont une section canadienne vient de voir le jour.Il est l'auteur de plusieurs ouvrages sur la génétique des populations et son plus récent livre Éloge de la différence.Seuil—1978, connaît encore un important retentissement.1 tlPi  Edgar Morin Né en 1921, il s'est, depuis la guerre, toujours signalé par un engagement militant: résistance, politique, dissidence.Maintenant attaché de recherche au CNRS (Centre national de la recherche scientifique), Edgar Morin dirige ses activités dans le sens d’une sociologie du présent et d'une anthropologie fondamentale articulées sur le biologique.Il a publié de nombreux ouvrages dont les plus récents sont: Journal de Californie.Seuil—1970: Le paradigme perdu: la nature humaine.Seuil—1973: L'homme et la mort.Seuil (réédition coll.Points)—1976; La Méthode, tome 1, Seuil—1977; La Méthode, tome 2 et 3, en préparation.Tous les ouvrages de ces auteurs sont disponibles chez Diffusion DIMEDIA ainsi que chez votre libraire.Diffusion DIMEDIA, 539 boul.Lebeau, Saint-Laurent, Québec — H4N 1S2 QUÉBEC SCIENCE / mai 1979 Le magazine Québec Science, mensuel à but non lucratif, est publié par Les Presses de l'Université du Québec avec le soutien du ministère de l'Éducation du Québec et du Conseil de recherches en sciences naturelles et en génie Canada.La direction laisse aux auteurs l'entière responsabilité de leurs textes.Les titres, sous-titres, textes de présentation et rubriques sont dus à la rédaction.ISSN-0021-6127.Dépôt légal.Bibliothèque nationale du Québec, deuxième trimestre 1979.Répertorié dans PÉRIODEX et RADAR.Courrier de deuxième classe, enregistrement no 1052.Port de retour garanti LE MAGAZINE QUÉBEC SCIENCE, C.P.250, Sillery, Québec GIT 2R1.c Copyright 1979 — le magazine Québec Science — Université du Québec.Tous droits réservés pour tous pays.Sauf pour les citations dans une critique, il est interdit, sans la permission écrite de l'éditeur, le magazine Québec Science, de reproduire ou d'utiliser ce mensuel, ou une partie de ce mensuel, sous quelque forme que ce soit, par des moyens mécaniques, électroniques ou autres, connus présentement ou qui seraient inventés à l'avenir, y compris la xérographie, la photocopie et l'enregistrement, de même que les systèmes d'informatique.COMITÉ DE SOUTIEN Bell Canada M.Claude St-Onge vice-président Banque de Montréal Jean Savard vice-président — Division du Québec Imasco Limitée Les produits Imperial Tobacco Limitée Institut de recherche de l'Hydro-Québec M.Lionel Boulet directeur La Sauvegarde Cie d'assurance sur la vie J M Clément Gauthier I président Sommaire Jean-Marc Gagnon directeur Jean-Pierre Rogel rédacteur en chef Diane Dontigny adjointe à la rédaction Jean-Pierre Langlois directeur de la production Raymond Robitaille composition typographique Andrée-Lise Langlois maquettiste Patricia Larouche administration et secrétariat Marie Prince promotion et publicité Nicole Bédard Claire D'Anjou diffusion Distribution postale Paul A.Joncas Photogravure et impression L'Éclaireur Itée Distribution en kiosques Les Messageries Dynamiques Abonnements (1 an / 12 numéros) Régulier: SI 7.00 Groupe (10 et plus): $1 5.00 À l'étranger: $21.00 A l'unité: SI .75 Port de retour garanti Le magazine QUÉBEC SCIENCE Case postale 250 Sillery, Québec GIT 2R1 Tél.: (418) 657-2426 Télex: 051 3488 TWX: 610-571-5667 Les chèques ou mandats postaux doivent être établis à l'ordre du MAGAZINE QUÉBEC SCIENCE 4 Courrier 7 Environnement Les pieds dans l’eau du Richelieu 8 Énergie Chauffer le corps, pas l'espace 9 Généalogie Les papiers de grand-papa 13 Autochtones Un groupe qui rêve de disparaître 14 Énergie nucléaire Un rapport boomerang 47 Astronomie M87 a le coeur troué 49 Patrimoine Des armes anti-faussaires 50 Économie Un modèle pour les fluctuations 52 Ces chers ancêtres 53 Parutions récentes 56 En vrac 16 Des moteurs à bois André De!isle Le doux espoir des transports: le méthanol 21 Le syndrome de Three Mile Island Jean-Pierre Rogel Malgré leurs deux tonnes de rapports de sécurité, les experts nucléaires ont été pris au dépourvu.Et une simple bulle, qu'on n'a jamais su prévoir ni contrôler, nous a amenés à deux doigts de la catastrophe 30 Les chercheurs en kaki Luc Chartrand Discrète et efficace, l'armée canadienne cherche et innove.Les effectifs sont flous, les budgets fuyants, mais les armes sont modernes 38 La terre déménage Claude Faubert Attachez vos ceintures, des physiciens vous amènent coloniser l'espace.42 Orchestrer le trafic aérien Claude de Launière Les aiguilleurs du ciel sont des candidats rêvés aux ulcères et au divorce.Une solution: automatiser leur travail de plus en plus 4 mai 1979 / QUÉBEC SCIENCE DOCTORAT EN SCIENCES DE L'EAU PROGRAMME: A partir de 1979, l'INRS-Eau offre un programme d'études avancées donnant lieu à un doctorat en sciences de l'eau.Ce programme multidisciplinaire vise à former des spécialistes dans le domaine de l'eau capables de répondre aux besoins socio-économiques qui se manifestent dans ce secteur.Il permet à l'étudiant d'élargir ses connaissances dans ce domaine tout en lui permettant de se spécialiser dans un des champs d'études qui y sont reliés.CONDITIONS D'ADMISSION: Les candidats devront détenir une maîtrise en sciences de l'eau, une maîtrise en sciences fondamentales, une maîtrise en sciences appliquées ou l'équivalent.STRUCTURE DU PROGRAMME: Dans le cadre de ce programme chaque étudiant est tenu de rédiger une thèse qui doit témoigner, de la part de l'auteur, d'une aptitude à mener à bien une recherche scientifique originale.Les sujets de recherche sont choisis dans le cadre des programmes du Centre INRS-Eau, à savoir: I — Hydrologie déterministe et statistique.Il — Utilisation de la ressource eau en milieu urbain.Ill — Effets de l'utilisation et de l'aménagement des ressources naturelles sur la dynamique des processus chimiques et biologiques du milieu aquatique.IV — Méthodologies d'aménagement et de gestion de la ressource eau.De plus le programme comporte des cours avancés ainsi que des travaux dirigés dont les sujets sont reliés à des activités de recherche en sciences de l'eau du Centre, mais non reliés directement au sujet de la thèse.SOUTIEN FINANCIER: Selon la politique d'aide financière aux étudiants en vigueur à l'INRS, les étudiants admis au programme peuvent bénéficier d'un support financier.RESSOURCES DU CENTRE: Le personnel scientifique et technique du Centre est composé d'environ cinquante personnes dont quatorze professeurs-chercheurs.Depuis septembre 1971, l'INRS-Eau est installé dans le Complexe Scientifique de Sainte-Foy où sont aménagés ses propres locaux de recherche, d'enseignement et d'administration.Le Centre dispose, en outre, d'une bibliothèque spécialisée, des services d'informatique de l'Université du Québec, de ses propres laboratoires et peut avoir accès aux diverses ressources du Complexe Scientifique.INSCRIPTION: Pour obtenir les formulaires d'inscription et tout renseignement supplémentaire, s'adresser à: Secrétariat général Institut national de la recherche scientifique Case Postale 7500 Ste-Foy, Québec G1V 4C7 Tél.: (418) 657-2508 Université du Québec Institut national de la recherche scientifique 1969-1979 Le ieseau de l'Université du.Québec: dix ans de réalisations COURRIER.LE QUÉBEC EN AVANCE SUR L'ANGLETERRE C'est avec un vif intérêt que j'ai lu dans votre publication de mars 1 979 un article sur les transports intitulé «Le train qui penche».Dans cet article, vous dites «ce concept n’est, après tout, pas nouveau, mais il sera mis en pratiquepourlapremièrefois sur les trains de passagers, désignés en Angleterre sous le vocable APT, d'ici quelques années».J'aimerais cependant attirer votre attention sur le fait que le Québec est en avance sur l'Angleterre dans ce domaine car Bombardier a développé, conjointement avec Alcan et Dofasco, un train de ligne semblable appelé LRC dont les lettres désignent les trois caractéristiques principales du train: légèreté, rapidité et confort, et qui possède lui aussi un système d'inclinaison intégré aux voitures.Le système d'inclinaison du LRC neutralise les forces centrifuges et assure le confort des voyageurs dans les courbes, même à des vitesses de 35 à40pourcent supérieures à celles des trains ordinaires.Ce train dont le prototype expérimental a été construit il y a dix ans, est déjà en fabrication aux usines de Bombardier, suite à des commandes de Via Rail et d'Amtrak, et il sera mis en service aux États-Unis, à la fin de la présente année, et au Canada, au début de 1980.Raymond Royer Président-directeur générai LA LUMIÈRE INDÉPENDANTE Je viens de lire votre article dans l'édition de février 1979 sur l'association Espace-Temps qui m'a fait réfléchir sur la théorie de la relativité.Vous faites état dans cet article d'une expérience théorique sur un train.Cet exemple ne prouve pas à mon avis que le temps varie avec la vitesse, et je crois que vous oubliez un élément important.Si on reprend l'exemple du train, supposons que l'un des wagons contienne une piscine.Nous savons par expérience que si on lance un caillou platà lasurface de l'eau, il fera plusieurs bonds et les ondes qu'il produira seront indépendantes de la vitesse du caillou au même titre que la lumière.Si notre train circule à 100 km/h et qu'on laisse tomber un caillou au centre de la piscine, l'onde atteindra les deux bouts de la piscine en même temps.Nous pouvons aussi conclure que les observateurs du train et de la gare verront les choses s'exécuter dans le même temps, étant donné que l'onde subit le mouvement de la piscine. SCHC[ QUÉBEC SCIENCE / mai 1979 mes en PI, d'in et wire ecesten taîine onioinlî- dont les jctéfisti-été, tapi-iansslun du LUC et assoie Il en va donc de même pour la lumière qui, à l'intérieur du train, subit le mouvement de l'espace ambiant.Donc, les deux observateurs verront les portes de chaque extrémité s'ouvrir en même temps.Il faudrait donc, selon moi, ajouter un troisième postulat selon lequel la vitesse de la lumière est dépendante de la vitesse du milieu dans lequel elle évolue.Par contre, supposons que l'on place l'observateur derrière le train, et que le wagon de queue émet un signal lumineux a toutes les secondes pendant trois secondes, et que le train s'éloigne à une vitesse près de celle de la lumière, l'observateur du train calculera trois secondes tandis que celui de la gare devra calculer environ cinq secondes pour les trois signaux.Mais cela ne veut pas dire que les montres marchent plus vite ou moins vite sur le train ou à la gare.Ce n'est que la lumière qui prend plus de temps à se rendre à la gare à mesure que le train s'éloigne.Je vous serais reconnaissant de me donner votre avis sur ce sujet, et de me dire quels sont les ouvrages vulgarisés sur ce sujet.rtinaiw éfiirf !3 Ha» 0 nite au lean* [Ê si# oEspatf' jciei'e1* if»» ^;! JVISH»®1' jCfOlS^1 Marcel Gagné Val-Bélair Nous ne pouvons malheureusement répondre de façon détaillée à vos arguments.Toutefois, il y a un point important qui semble avoir été oublié: la vitesse de la lumière reste indépendante du mouvement de la source.De là viennent toutes les «bizarreries» que nous dévoile la relativité restreinte.Pour le cas décrit dans l'article, cette constatation implique que la vitesse du rayon lumineux mesurée dans le train sera identique à celle mesurée sur le quai de la gare.A partir de ce fait, on peut facilement comprendre «géométriquement» que le temps s'écoule plus lentement dans le train que sur le quai de la gare.U existe une multitude de bouquins sur le sujet.Un livre excellent parmi d'autres est celui de Taylor et Wheeler, À la découverte de l'espace-temps, publié par la maison d'édition Dunod.Un autre livre qui ne peut manquer aussi de vous intéresser, c'est celui d'Albert Einstein, La relativité, publié dans la Petite bibliothèque Payot.aulr y8 #«' y leur IL Y A ENTENDRE ET ENTENDRE Dans ces quelques lignes, je désire vous exposer ma position et celle de plusieurs audiologistes québécois sur «l’implantation cochléaire», cette découverte que les journaux qualifient de «miracle moderne» pour nos sourds.Depuis quelques mois, les journaux québécois et français abondent en entrefilets ou articles qui raniment l'espoir de plusieurs sourds.Québec Science titre ainsi un article sur la question «Le silence traqué» (mars 1 979).Le Devo/r parle d'un «Nouvel appareil pour les sourds» (septembre 1978).La Presse attire notre attention sur «La mise au point d'une oreille bionique» (janvier 1979).L'Express de septembre dernier intitule sa chronique médicale «Et les sourds entendront».Le Point du mois d'octobre dernier publie un long document sur «L'homme qui fait entendre les sourds».Et enfin les éditions Robert Laffont viennent de publier (1978) un livre écrit par Claude Henri Chouard et intitulé «Entendre sans oreille».Les auteurs de ces articles s'émerveillent de la mise au point d'une récente technique médicale, celle d'implanter des électrodes au niveau du nerf auditif.L'originalité de cette approche chirurgicale est d'outre-passer le mauvais fonctionnement de l'oreille interne pour stimuler directement et électriquement le nerf auditif et ainsi les sourds.entendront.Entendront-ils vraiment?Qu'est-ce qu'ils entendront?Voilà les questions fondamentales que nous, audiologistes québécois, nous nous posons.Entendre, ce n'est pas uniquement détecter la présence ou l'absence d'un bruit.Ce n'est pas uniquement détecter la tonalité aiguë ou grave d'un message sonore.Entendre, c'est bien plus.C'est l'activité hautement complexe du cerveau humain, doté des centres capables d'analyser et d'interpréter un code électrique, hautement organisé et très spécial.Il s'agit du code électrique produit par les cellules réceptrices de l'oreille interne et correspondant au message sonore qui arrive à l'oreille.Le cerveau humain est ainsi fait qu’il ne peut digérer ou interpréter n'importe quel langage électrique.Il ne peut interpréter que le code électrique qui correspond aux structures biologiques qui le constituent.Or, dans les cas d'implantation d'électrodes au niveau du nerf auditif, c'est un nouveau code électrique qui est acheminé vers le cerveau.Les centres auditifs du cerveau reçoivent donc dans ces cas un code artificiel genre «code morse» qu'ils ne sont pas préparés biologiquement à digérer pour en extraire un message «signifiant», c'est-à-dire plein de sens.C'est ce qui faisait dire récemment aux chercheurs américains du Ear Research Institute de Los Angeles: «Les patients qui ont bénéficié de l'implantation cochléaire ne récupèrentqu'unetrès faible capacité de discrimination auditive.Ils se rendent compte maintenant si quelqu'un leur parle mais demeurent incapables de comprendre ce qui est dit.La plupart sont capables de différencier la voix d'un homme de celle d'une femme mais ils comparent eux-mêmes la parole reçue à un étrange bruit de radio très mal syntonisé.» (Extrait d'un article intitulé Cochlear Implants Help for Profoundly Deaf et publié dans Audecibel, automne 1978, par le Ear Research Institute, 256 South Lake Street, Los Angeles, California 90057).La prudence des Américains sur les bénéfices réels de l'implantation des électrodes au niveau de l'oreille interne tranche donc sérieusement avec l'enthousiasme débordant des Français.Je comprends facilement que les Français parlent de «miracle» mais je préfère le réalisme des Américains qui posent la question en des termes bien concrets.Les sourds entendront mais qu'entendront-ils vraiment?Ce qu'ils entendront améliorera-t-il leur habileté à communiquer avec autrui?La réponse n'est pas pour aujourd'hui.Soyons à l'écoute de l'avenir et appliquons un certain discernement scientifique aux «solutions miracles».Josette Le François École d'orthophonie et d'audiologie de l'Université de Montréal NDLR: Nous vous remercions de ces précisions.// nous semble cependant que vous assimilez un peu vite l'article de Québec Science aux autres articles publiés sur le sujet.A la lecture de notre rubrique, vous remarquerez que nous avons précisément fait les nuances que vous faites.Soulignant qu'«Hs'agit maintenant d'augmenter la discrimination des sons», nous concluions qu'«onpeut espérer d'heureux résultats d'ici quelques années».// s'agit en effet, d'appliquer un certain discernement scientifique aux «solutions miracles», et nous sommes bien d'accord avec vous.COURRIER acû uû On parle peu des poteaux de bois, sans doute parce qu’ils font partie de nos paysages depuis longtemps, qu’ils ont le port modeste en comparaison des pylônes d’acier et, probablement aussi, parce qu’on les croit sans histoire.L’Hydro-Québec achète, chaque année, environ 60 000 poteaux de bois qu’elle emploie pour supporter ses lignes jusqu’à la tension de 161 kV.Les poteaux que l’Hydro-Québec utilise le plus sont ceux de 35 et de 40 pieds.On poteau de 40 pieds, traité et livré, coûte environ $150, mais un poteau de grande taille peut coûter jusqu’à $1 000.Du cèdre, oui.Mais pas toujours Le bois a toutes les qualités intrinsèques pour faire un bon poteau.Il est à la fois léger et résistant, facile à travailler et durable (surtout si on prend soin de le traiter).Il est aussi un isolant exceptionnel.Mais toutes les essences d'arbres ne sont pas "douées” pour devenir poteaux.La plupart des feuillus, par exemple, ont le tronc trop court.Ce sont les conifères qui font les meilleurs poteaux, tant à cause de leur forme que de leurs caractéristiques physiques.Autrefois, les poteaux des lignes électriques étaient presque tous en cèdre, bois réputé pour sa durabilité naturelle.Mais cette essence se faisant rare et chère, on utilise maintenant le pin rouge et le pin gris.A part ces arbres, qu'on trouve sur le territoire du Québec, on importe du pin jaune du sud des États-Unis, du pin sylvestre des pays Scandinaves, du pin de Murray de l'Ouest, et du sapin de Douglas, de l'Ouest également, pour les poteaux les plus longs.On tente aussi des expériences avec l'épinette.Pour faire un bon poteau Tous les poteaux de bois utilisés par l'Hydro-Québec sont conformes aux normes de l'Association canadienne de normalisation (ACNOR).Des comités, mandatés par cet organisme, ont réparti les poteaux en classes et dressé des tables de résistance en fonction des essences d'arbres, de la taille des poteaux et de leur circonférence.Ils ont également statué sur les imperfections inacceptables, par exemple, certains types de fentes traversantes ou des déviations majeures du tronc, et sur les imperfections tolérables pourvu qu’elles restent dans des limites définies, comme les noeuds et les cicatrices.Ils ont aussi établi des prescriptions sur la façon d'écorcer, de sécher, de marquer, de traiter, d'inspecter et même de transporter les poteaux.Échec aux champignons et aux insectes Un poteau qui offre toutes les qualités requises doit subir un traitement chimique si l’on veut prolonger sa vie.En moyenne, un poteau laissé sans protection a une espérance de vie inférieure à dix ans; convenablement traité, il peut durer plus de 40 années.Le bois se détériore parce que sa couche externe, l'aubier, est une nourriture de choix pour les insectes et un terrain fertile pour le développement des moisissures.Le traitement consiste donc à imprégner le bois, en particulier l'aubier, de produits qui le rendront inattaquable.La nécessité de protéger le bois exposé est reconnue depuis longtemps, mais les poteaux des lignes électriques n'ont pas toujours été traités en profondeur.On se contentait, autrefois, de les immerger dans une substance chimique ou de badigeonner la partie en contact avec le sol.Depuis la nationalisation, tous les poteaux achetés par l'Hydro-Québec ont subi préalablement une imprégnation sous pression qui permet de faire pénétrer le produit de traitement dans les fibres du bois.Les produits de préservation Les produits employés se subdivisent en deux catégories selon qu'ils sont à base d’huile ou solubles dans l'eau.Le produit à base d'huile le plus connu est la créosote, produit de distillation tiré du goudron; on emploie surtout la créosote qui provient du goudron de houille.Le pentachlorophénol est un autre produit connu; il s'agit d’un solide cristallin qu'on dissout dans du pétrole.Les produits hydro-solubles sont souvent composés d'arsenic, qui est un insecticide, et de cuivre, produit fongicide.Les plus utilisés au Québec sont l'arsé-niate de cuivre ammoniacal (ACA ou Chemonite) et le CCA, l’arséniate de cuivre chromaté.Les épinettes qui font actuellement l'objet d'expériences sont traitées à l'ACA.Ces traitements sont sans danger pour les hommes et les animaux et ils ne diminuent pas la qualité isolante du bois.A suivre: Les procédés de traitement QUÉBEC SCIENCE / mai 1979 7 Au début de 1975, la solution recherchée depuis des années était presque trouvée.Les dommages s'élevant à plusieurs millions causés par les débordements de la rivière Richelieu, dans le sud de Montréal, et du lac Champlain, du côté américain, allaient enfin diminuer avec la mise en application de mesures visant à régulariser ces eaux.Toutefois, l'intervention pour le moins habiled'éco-logistes américains, soutenue par les autorités américaines, a fait en sorte que la décision finale soit retardée de quelques années afin de poursuivre les études sur les conséquences écologiques, question de prouver «hors de tout doute raisonnable» que la régularisation des eaux de cette région ne causerait aucun tort irréparable à l'environnement.Le problème des inondations printanières est certes de taille dans la région métropolitaine, il pose aussi des tracasseries aux riverains de nombreuses autres rivières du Québec.Mais il se complique lorsqu’il est question de satisfaire à la fois Américains et Québécois, pêcheurs, trappeurs, touristes et agriculteurs en même temps.Du côté américain de la frontière, les dommages occasionnés par les inondations, principalement en 1972 et en 1976, affectent les résidences et les installations commerciales et industrielles des États de New York et du Vermont, alors que les dommages en territoire québécois touchent plutôt les agriculteurs et les propriétaires de résidences d'été.Les problèmes causés par le trop plein de la Richelieu n'est pas nouveau puisque dès 1869 des citoyens de Saint-Jean se plaignaient au ministère fédéral de la Marine et des Pêcheries.En 1909, les États-Unis et le Canada créèrent, pour réglementer leurs eaux adjacentes, la Commission mixte internationale des eaux limitrophes.En 1937, un barrage, construit en aval de Saint-Jean, ne permit pas toutefois de solutionner \ le problème des inondations, car la guerre interrompit les | travaux qui ne furent jamais | complétés.Les riverains ont de j nouveau essuyé l'assaut de la i nature au début de la présente I décennie.L'attaque était encore plus forte que par le passé ENVIRONNEMENT LES PIEDS DANS L’EAU DU RICHELIEU et les dommages supérieurs à quatre millions de dollars, enregistrés successivement en 1972 et en 1 976, étaient supportés à 55 pour cent par les Américains.Il n'en fallait pas plus pour que les deux gouvernements fédéraux mandatent de nouveau la Commission mixte pour trouver une solution à ce problème.Le Bureau technique international Champlain-Ri-chelieu, formé de fonctionnaires canadiens et américains américains et la collaboration du Mouvement écologique du Haut-Richelieu.Cet organisme qui réunit des profanes très intéressés à diverses questions allant du recyclage aux pistes cyclables a au moins le mérite d'avoir soulevé le débat dans la région en organisant une série de conférences.Ce genre d'interventions dans le milieu, le «Lake Champlain Committee» le pratique depuis une quinzaine d'années avec des biologistes réputés qui enseignent —^ ' n?—¦ fut chargé d'entreprendre des études démontrant la faisabilité de la régularisation.À peine ces études amorcées, la Commission estimait que le Bureau devait examiner plus à fond les conséquences écologiques et l'importance de ce facteur dans le dossier.Services gouvernementaux, universitaires et professionnels en arrivaient à la même conclusion que la majorité des intervenants américains et canadiens qui se sont présentés lors des audiences publiques tenues de part et d'autre de la frontière: il est nécessaire de régulariser le niveau des eaux en tenant compte de l'environnement.Seuls au début, les membres du «Lake Champlain Committee» se sont assurés le support des autorités des deux États dans plusieurs universités.N'eût été de cette présence, la décision d'entreprendre le dragage de la Richelieu et d'ériger un barrage de 16 millions de dollars à Saint-Jean-sur-Ri-chelieu, comme le souhaitait particulièrement le gouvernement du Québec, aurait primé mais le poids politique du refus des États du Vermont et de New York suffit pour faire pencher la balance.L'argument des écologistes américains est de taille: si le niveau du lac Champlain baisse trop, l'écosystème des marécages de la région, qui totalisent une superficie de 21 000 hectares, est menacé, de même que plusieurs espèces, en particulier le grand brochet du Nord et le rat musqué.En plus d'attribuer la perte de 80 pour cent des meilleures zones de frai du brochet avec une régularisation trop forte, les biologistes Justin Brade, du Programme d'environnement de l'Université du Vermont, et Stocton Barnett, professeur à l'Université de New York à Plattsburg, soutiennent que la pollution sur ces deux cours d'eau serait beaucoup plus critique, surtout l'été.Il faut aussi songer aux conséquences d'un trop bas niveau, comme celui de 28 mètres au-dessus de la mer, que réclament les agriculteurs québécois, sur les sites de récréation américains.Le niveau de l'eau, du côté américain, doit être d'au moins 30 mètres pour permettre des conditions idéales au frai du grand brochet.Au-dessous de ce niveau, du moins selon les écologistes américains, les herbes aquatiques ralentissent l'écoulement de l'eau, donc le débit des cours d'eau, et empêchent ainsi l'oxygénation en contribuant à maintenir les matières polluantes.Certes, des propositions ont été formulées pour apaiser la colère des agriculteurs québécois, comme le procédéde l'en-diguemênt et du pompage de certaines zones à haut potentiel agricole, mais il reste que les agriculteurs demeurent sceptiques face aux recommandations de la Commission.Parmi celles-ci, on retrouve évidemment la construction d'un ouvrage à vannes mobiles, la mise en place d'un programme de prédiction et d'avertissement pour les prochaines inondations, l'adoption d'une réglementation pour la plaine inondable.Ces mesures combinées devraient diminuer les dégâts dans une proportion de 60 pour cent au Canada et de 40 pour cent aux États-Unis.Malgré cela, les agriculteurs demeurent mécontents en raison des conditions imposées pour maintenir le frai du brochet.Il faudra, en effet, régulariser les eaux de façon à ce que le niveau du lac Champlain atteigne 30 mètres durant 40 jours au minimum et abaisser ensuite le niveau de 1,25 centimètre par jour jusqu'en juin et ce, une fois tous les trois ans.Comme on peut le constater ce train de mesures précises qui est le fruit d'une série d’études est en quelque sorte 8 un compromis entre des positions irréconciliables.Quoi qu'il en soit, les mesures préconisées par la Commission mixte internationale des eaux limitrophes au début de 1978 font encore l'objet d'une réflexion et pourrait même de l'avis d'un membre canadien de la Commission, M.Bernard Beaupré, changer encore puisque rien n'est encore décidé par les deux gouvernements.«S'il faut prendre l'exemple, explique ce fonctionnaire fédéral, des problèmes de pollution des Grands Lacs qui viennent de débloquer après dix ans d'études, il faut comprendre que ce genre de dossier qui touche plusieurs gouvernements est fort délicat.Heureusement, dans le cas de la rivière Richelieu et du lac Champlain, les membres de la Commission ont fait des recommandations unanimes, ce qui fait avancer les décisions gouvernementales beaucoup plus vite que lorsqu'il y a division.» Puisqu'il est possible que la décision finale en ce qui concerne les inondations du lac Champlain et de la Richelieu prenne encore quelques mois, des années si on est plus pessimiste, il ne faudrait pas être surpris que la poire soit finalement coupée en deux entre nous et nos voisins du Sud.André Lamoureux Et assez mal, si l'on en croit les affirmations de la revue Human Nature, dans sa parution de janvier dernier.Parmi toutes les façons de réchauffer les occupants d'une pièce, la tradition aurait mené à la sélection de la technique probablement la moins efficace: garder les gens au chaud en entretenant la chaleur des espaces qui les enveloppent.Pourtant, certaines civilisations ont déjà développé des approches différentes pour assurer le confort thermique des individus.Les Japonais, par exemple, se satisfaisaient de murs de papier mince et savaient se tenir au chaud.Une immersion périodique dans une eau très chaude et le port d’un kimono de tissu épais suffisaient à entretenir cette chaleur si essentielle.On n'aura jamais assez vanté les bains japonais.Il faut néanmoins comprendre les fondements de cette approche de chauffage pour pouvoir la mettre à profit dans le contexte occidental moderne.Pour ce, la différence entre chaleur ambiante et chaleur radiante doit apparaître clairement, différence trop souvent ignorée même par des scientifiques très compétents.Cette distinction réside essentiellement dans la sélectivité de la chaleur radiante.Contrairement aux «systèmes ambiants», qui chauffent indifféremment ou à la même température, la chaleur radiante chauffera plus ou moins les corps exposés selon leur capacité à absorber les rayons infrarouges.Ce principe de chauffage est d'ailleurs mis en pratique dans les fours à micro-ondes.Qui n'est pas surpris de sortir d'un tel four un morceau de viande bien cuit dans une casserole encore tiède?Une autre comparaison permet d'illustrer ce phénomène: si la terre était chauffée de la même façon que l'on chauffe une maison, il faudrait que tout ce qui occupe les 1 60 millions de kilomètres qui séparent la terre du soleil soit chauffé à la même température que la biosphère! Lefaitquetel ne soit pas le cas suggère que les organismes vivants, dont l'être humain, sont particulièrement adaptés à un «système radiant» de chauffage.À l'heure actuelle, de tels systèmes sont pratiquement ENERGIE CHAUFFER LE CORPS, PAS L’ESPACE Les données sur le chauffage des habitations ne manquent pas.De plus en plus, on évalue la qualité de l'isolation des maisons et des édifices pour s'assurer que l'énergie consacrée au chauffage des espaces est utilisée au mieux.Mais serait-il possible que l'on s'engage présentement sur une fausse piste, dans tous ces efforts pour éviter le gaspillage de l'électricité ou du pétrole pour le chauffage?De l'avis d'un anthropologue bien connu aux États-Unis pour ses recherches sur l'occupation des espaces par les êtres humains, Edward T.Hall, les systèmes actuels chauffent l'air ambiant de pièces entières dans le but de réchauffer les seuls individus qui y vivent.LtGAnt WINDSOR mai 1979 / QUÉBEC-SCIENCE inexistants.Fait d'ailleurs déploré dans l'article de E.T.Hall.Selon ce dernier, l'igporance des fondements mêmes de l'absorption de la chaleur par la peau et l'organisme entier ne peut que retarder la conception d'appareils de chauffage à l'énergie radiante.On ne saurait même pas quantifier la chaleur radiante absorbée ou émise par les divers matériaux.Cette absence de connaissances se répercute aussi sur les développements envisagés dans le domaine des nouvelles sources de chauffage.Ainsi, d'énormes budgets sont présentement accordés au développement du chauffage solaire actif, c'est-à-dire à l'aide de collecteurs transmettant la chaleur accumulée à des appareils d'échanges thermiques plus ou moins efficaces, des «émetteurs d’énergie ambiante», copiés sur les systèmes conventionnels de chauffage.Une autre école de pensée, centrée sur le chauffage solaire passif, s'inspire plutôt des caractéristiques de l'énergie radiante.On favorise alors les pénétrations des rayons solaires dans l'habitation de façon à chauffer directement les objets et les individus qui s'y trouvent.Une visite des différents kiosques présentés à l'occasion de la semaine de la conservation de l'énergie, tenue à Québec à la fin de février, suffit à convaincre de l'ignorance quasi complète de cette forme de chauffage, susceptible de réaliser d'étonnantes économies d'énergie.Les seuls systèmes de chauffage radiant proposés restent, hélas, très inefficaces, faisant appel à des modes d'opération propres au chauffage ambiant.L'exemple des «planchers chauffants» est significatif à cet égard.Tout de même, malgré le choix des sources d'énergie très dispendieuses (électricité ou pétrole) et l'absence d’une connaissance précisedes mécanismes en jeu, ces systèmes radiants de première génération permettraient des économies d'énergie de l’ordre de 25 pour cent.On est tout de même encore loin des réductions de près des deux tiers, théoriquement possibles par le recours à des systèmes adéquats de chauffage par énergie radiante.André De!isle QUÉBEC StlENCE / mai 1979 9 GÉNÉALOGIE LES PAPIERS DE GRAND-PAPA Au mois d'août 1977, une décision frappa comme une bombe le monde de la généalogie, de l'histoire, de la sociologie, de la génétique humaine, de la démographie.En effet.Me Pierre Dorion, directeur-général des Greffes du Québec (ministère de la Justice), émettait des directives selon lesquelles il était désormais interdit aux chercheurs de consulter les registres d'état civil.Ces restrictions touchaient les cent dernières années et avaient comme base la confidentialité des documents et leur conservation.Cependant, la rigueur de cette décision était adoucie par la promesse de «tolérer» certains travaux qu'on aurait préalablement jugés importants aussi bien par leur sujet que par leur nature.Dès lors, on se regroupa pour faire front commun et protester auprès des autorités compétentes.Selon divers groupements, en particulier les membres de sociétés de généalogie et d'histoire, avec cette décision s'anéantissait tout projet de biographie puisque même les naissances, les mariages et les décès demeureraient dans l'inconnu.L'avenir de la généalogie se trouvait plus que gravement compromis.Tout ce qui concerne l'état civil relève du ministère de la Justice et c'est donc au premier responsable.Me Marc-André Bédard, que sept associations présentèrent, en novembre 1977, un mémoire dans lequel elles faisaient état de la situation extrêmement difficile qu'entraînerait cette décision.Pour appuyer sa demande, le «front commun» y indiquait «que le Québec, étant une nation constamment menacée d assimilation ou d'immersion dans un continent fortement anglophone, il fallait que la recherche et le développement de son identitéculturelle nationale passât par la connaissance de son passé tant collectif (histoire nationale) qu'individuel (généalogie)».«Pour pouvoir édifier l'avenir, il faut conserver la mémoire du passé», disait M.Edgar Faure, ex-président de l'Assemblée nationale de France.Il faut dire que le Québec est l'endroit le plus favorisé en ce qui concerne son état civil.En effet, nos registres d'état civil sont en double, un original, propriété de l'État, est conservé dans les archives des divers Palais de Justice de la province et l'autre, propriété de l'Église, conservé dans les presbytères.Cette dualité a eu l'effet bénéfique d'empêcher la disparition totale des documents.Ces documents étaient, il va sans dire, souvent exposés à des dangers soit par les mauvaises conditions de climatisation des lieux où ils étaient conservés, soit par des risques d'incendie, ou encore, malheureusement, par des gens peu scrupuleux qui les abimaient ou se les appropriaient par fragments ou autrement.Tout le monde s’est donc réjoui de la décision prise par le ministère de la Justice, il y a quelques années, de remettre aux Archives nationales du Québec tous les documents et registres antérieurs à 1875, et de confier le tout à des spécialistes en la matière.On avait alors recommandé au ministère d'entreprendre un travail de microfilmage des archives judiciaires et de faire des index, sur fiches, des divers actes d'état civil, cela pour tout le territoire québécois.Ce que les chercheurs des diverses sociétés désirent, c'est de continuer à avoir accès à ces registres, et ils sont prêts à accepter le principe du permis de consultation et même de former un comité conjoint afin que le ministère de la Justice n’ait qu'un seul interlocuteur, ce qui faciliterait les démarches.S'engageant à signer un code d'éthique, les chercheurs pourraient être autorisés à consulter des documents, sauf ceux des 50 dernières années à cause de la confidentialité qu'ils reconnaissent à ces actes.Ce mémoire est resté sans réponse de la part du ministre, M.Bédard, et on pourrait parler actuellement de statu quo.La généalogie, cette science qui a pour objet la recherche de l'origine et de la filiation des familles, continue cependant à intéresser de plus en plus de monde.On rejoint ainsi de nombreux autres champs d'activités humaines, qu'ils se nomment recherche médicale (hérédité, génétique), sciences sociales, démographie, histoire, art, ethnographie, etc.Les profanes trouvent aussi de l'intérêt à cette science.Dans les salles de consultation, de plus en plus fréquentées, on rencontre des gens à la retraite ou en pleine activité professionnelle, des étudiants universitaires et même du cegep ou du secondaire, fascinés par le monde d'hier et désireux d'établir leur lignée.Le Québec possède quatre sociétés de généalogie: la Société généalogique canadienne française, la Société de généalogie de Québec, celles des Cantons de l'Est et d'Ottawa-Hull, dans lesquelles on compte aussi des membres du Canada anglais, des États-Unis et d'Europe.À cela, il faut ajouter que des sociétés d'histoire qui se préoccupent aussi de cette science.Plusieurs sont regroupées dans la Fédération des Sociétés d'histoire, ce qui représente des milliers de personnes directement touchées par toutes ces questions.En plus de ses réunions régulières qui comprennent conférences, présentation de résultats de travaux de membres, projections cinématographiques, chaque société voit à la publication d'un bulletin ou d'une revue, organise occasionnellement des voyages à caractère généalogique ou historique, publie des répertoires de mariages, met des cours à la disposition des membres et de la population, participe à des travaux de grande envergure comme des dictionnaires ou des encyclopédies, maintient une bibliothèque bien pourvue, des arbres et des tableaux généalogiques, des cartes géographiques anciennes, etc.Plusiéurs ouvrages importants servent de documentation de base, par exemple les dictionnaires et ouvrages de Cyprien Tanguay, Archange Godbout, Éloi-Raymond Gérard.De plus, le ministère des Affaires culturelles possède une section degénéalogiedont le directeur est Michel Langlois.Située rue Berthelot à Québec, on y trouve la documentation nécessaire à tout travail de recherche et un personnel spécialisé.Cet art exige énormément de patience et de persévérance, mais la passion qu'on y apporte — le mot n'est pas trop fort — et la valeur des résultats font vite oublier les mois pour ne pas dire les années qu'on y consacre.«La connaissance du passé familial informe chaque individu qu'il est solidaire d'une race, d'un héritage, d'une tradition», écrivait le généalogiste français Joseph Jacquart.Monique Duval PUBLIREPORTAGE Dépistage précoce d'une cause de retard mental Il existe des maladies congénitales, c'est-à-dire existantes à la naissance, très graves, dont le traitement a été découvert et dont la guérison est complète si ce dernier est appliqué à temps, d'où la nécessité de mettre au point des méthodes de dépistage les plus précoces possible.C'est ce qui s'est passé pour l'hypothyroïdie congénitable, où des enfants naissent sans glande thyroïde ou avec une glande tellement atrophiée quelle ne fonctionne que trop faiblement.Cette glande, située normalement au niveau du cou, secrète une hormone indispensable au développement du cerveau qui se poursuit pendant les premières années de la vie.Si cette insuffisance hormonale n'est pas détectée dans les trois mois suivant la naissance, le cerveau ne se développera pas normalement et l'enfant souffrira de retard mental.Le diagnostic clinique est quasiment impossible en bas âge, tant le bébé a l'air normal.Il y a 7 ans, le Dr Jean H.Dussault, du Centre hospitalier de l'Université Laval et du Département de médecine de l'Université Laval, mettait au point une méthode de dosage de l'hormone thyroïdienne dans les gouttes de sang séchées sur un papier filtre.De 1972 à 1974, 20% des bébés naissants au Québec passaient ce test, depuis avril 1974, 95% des bébés le passent.Le Québec devenait le premier pays du monde à pratiquer ce type de diagnostic à grande échelle.L'Alberta a commencé il y a deux ans, l'Ontario, à cette échelle, en octobre 1978, le Commonwealth de la Nouvelle-Angleterre en 1976.Le diagnostic se fait en deux analyses successives.La première mesure la quantité d'hormone thyroïdienne dans les taches de sang remis en solution.La seconde évalue la quantité d'une hormone régulatrice de la thyroïde et produite dans l'hypophyse à la base du cerveau.Si le second dosage donne des teneurs très élevées alors que le premier est significativement trop bas, l'enfant souffre d'hypothyroïdie de naissance ou hypothyroïdie congénitale.Les parents seront avertis, d'autres tests seront faits et, le cas échéant, l'enfant suivra un traitement, très simple, depuis l'âge de trois semaines ou au plus tôt, jusqu'à ce qu'il ait trois ans et que son cerveau soit complètement formé.À cet âge, un diagnostic précis est fait et si l'hypothyroïdie est confirmée, le traitement devra être poursuivi pour la vie.Le laboratoire du CHUL traite environ 300 à 400 échantillons par jour, les valeurs trop hautes ou trop basses sont déterminées par comparaison statistique avec les autres résultats de cette même journée.Un enfant sur 5 000, au Québec, est susceptible d'être atteint.La maladie n'est pas héréditaire mais bien distribuée «au hasard».Les enfants des patients traités n'ont donc aucune raison d'avoir plus de risques d'être hypo-thyroïdiens à leur tour.Certains cas d'hypothyroïdies congénitales peuvent être liés à un traitement médical que subissait ou qu'a subi la mère, lors de la grossesse, par exemple des traitements pour hyperthyroïdie où une sécrétion trop importante d'hormone thyroïdienne ou pour bronchite chronique traitée aux iodures.Dans ces cas précis, les enfants auront une glande thyroïde normalement constituée mais son fonctionnement aura été inhibé pendant la vie foetale et prendra un certain temps à se régulariser après la naissance.Les premiers enfants traités ont maintenant cinq ans et leur développement est normal.Depuis 3 ans, l’évolution psychologique des enfants hypothyroïdiens a été évaluée et les résultats, là encore, prouvent que ces enfants sont tout à fait normaux.Peut-être y a-t-il un très léger retard dans l'apprentissage de la parole et dans la coordination fine des mouvements.mais ce n’est pas très significatif et ce peut être dû aussi à des variables liées au milieu familial.Pour parler un peu de l'aspect économique de ce projet, il faut considérer que les analyses faites sur chaque nourrisson québécois coûtent $3.00 et que cette somme permet le dépistage sanguin de 3 maladies dont l'hypothyroïdie congénitale.Un bébé hypothyroïdien non traité grandira avec un âge mental de 3 à 6 mois.Le coût de cette personne en institution peut être évalué à $20.00 par jour pendant une moyenne de 40 ans! Malgré ce rapport énorme coût/bénéfice, il n'est pas facile pour tous les pays d'implanter un système de ce type.Dans certains pays, la teneur en iode dans l'environnement varie plus qu'au Québec et la détection des seuils critiques peut être difficile.Dans d'autres pays, comme aux États-Unis, c'est la législation qui freine la mise en place d'un tel système de prévention, effectivement dans certains états, on ne peut prélever de sang sans le consentement du patient ou de la personne qui en a la charge.Au Québec, le système de dépistage fait partie du réseau inter-universitaire de génétique humaine qui regroupe les Universités Laval, McGill, de Montréal et de Sherbrooke.Le dépistage de l'hypothyroïdie est centralisé dans un laboratoire du CHUL.Dès que les tests se révèlent anormaux, la famille et le médecin de famille sont impliqués et l'enfant est référé à un des trois centres régionaux du Québec.Les recherches du Dr Dussault portent actuellement sur la mise au point de tests permettant de détecter d'autres maladies congénitales endocriniennes et qui pourraient venir s'ajouter au système existant.Marianne Gagnon Division de l'information Université Laval P' ' .(i®1 Mila® de noi» piojel tW* S0Hr; BOI'"1"; lildetS! I ft'-: non"1* PUBLIREPORTAGE L'Université Laval en capsules Une étude unique au Québec Depuis deux ans, Réjean Tessier et Richard Cloutier, deux professeurs de l'École de psychologie de l'Université Laval dirigent une recherche de grande envergure, subventionnée par le ministère des Affaires sociales du Québec: «La garderie québécoise, analyse fonctionnelle des facteurs d'adaptation».- m m i ___ _JJ> Un des aspects de l'étude de l'École de psychologie portait sur les modèles de gestion des garderies: garderie à but lucratif, à but non lucratif, rôle des parents, du conseil d'administration, du personnel.Il est apparu clairement aux chercheurs que la même structure peut donner un fonctionnement très différent: ce n'est donc pas une variable importante! La variable importante qui semble se dégager est celle de la participation au niveau pédagogique.Existe-t-il une entente entre les parents et les éducateurs au niveau des valeurs à transmettre, des attitudes à adopter?Serait-il possible d'envisager une participation au niveau pédagogique et quelle en serait la formule optimale?Des études plus ponctuelles ont été prises pour évaluer certains aspects bien spécifiques de la garde des enfants: les activités quotidiennes des enfants, les séparations du matin et du soir et les modifications des relations parents-enfants suite à l'entrée à la garderie.En lisant le rapport consacré aux activités dans les garderies, on ne peut que se poser la question: s'oc-cupe-t-on autant des enfants à la maison?Ne passent-ils pas beaucoup plus d'heures en «activité libre» à la maison qu'à la garderie?L'équipe de l'École de psychologie compte étudier comparativement la garde en milieu familial et la garderie avec permis, principalement en ce qui a trait aux ententes pédagogiques.Il est un aspect des garderies qui n'est pas étudié dans ce travail: c'est celui de l'influence à long terme.Aucune étude réalisée au Québec n'a «suivi» un enfant depuis son entré à la garderie jusqu'au niveau primaire, comparativement à un enfant resté au foyer.Un projet pour plus tard, peut-être?Des congrès.il en pleuvra cet été Plusieurs congrès ou colloques ont été confirmés récemment et sont venus s'ajouter à la liste déjà fort longue des manifestations qui se tiendront durant le printemps et l'été sur le campus.Ce sont le Colloque des responsables de l'enseignement des mathématiques au secondaire, du 17 au 21 juin, l'International Council for Small Business, du 23 au 26 juin, le Vingtième colloque canadien sur les polymères, du 15 au 17 août, le Colloque sur la philosophie et la question nationale, organisé par la Société de philosophie du Québec, les 29 et 30 septembre.Nous avons également appris récemment que lé Centre québécois des relations internationales tiendrait, cette année encore, son congrès annuel de fin septembre, sur «Les Églises et les pouvoirs politiques».Pour compléter la liste, citons: le Colloque en théorie économique du 7 au 11 mai, le Congrès de la FAMEQ, du 10 au 13 mai, le Congrès de la Société des zoologistes canadiens, du 13 au 17 mai, le Congrès de l'Association géologique du Canada et de l'Association minéralogique du Canada, du 23 au 25 mai, le Congrès du Conseil canadien de la musique, du 24 au 26 mai, le Congrès canadien de médecine de laboratoire, du 16 au 19 juin, le Congrès international Herzberg, du 1er au 3 août, le Congrès international sur le myxomycète, du 15 au 17 août, le «1979 Meeting de la Society for The Study of Reproduction», du 21 au 24 août.À ces congrès qui se tiendront sur le campus, il faut ajouter ceux qui se tiendront à l'extérieur, comme le Congrès de l'Institut canadien des sciences et technologie alimentaires, au Hilton, du 27 au 29 mai, et le Congrès annuel de l'Association canadienne de l'informatique, au Centre municipal des congrès, du 25 au 27 juin.Une victoire pour les étudiants en actuariat Les 14 étudiants de l'Université Laval qui se présentaient à l'examen no 4 de la «Society of Actuaries», à la session de novembre 1978, ont tous réussi cet examen et, de plus, 9 d'entre eux ont obtenu la note maximale de 10.Selon le directeur du Programme d'actuariat, M.Gaston Paradis, il s'agit là d'un résultat remarquable étant donné la difficulté bien connue de ces examens.Rappelons que la «Society of Actuaries» soumet ses candidats à une série de 9 examens avant de leur décerner le titre tant convoité de «Fellow».Les étudiants de Laval sont en compétition avec tous les autres étudiants américains et canadiens qui se présentent à ces examens où les pourcentages de succès sont généralement inférieurs à 50%.À titre d'exemple, sur les 833 candidats qui se sont présentés à cet examen no 4 en novembre dernier, 309 seulement l'ont réussi, soit un pourcentage de 37.1%.Il est intéressant de noter que l'Université Laval ait une des écoles d'actuariat les mieux cotées, non seulement au Canada mais sur tout le continent américain, et qu'en dépit du retard que cette discipline a mis à se développer au Canada français (le 1er Fellow a été reçu en 1956), la situation se redresse rapidement du fait que le nombre de québécois francophones reçus Fellows chaque année est largement supérieur à la moyenne canadienne et la plupart sont des diplômés du 1 er cycle du Programme d'actuariat de l'Université Laval.Divition de ('information Université Laval SOCIÉTÉ DE RECHERCHES SCIENTIFIQUES INC.ENTREPRISE QUEBECOISE A LA MESURE DES NATURALISTES QUEBECOIS SERVICES OFFERTS: • Librairie spécialisée en sciences naturelles, la plus complète au Canada.• Matériel de récolte, de collection et d'étude en sciences naturelles.• Service complet de taxidermie.• Cartes topographiques.• Cours d’éducation populaire: Botanique, ornithologie, mammalogie, ichtyologie, entomologie, minéralogie, géologie du Québec, cartographie et boussole, technique de récolte en sciences naturelles, taxidermie.• Pour les membres: local et équipement mis à leur disposition, 7 jours par semaine -10% d’escompte sur les livres et le matériel S.V.P.me faire parvenir Nom Date de naissance / / • Catalogue de livres et matériel scientifique (gratuit) ?Adresse • Index des cartes topographiques (gratuit) ?• Prospectus de NABEC (gratuit) ?Tél.Date • Carte de membre ($5.00) ?Signature S.R.S.NABEC INC.- 4057 Ste-Catherine est, Montréal, Qué.H1W 2G9 — Tél.(514) 523-3945 QUÉBEC SCIENCE / mai 1979 13 AUTOCHTONES UN GROUPE GUI RÊVE DE DISPARAITRE Nés pour un petit pain, les Métis et Indiens sans statut, ces éternels oubliés, n'ont pas été surpris d'avoir été mis à l'écart lors de la tenue du mini-sommet» indien du gouvernement québécois, tenu à la mi- décembre.S'ils n'ont pas participé aux discussions entre le gouvernement du Québec et les quelque 150 dirigeants indiens représentant une quarantaine de bandes, les Indiens sans statut se sont néanmoins réjouis que l'on pose enfin une question importante qui les concerne au plus haut point: qui est Indien au Québec?Soulevée à quelques reprises par le Premier ministre Lévesque, cette interrogation amorçait, sans toutefois qu'il n'y ait eu de réponses précises, un débat fondamental allant au-delà de la rencontre historique marquant des retrouvailles de 277 années sans dialogue.Bien que les Métis se considèrent davantage comme «des Indiens comme les autres, mais qui ont été dépossédés de leurs droits», la seule définition légale qui tranche encore cette question fondamentale est donnée par la Loi des Indiens, une législation adoptée par le gouvernement canadien en 1874, que tous contestent.à l'exception de ceux qui l'appliquent.Parmi ceux-ci se trouvent les dirigeants indiens, membres des Conseils de bande, à qui le ministère des Affaires indiennes confie une partie de l'administration de la Loi des Indiens.Pour le sociologue Robert Laplante qui étudie présentement les problèmes des Métis, «les problèmes rencontrés par les Indiens sans statut diffèrent d'une région à l'autre selon la volonté des autorités indiennes locales de servir loyalement le ministère des Affaires indiennes en étant une bonne ou une mauvaise courroie de transmission du pouvoir.» Un peu dans le même sens, le président de l'Alliance lau-rentienne des Métis et Indiens sans statut, M.Cari Larivière, reconnaît «que fondamentale- ment les Indiens de la base ne se considèrent pas très différents des Métis.Ils rencontrent les mêmes problèmes que nous au niveau de l'habitation, de l'éducation et du travail.La différence, c'est peut-être les dirigeants indiens qui possèdent le pouvoir politique qu'ils veulent conserver.» L'exemple qui revient le plus souvent à ce sujet est celui du traitement fait à la femme indienne qui, se mariant à un blanc, perd inévitablement ses droits.Mary Two Axe Early, la contestataire de Caughnawaga, déplore même que les chiens des Indiens (descendants pourtant d'un régime matrilinéaire) de la réserve sont enterrés dans le cimetière local alors que les femmes à qui on a enlevé leur statut n'y ont même pas accès! Moins évidents sont toutefois les cas des Indiens partis l'automne à la chasse qui ont été oubliés par les recenseurs.S'il y a une douzaine d'autres façons de renier aux Indiens les droits qu'ils ont, cette stratégie semble s'inscrire dans ce que les conseillers au programme politique de l'Alliance laurentienne qualifient de génocide technocratique.Dans ce sens, le sociologue Laplante rappelle que la négation des droits autochtones des Métis et la récupération de leurs terres passent par l'application de ('Indian Act qui n'a rien à envier aux pratiques rhodé-siennes.«Si concrètement le Métis trouve à même la quotidienneté amérindienne les bases de sa légitimité, il n'en demeure pas moins privé de toute possibilité politique et juridique de l'exprimer, car il n'appartient pas aux Indiens de définir les critères juridico-politiques de l'Indianité.En vertu de l'Acte Indien, le gouverne- "I PROGRAMME DE MAÎTRISE ET DE DOCTORAT EN VIROLOGIE Objectif Ces programmes visent à fournir à l'étudiant une formation susceptible d'être appliquée à divers champs d'activités en virologie humaine et animale, en diagnostic, en recherche fondamentale et appliquée et en enseignement.Conditions d'admission Maîtrise ès sciences (virologie) Baccalauréat spécialisé en microbiologie et immunologie, doctorat en médecine, doctorat en médecine vétérinaire ou l'équivalent.Doctorat (virologie) Maîtrise ès sciences en virologie ou en microbiologie et immunologie ou l'équivalent.Demandes d'admission Les demandes d'admission pour la session d'automne 1 978 doivent parvenir avant le 13 août 1979, au: Directeur adjoint à l'enseignement et à la recherche, Institut Armand-Frappier 531, boulevard des Prairies, Case postale 100 Laval-des-Rapides, Québec H7N 4Z3 Téléphone: (514) 687-5010 Université du Québec Institut Armand-Frappier 1969-1979 Le réseau de l'Université du Québec: dix ans de réalisations 14 mai 1979 / QUÉBEC SCIENCE ment fédéral décide lui-même qui est Indien et qui ne l'est pas.» Deux choses cependant sont claires: on sait que les Métis et les Indiens sans statut sont différents des descendants de Louis Riel et que leur nombre est à peu près égal aux Indiens «officiels».La première nuance est de taille puisque loin d'être assis comme les Métis de l'Ouest entre deux cultures, les Indiens sans statut du Québec ne sont pas le fruit d'une émergence socio-culturelle d'un mélange de cultures, mais plutôt les victimes «d'une décision ministérielle discriminatoire».Pour ce qui est de l'autre question, les Indiens sans statut qu'a recensés l'Alliance laurentienne malgré ses faibles moyens financiers devraient correspondre environ au nombre d'indiens reconnus, soit environ 30000, en excluant les Inuit.Observateur intéressé des problèmes autochtones, l'anthropologue Rémi Savard, de l'Université de Montréal, prédit «que l'avenir des Métis du Québec est sur le point de devenir une question aussi importante que les négociations territoriales des Amérindiens, notamment ceux de la Côte-Nord, puisque la reconnaissance des Indiens sans statut pourrait être une prémisse à ces négociations.Il ne faut pas négliger la force politique de ce groupe à la veille du référendum québécois même si ses chefs ont moins de poids que les Max Gros-Louis, Andrew Délisle et compagnie.» En supposant que les études anthropologiques et sociologiques présentement en cours en arrivent à prouver noir sur blanc que les Indiens sans statut et les Métis soient aussi nombreux que les Indiens reconnus officiellement, des pourparlers pourraient alors s'amorcer et des alliances se conclure avec un certain nombre de compromis de part et d'autre.L'Alliance laurentienne des Métis et Indiens sans statut prévoit que les choses se passeront ainsi et que l'unité se fera autour d'objectifs communs.Chose certaine, les Métis forment sans doute un des rares groupes dans notre société dont le but est de disparaître au plus vite.pour être intégré à la société autochtone.André Lamoureux ÉNERGIE NUCLÉAIRE UN RAPPORT BOOMERANG En publiant, au printemps dernier, le rapport Inhaber sur les risques comparés de la production d'énergie, la Commission de contrôle de l'énergie atomique du Canada pensait sans doute paver la voie à un débat serein, à l'aide d'un document solide.Las! un an après, le débat tourne à la cacophonie, ce qui n'est pas bien grave en soi, et le document se révèle truffé d'erreurs, d'inexactitudes et de méthodes contestables, ce qui est beaucoup plus grave.Au point où ce qui se voulait le fleuron de la littérature technique est devenu l'épine la plus acérée plantée dans le flan de la Commission, attaquant sa crédibilité face au public.On se souvient qu'à la sortie du rapport Inhaber, intitulé «Le risque de la production d'énergie», Québec Science avait publié une analyse assez critique de ce document (Québec Science, Maquiller le risque nucléaire, juin 1978).Notre collaborateur Gilles Provost soulignait que plusieurs des hypothèses retenues par le Dr Inhaber dans le calcul des risques comparés des filières de production d'énergie étaient hautement criticables.La critique a rebondi au niveau des experts puisque, en février dernier, le Pr John Holdren de l'UniversitédeCalifornie à Berkeley dénonçait publiquement l'étude Inhaber dans une lettre adressée au président de la Commission de contrôle, le Dr Prince.Qualifiant le document d'«incompé-tent et inexact», le physicien de Berkeley écrit: «J'ai découvert non seulement des interprétations erronées (y compris de mon propre travail), mais aussi des facteurs comptés deux fois, des «corrections» arbitraires, et des erreurs de calcul élémentaires — par exemple, des transpositions d'unités, la confusion des concepts d'éner- gie et de puissance, et des erreurs d'arithmétique.Holdren cite notamment en exemple une erreur de transposition de livres en tonnes dans le calcul des matériaux de l'énergie éolienne, soit une erreur d’un facteur de 2 000.«C'est de loin le document technique le plus incompétent jamais distribué par des adultes» avance Holdren, qui précise qu'il exigera un droit de réponse dans toutes les revues scientifiques qui ont publié sans discernement les conclusions de l'étude Inhaber.La Commission de contrôle, pour sa part, souligne qu'elle n'endosse pas officiellement le rapport Inhaber et qu'elle a simplement autorisé sa publi- cation comme «matière à réflexion».Laissé seul à défendre son étude, le Dr Herbert Inhaber admet certaines erreurs qui ont grossièrement faussé l'estimation de certains risques des énergies renouvelables, mais souligne que des corrections ont été apportées dans les trois versions successives publiées par la Commission de contrôle.En ce qui concerne l'erreur dans le calcul des matériaux de l'énergie éolienne, le Dr Inhaber soutient qu'il s'agit d'une erreur d'un facteur de 20, découverte dès novembre et corrigée dans son article dans Science, et non d'un facteur de 2 000, comme le prétend Holdren.Le risque total pour leventtombecependant de 50 pour cent au total, et le Dr Inhaber admet qu'il s'agit d'une erreur «substantielle».Les conclusions de son étude, à l'effet que le risque du nucléaire est inférieur aux risques des autres formes d'énergie, ne sont pas modifiées, souligne-t-il.L'ordre de grandeur des estimations finales seul change.Toutefois, le coup porté à la réputation de la Commission de contrôle de l'énergie atomique du Canada pourrait être plus sérieux qu’il n'y paraît à première vue dans ce débat très technique.Les groupes anti-nucléaires canadiens se font fort de souligner que la Commission, qui représente les intérêts du public, a agi de façon irresponsable en laissant publier un tel document bourré d'erreurs.L'évaluation critique préalable, commanditée par la Commission à un expert toron-tois, a aussi été très faible, de l'avis même du Dr Inhaber.Les partisans de l'énergie nucléaire sont d'ailleurs bien embarrassés par cet épisode, qui fait apparaître leurs produits comme plus dangereux que ce qu'ils affirment.Pour rajouter à leurs problèmes, la Commission de contrôle atomique américaine, le N.R.C., annonçait en janvier dernier qu'elle retirait son appui au fameux rapport Ramussen sur les risques des centrales nucléaires à eau légère, parce qu'elle avait trouvé certaines erreurs dans les estimations: les résultats étaient trop flatteurs pour l'industrie nucléaire.Il s'agit d'un revirement, sept ans après, mais l'impact de cette décision pourrait être très fort.Dans la conjoncture économique difficile, tout argument de ce type peut porter un dur coup à l'industrie nucléaire.Et en attendant, l'impartialité de la CCEA du Canada est remise en question.Jean-Pierre Rogel 10 BONNES RAISONS DE CHOISIR LES PRODUITS CHIMIQUES BDH 1 Les produits chimiques BDH offrent la plus vaste gamme de réactifs de laboratoire au Canada.Celle-ci comprend nos produits Ultra-Purs Aristar, Analar, ACS ainsi que notre grade réactif de laboratoire.2 Une grande partie de nos produits sont manufacturés au Canada.Nous sommes par conséquent plus sensibilisés aux besoins locaux que nos compétiteurs étrangers et plus familiers avec les normes gouvernementales.3 La qualité des produits de BDH est égale ou supérieure à celle de nos compétiteurs.Une recherche approfondie et l’appui technique offert par nos sociétés affiliées nous en fournissent la preuve: MCB aux Etats-Unis, BDH en Angleterre et E.Merck d’Allemagne fédérale.4 Nos prix sont des plus compétitifs.Si le tarif douanier 69605-1 est modifié, nous n’augmenterons pas nos prix pour la grande majorité de nos produits canadiens.Un importateur peut-il vous offrir une telle garantie?5 Chez BDH, vos commandes vous sont expédiées dans les 24 heures.Notre clientèle peut en témoigner.A vous d’en faire la preuve.Tous nos représentants au Québec sont des diplômés d’universités québécoises.Ils jouissent de l’appui d’un personnel très qualifié en production, en recherche ou en contrôle de qualité, ici même au Canada.Nous sommes en mesure d’apporter des réponses pertinentes à toutes les questions que vous pouvez nous soumettre.*7 Vous avez des préparations spéciales à nous * soumettre?Nous sommes en mesure de vous aider.O BDH possède un vaste centre de distribution à ® Montréal, sur la rue Côte de Liesse.Nous avons aussi des centres à Toronto et Vancouver.9 BDH s’est montrée à la hauteur des nouvelles législations québécoises.La majorité de nos produits sont publiés dans les deux langues officielles et notre documentation est bien sûr, disponible en français.BDH utilise le système métrique depuis déjà 40 ans.Ceci se traduit par une économie respectable de 5 et 10% en volume et en poids.En achetant vos reactifs de laboratoire de source Canadienne vous ne sacrifiez en rien la qualité, la disponibilité et le prix.En fait chez BDH Chemicals nous vous offrons une satisfaction totale.Je serai heureux de connaître vos impressions.Veuillez communiquer en tout temps avec moi.Michel Beaulieu, Directeur.BDH Chemicals, 6730 Côte de Liesse Ville St-Laurent, RQ.H4T1E3 (514)739-3288 Les produits chimiques BDH créent de bonnes réactions! 16 mai 1979 / QUÉBEC SCIENCE DES MOTEURS  BOIS Le doux espoir des transports: le méthanol.par André Delisle L'énergie du bois?Pas très nouveau au Québec.À part dans quelques grandes villes, quelle maison de village ou de rang n'était pas «chauffée au bois», à l'époque de nos grands-parents?En quelques décennies, on a délaissé à peu près complètement cette forme dechauffage.Àtel point que le bois n'apparaît même pas au bilan des ressources énergétiques en usage.Pourtant, le «chauffage à bois» est encore passablement répandu dans les campagnes: au Québec, trois à quatre pour cent du bilan énergétique proviendrait de la forêt.La majorité des études récentes envisagent une augmentation significative du recours à l'énergie du bois, peut-être cinq pour cent de plus d'ici cinq ans.Il faudra néanmoins conjuguer les efforts du gouvernement et de l'industrie pour développer et promouvoir des techniques modernes d'utilisation du contenu énergétique des matières ligneuses.Les hausses périodiques des prix du pétrole et de l'électricité jouent évidemment en faveur d'une telle réorientation des politiques énergétiques, canadiennes et québécoises.L'industrie forestière a déjà saisi l'intérêt de la récupération du bois, puisqu'elle produit par la combustion des déchets d'opération près de 30 pour cent de l'énergie dont elle a besoin pour les procédés de chauffage, de fabrication de vapeur et, dans certains cas, de production d'électricité.DU BOIS LIQUIDE ET VERSATILE Pour une utilisation spécialisée de ce type, la combustion directe s'avère convenable et rentable du fait que le combustible est disponible à proximité du site d'utilisation.Une situation d'approvisionnement aussi avantageuse pourrait justifier la technique de la combustion directe du bois pour le chauffage de services % '002 ¦).I m m ¦ïrSï QUÉBEC SCIENCE / mai 1979 17 publics ou encore de maisons privées.Ce n'est toutefois pas le cas dans la grande majorité des villes ou des régions moyennement urbanisées.Une conversion du bois doit, par conséquent, être envisagée pour en faire une source d'énergie commode et versatile.Déjà, plusieurs procédés ont été mis au point pour extraire l'énergie du bois; la transformation en carburants gazeux ou liquides et en combustibles solides a déjà été effectuée, du moins à titre expérimental.Le rendement énergétique de ces techniques d'utilisation de l'énergie du bois est de beaucoup inférieur; à peine un tiers de l'énergie disponible reste alors récupérable.Par contre, les combustibles et les carburants obtenus peuvent s'adapter à des usages très variés.L'exempledu «bois liquide», le méthanol, est certainement le plus frappant.Une tonne de bois peut être convertie en un carburant liquide qui peut remplacer plus de 200 litres d'essence conventionnelle! Les premiers à se réjouir d'une telle performance sont sans doute les experts des transports, qui voyaient déjà le spectre de la panne, sèche et définitive, de l'automobile et de tous ses proches parents.L'enthousiasme ne manque doncpas.La recherche dans le domaine de la transformation en carburant liquide du bois et des déchets des industries connexes a pris énormément d'importance au cours des dernières années.On parle même du «miracle du méthanol», ce carburant capable de diminuer la dépendance vis-à-vis du pétrole.Presque simultanément, les ministères fédéraux et provinciaux, préoccupés par la mise en valeur des ressources forestières, ont réalisé et publié plusieurs études pour faire le point sur cette question.Des projets pilotes ont été entrepris dans plusieurs régions pour vérifier la pertinence des prévisions.Au Québec, une étude a été réalisée pour le compte de la Direction générale de l'énergie, par le Centre de recherche industrielle du Québec (CRIQ).Rendue publique récemment, l'étude du CRIQ es très optimiste quant à l'avenir du bois comme source d'énergie.Pour sa part, le ministère des Terres et Forêts a exploré les possibilités pratiques d'exploiter cette forme d'énergie au Québec.Certains sites sont présentement envisagés pour l’implantation, à court terme, d'une usine ?L'industrie de la coupe et de la récolte du bois laisse sur les lieux des opérations une importante masse de résidus, têtes d'arbres, branchages, troncs imparfaits, etc., qui peuvent être utilisés pour produire du méthanol.expérimentale de fabrication du méthanol de bois; ce sera peut-être le premier projet de la future société gouvernementale de promotion des énergies nouvelles.DU «BIO-FUEL» A L'HORIZON Selon l'étude du Centre de recherches industrielles du Québec, l'avenir du méthanol comme carburant est lié à la seule possibilité d'assurer une production massive et économique, puisque ce dérivé liquide du bois possède toutes les qualités essentielles requises d'un carburant.Ainsi, le méthanol peut se substituer aux carburants actuels les plus courants sans modification majeure de la technologie existante; l'infrastructure de transport et de manutention n'aurait même pas à être remplacée.Autre avantage intéressant: la pollution due à la combustion du méthanol reste inférieure à celle induite par les carburants conventionnels.L'utilisation du méthanol comme carburant n'est pas une nouveauté.Déjà, au milieu du 19e siècle, on s'en servait de façon courante en France pour la cuisine et le chauffage.Les alcools étaient aussi employés dans les véhicules au début du siècle, avant la venue de l'essence.L'Allemagne a eu recours au méthanol synthétique comme carburant, durant la deuxième guerre mondiale.Souvent, en situation de pénurie, on se tourne vers cette solution de remplacement.On en a vu des exemples en Amérique du Sud, en Afrique du Sud et à Cuba au cours de conflits internationaux.À court terme, on entrevoit la possibilité de mélanger le méthanol à l'essence, dans une proportion de cinq à 30 pour cent.Ce mélange a déjà servi de carburant pour automobile dans de nombreux essais.Un des plus connus et des plus complets a été réalisé en Allemagne; durant un an, une quarantaine de véhicules Volkswagen ont roulé avec un mélange de 15 pour cent de méthanol dans l'essence.Les résultats de ces tests sont extrêmement encourageants et les problèmes rencontrés ne semblent pas insurmontables, même dans des conditions climatiques rigoureuses.Quant à l’utilisation du méthanol à l'état pur, elle reste plus hypothétique du fait des modifications techniques que devront subir les moteurs des véhicules.Malgré cela, à long terme, le recours au méthanol pur semble préférable à l'utilisation d'un mélange.Les avantages d'un tel choix sont multiples.Ainsi les moteurs ajustés pour la consommation de méthanol pur offrent-ils des rendements énergétiques supérieurs à ceux des moteurs actuels; les résultats d'essais laissent présager des performances de l'ordre de 25 à 45 pour cent supérieures au niveau actuel.On comprend l'attrait de cette solution dans l'optique de la conservation de l'énergie.Et il ne faut pas oublier la «propreté écologique» de ces mécaniques.NOTRE AGENT ANTI-DÉTONANT AU QUÉBEC D'autres usages du méthanol dans le secteur des transports sont aussi envisagés.Depuis plusieurs années en Europe, on ajoute comme substance «anti-détonante» dans l'essence, en remplacement du plomb, le MTBE, un composé de méthanol et d'un autre hydrocarbure, l'isobutylène.Cet additif pour l'essence peut être mélangé dans des proportions de cinq à 20 pour cent au cours du processus de raffinage.Aucune complication majeure n'empêche donc le recours à cet agent anti-détonant, même au Québec.Une dernière façon d'utiliser le méthanol a été démontrée par une importante compagnie pétrolière.Il s'agit de convertir de façon catalytique le méthanol en essence synthétique; ce nouveau procédé permet de produire une essence à indice d'octane élevé à un coût légèrement supérieur à celui de l'essence conventionnelle.Subventionné par l'Agence américaine de recherche et de développement de l'énergie (ERDA), le procédé sera prochainement mis à l'essai dans une usine pilote du Massachusetts.Le Québec étant fortement dépendant de produits pétroliers importés à l'étranger, le marché potentiel du méthanol est énorme, surtout dans le secteur des transports.L'introduction devrait néanmoins s'effectuer de façon graduelle.Certaines hypothèses, notamment celles du CRIQ, entrevoient d'abord, peut-être au début des années 80, l'introduction de l'additif MTBE dans une proportion de dix pour cent.L'étape suivante serait celle du mélange à 15 pour cent de méthanol dans l'essence; les véhicules québécois pourraient alors consommer plus de 13 millions de litres de méthanol par an, production de trois grandes usines.Par contre, pour le moment, le remplacement total de l'essence par le méthanol pur reste du domaine de l'utopie, la technologie québécoise des transports étant complètement liée aux décisions américaines à ce chapitre.Et on est loin de penser que les voitures fabriquées aux États-Unis seront conçues pour le méthanol même au cours du siècle prochain.LA CHIMIE RAFFINÉE Chimiquement, le méthanol est un alcool méthylique incolore, inodore et très soluble; comme l'éthanol, il est déjà largement utilisé par l'industrie chimique, mais en quantités très faibles et non pas en tant que combustible.Ces alcools industriels sont actuellement produits principalement à partir de pétrole et de gaz naturel.Toutefois, la hausse du prix de ces produits pétroliers favorise leur remplacement par le charbon et les ma- Jean-Guy Faucher, Terres et Forêts 18 mai 1979 / QUÉBEC SCIENCE tières premières fournies par la biomasse.Dans le cas du bois, la transformation en méthanol a été retenue, à cause de sa nette supériorité sur la conversion en éthanol du point de vue du rendement.Pour une même quantité de bois, la conversion de la phase solide à l'alcool laissera deux fois plus de méthanol que l'éthanol.La fabrication à grande échelle de méthanol à partir des produits du bois repose sur des techniques déjà bien connues.Le processus de conversion suppose un procédé en trois étapes essentielles: la gazéification du bois, la modification du gaz produit, et sa liquéfaction.La gazéification est une réaction chimique complexe se produisant lorsque l'on chauffe une matière organique dans un milieu pauvre en oxygène.Il existe plusieurs autres procédés de synthèse du «gaz de bois», tels que la pyrolyse ou l'hydrogazéification.La gazéification a néanmoins été choisie, du fait que les «gazéificateurs» alimentés à l'oxygène synthétisent le gaz le plus adapté à la production de méthanol.Les procédés de gazéification sans air se développent rapidement: déjà un procédé à four vertical est disponible sur le marché québécois.Conçu à l'origine pour letraitement des déchets municipaux, ce gazogène peut être facilement adapté pour recevoir du bois.On pense également que d'ici deux à trois ans, des procédés spécialement conçus pour le bois comme matière première se révéleront plus adaptés à la gazéification de cette forme de biomasse.L'étape intermédiaire de production du méthanol vise la modification du gaz produit: on comprime ce dernier et on en extrait les impuretés.Par la suite, on le traite pour obtenir les proportions exactes d'hydrogène et de monoxyde de carbone, nécessaires à la synthèse du méthanol.Plusieurs techniques sont au point pour effectuer ce traitement.La plus simple ne requiert l'introduction d'aucune matière première supplémentaire après la gazéification: on se contente de manipuler les gaz déjà présents dans le gazéificateur.Deux autres voies, dites hybrides, supposent l'addition de méthane ou d'hydrogène pour faciliter le traitement du gaz et surtout pour en augmenter considérablement le rendement.L'efficacité de ces procédés reste néanmoins liée à la facilité d'approvisionnement en méthane ou en hydrogène.La liquéfaction du gaz de synthèse en méthanol est enfin effectuée par des méthodes industrielles courantes, faisant intervenir des catalyseurs spécifiques et nécessitant des pressions élevées.Déjà en opération pour la fabrication de méthanol destiné à des usages chimiques — par exemple des solvants, des subs- tances fumigènes, des plastiques ou des produits pharmaceutiques —, ces méthodes peuvent être facilement ajustées pour produire du méthanol combustible.LA COURSE AUX RESTES Le taux de rendement global de la conversion du bois en méthanol s'établit à peu près à 40 pour cent, en tenant compte de l'énergie requise par l'ensemble du procédé.Ce pourcentage peut varier quelque peu, d'abord selon la technique de traitement utilisée, et surtout compte tenu de la situation géographique de la région où l'on récoltera la matière première.Théoriquement, la biomasse forestière est largement disponible dans toutes les régions.Toutefois, cette ressource renouvelable est déjà exploitée en grande partie par les industries du papier ou du sciage.La mise en valeur des ressources forestières à des fins énergétiques devra donc s'accommoder de la seule part encore inexploitée de la forêt.Heureusement, cette fraction disponible de biomasse forestière est loin d'être négligeable, bien que difficile à évaluer précisément.D'une part, l'industrie de la coupe et de la récolte du bois laisse sur les lieux des opérations une importante masse de résidus: têtes d'arbres, branchages, troncs imparfaits, etc.Les plus récentes évaluations indiquent un taux minimum d'abandon de l'ordre de 50 à 60 pour cent.De plus, seules quelques essences d'arbres ont une valeur commerciale et sont actuellement exploitées.Le bois «non marchand» comprend aussi les arbres des essences commerciales encore trop petits au moment de l'opération des chantiers: leur volume total serait même supérieur à la masse exploitée pour le commerce.Enfin, certaines régions présentent un potentiel insuffisant pour une exploitation commerciale intensive aux fins industrielles ordinaires: la récolte de bois y est ainsi inférieure à la production de biomasse par régénération.En plus de ces résidus de forêt, on peut aussi compter les résidus d'usine (écorces, sciures, copeaux) accompagnant la fabrication du papier ou du bois d'œuvre.Ces derniers sont, par contre, de plus en plus récupérés et recyclés en produits divers tels que des panneaux de particules agglomérées, des litières agricoles et même des aliments animaux.Certaines papeteries réutilisent systématiquement ces déchets pour la production de chaleur: de cette façon, elles diminuent significativement des factures d'énergie.Des évaluations assez précises des disponibilités ont été effectuées dans le cas des forêts canadiennes.On peut en extraire quelques indications pour le Québec.Les auteurs d'une étude effectuée pour Pêches et Environnement Canada ont ainsi identifié cinq zones de surplus forestiers, ayant une capacité Les résidus d'usine, tels que les sciures ou l'écorce, sont de plus en plus récupérés et recyclés en produits divers.Certaines papeteries réutilisent systématiquement ces déchets pour la production de chaleur. QUÉBEC SCIENCE / mai 1979 19 Schéma du procédé PUROX: gaz combustible auge pour les ordures chambre d'alimentation gaz extrait série de gaz nettoyeurs fourneau à cuve verticale — recyclage oxygène -fc- zone de combustion' matière en fusion eau résiduaire refroidisseur à l'eau résidu granulé Déjà on peut transformer les résidus solides des eaux d'égouts en gaz combustible, le méthanol, par un procédé d'oxydation partielle, comme le système Purox mis au point par la compagnie Union Carbide.Cette compagnie envisage maintenant d'adapter ce procédé à la transformation du bois en gaz combustible.suffisante pour alimenter une usine de fabrication de méthanol.La Côte-Nord, le lac Saint-Jean, le Nord-Ouest québécois, la vallée de LOutaouais et le secteur de Montréal offrent de tels avantages.Sur un potentiel théoriquement inexploité d'environ cinq millions de tonnes de biomasse forestière, ces mêmes experts ont déterminé une masse de surplus, commercialement exploitables à des fins énergétiques, de l'ordre de 7 500 tonnes annuellement.DES PLANTATIONS ÉNERGÉTIQUES Fait important, le méthanol extrait de ces ressources en bois, par les techniques actuelles, serait en mesure de répondre à tous les besoins à long terme dans le secteur québécois des transports.Les prévisions sont aussi très optimistes du point de vue de la rentabilité d'une telle transformation.Déjà, dans certaines régions, par exemple l'Est du Québec, l'opération d'usines de fabrication de méthanol pourrait être rentable.Évidemment, à la sortie de l'usine, le prix du carburant biologique (environ $0.15 par litre) resterait encore supérieur à celui du pétrole importé.Toutefois, la hausse constante du prix du pétrole importé favoriserait l'introduction graduelle du méthanol sur le marché des carburants.Au cours des dernières années, la possibilité de consacrer des sols à des plantations forestières intensives à des fins énergétiques a aussi été envisagée.Les récents travaux dans ce domaine ont permis d'entrevoir des possibilités fort intéressantes, soit par la mise en valeur de zones actuellement inexploitées, soit par l'introduction d'espèces d'arbres particulièrement productives.On prévoit que, par des méthodes de gestion appropriées, on pourrait récolter cinq à dix fois la quantité de biomasse présentement récupérée par les techniques actuelles.Le principal avantage de ce concept de «plantation énergétique» est la réduction de la superficie nécessaire pour alimenter en bois un convertisseur énergétique, réduction qui se traduit en bénéfice économique significatif.L'ÈRE FORESTIÈRE?Les prévisions restent des prévisions.Les chiffres présentés ici, bien qu'utiles en tant qu'indications de l'intérêt énergétique de la biomasse forestière, restent très discutables.Ainsi, le prix du méthanol produit peut varier sensiblement si les coûts d'approvisionnement en bois et en résidus forestiers sont plus élevés que prévus.Toute estimation, si sommaire soit-elle, de la contribution possible de la biomasse forestière aux besoins énergétiques du Québec ne sert qu'à ajouter un éclairage aux décisions que devront prendre les responsables quant au déve- loppement de sources alternatives d'énergie.Les facteurs liés à ces décisions restent néanmoins fort complexes; la lunette d'analyse du problème risque même de changer l'approche.Ainsi, l'opportunité de transformer le bois en combustible alcoolisé est-elle évidente sous l'angle énergétique.Par contre, du point de vue de la mise en valeur de la biomasse forestière, la voie énergétique n'est peut-être pas la plus souhaitable.Au ministère de l'Énergie, la hausse accélérée des prix et lerisquedepénuries sont des réalités quotidiennes, des signes du déclin de l’ère du pétrole.La transition à des sources d'énergie non pétrolières apparaît ainsi nécessaire.Toutes les analyses le confirment jusqu'à maintenant: le méthanol semble aujourd'hui être le meilleur choix accessible comme carburant de substitution, à la fois techniquement et économiquement.Que faire d'autre alors que de recommander le développement accéléré de la filière biologique fondée sur les ressources forestières?L'éventuelle Société des énergies nouvelles, promise dans le livre blanc sur la politique de l'énergie, aura sûrement sa part dans une telle exploitation.Chez les experts du secteur forestier, le son de cloche est quelque peu différent.Tout en reconnaissant les avantages de l'utilisation énergétique du bois, on ne peut ignorer les autres débouchés pour la matière ligneuse, arbres ou résidus.Il existe d'innombrables sous-produits de l'arbre qui, bien utilisés, pourraient contribuer à une meilleure utilisation de la ressource forestière.Les pertes encourues par l'extraction d'une vaste gamme de produits chimiques des composantes du bois sont de loin inférieures à celles dues à sa transformation énergétique.Bien que fabriqués sur une base artisanale, des huiles, des cires, des tannins, des résines, des solvants, des vernis et même des protéines peuvent être synthétisés à partir du bois.Sans parler de sous-produits déjà fabriqués par certaines compagnies forestières, tels que le phénol, la rayonne, la térébenthine et la vanilline.Et la question ne s'arrête pas là! La transformation en méthanol n'estqu'une voie de récupération de l'énergie du bois.D'autres conversions pourraient, au cours des années, s'avérer plus souhaitables si l'on ne se limite pas à l'exigence d'un carburant liquide.La conversion directe en électricité et la fabrication d'un carburant gazeux sont deux exemples types de techniques de conversion prévues pour des usages autres que les transports motorisés.De la même façon, la disponibilité de matières renouvelables très diverses, autres que le bois, peut influencer la décision d'installer un gazé-ificateur sur un site plutôt qu'un autre.Ainsi, la paille et les déchets municipaux contiennent suffisamment de cellulose 20 mai 1 979 / QUÉBEC SCIENCE pour être ajoutés au bois comme matière première à la transformation en méthanol.Bref, les conclusions des rapports techniques sur l'avenir de l'énergie des arbres restent discrètes sur le choix d'un site ou d'une technologie spécifiques.Tous s'entendent néanmoins sur l'urgence de construire une usine-pilote de fabrication de méthanol, au moins pour pouvoir vérifier les suppositions des études théoriques et diminuer le haut degré d'incertitude entourant encore l'hypothèse du «bois liquide».À court terme, la seule rentabilité immédiate est insuffisante pour justifier la construction d'une usine de fabrication de méthanol.Par contre, les intentions du gouvernement au chapitre des énergies nouvelles, inscrites dans le livre blanc sur l'énergie, étaient claires.«Le potentiel énergétique théorique de la biomasse forestière est considérable.La production d'énergie à partir de déchets de coupe, d'écorce, de branches et d'essences non marchandes permettrait déjà de produire plus de dix pour cent des besoins énergétiques du Québec.» La voie du méthanol reste encore la plus prometteuse.Il faudra probablement attendre la Société des énergies nouvelles avant de voir apparaître la première usine québécoise de méthanol.MÉTHANOL QUÉBEC Dans un discours prononcé lors de la semaine des sciences forestières, à la fin de mars 1 979, le ministre des Terres et Forêts, M.Yves Bérubé, a levélevoilesur quelques intentions gouvernementales au chapitre de l'énergie du bois.Insistant sur les possibilités très diverses de mise en valeur de la biomasse forestière, le ministre situe l'«option méthanol» parmi toutes les utilisations possibles de cette énergie.Le recours au bois comme source directe de combustible précédera certai- DU METHANOL  DOMICILE La synthèse du méthanol, de l'avis des experts du CRIQ, requiert un matériel très coûteux et suppose une production à grande échelle dans des unités d'une capacité d'au moins quatre milliards de litres par an.Chacune des unités nécessiterait alors près de 100 hectares par jour de coupe (à 70 pour cent), soit environ 800 000 tonnes de bois.Le processus de fabrication du méthanol semble pour le moment trop industriel pour qu'on envisage des méthodes simples applicables à l'échelle domestique.Toutefois, seule l'étape de la liquéfaction du gaz de synthèse nécessite un équipement inaccessible à l'artisan.La production du gaz de bois, par contre, peut être envisagée à domicile: ceci suppose la fabrication d'un gazogène d'échelle réduite.De tels dispositifs ont déjà été construits en temps de guerre pour être adaptés à des voitures ou à des tracteurs de ferme.La conception d'un tel projet demande néanmoins une excellente connaissance du fonctionnement d'un gazogène.La compagnie Volvo a mis au point un générateur de gaz de bois qui peut être installée sur des autos, camions, autobus et tracteurs.Canadian Renewable Energy nement sa transformation en carburants liquides.Déjà, à courtterme, au ministère des Terres et Forêts, on prévoit récolter le bois pour les besoins de chauffage et d'électricité de certaines industries: Ainsi, l'industrie des pâtes et papiers consume près de neuf pour cent de l'énergie utilisée au Québec, 25 pour cent de l'énergie requise par l'ensemble des industries.Dans les expériences en cours à la compagnie Rayonier de Port-Cartier, de même qu'aux usines de Domtar, à Quévillon et East Angus, on réalise déjà des économies d'énergie de l'ordre de 1 5 pour cent; on tend rapidement à doubler cette performance, suivant par là l'exemple d'industries américaines et canadiennes.Dans l'industrie du sciage, les expériences sont tout aussi prometteuses.Certains moulins pourraient sous peu satisfaire leurs besoins en électricité à l'aide d'usines thermiques alimentées par les déchets de production.Quant à la transformation en méthanol, elle devra pour le moment se suffire des résidus forestiers non déjà exploités autrement.Dans l'optique de l'addition de méthanol à l'essence dans une proportion de 15 pour cent, le Québec pourrait produire en 1980 près de 1,5 milliard de litres de méthanol pour remplacer une partie du pétrole importé.À cause des difficultés techniques, le ministère des Terres et Forêts hésite encore à se lancer dans la production à grande échelle de méthanol de bois.De plus, en comparaison de la production directe de chaleur ou d'électricité par la combustion du bois, la fabrication de méthanol reste encore loin du seuil de rentabilité.L'action gouvernementale actuelle concernant le méthanol, aux dires du ministre des Terres et Forêts, devra donc se limiter à la mise en place d'une seule usine-pilote à échelle réelle pour pouvoir toucher de plus près les avantages et les inconvénients, les obstacles et les possibilités de la mise en marché du méthanol dérivé de la biomasse forestière.Pour en lire plus: Fabrication et utilisation du méthanol de bois, étude réalisée par le CRIQ, Québec, mai 1 978 L'énergie des arbres, une évaluation du potentiel énergétique de la biomasse forestière au Canada, (Rapport ER 78-IF) Énergie, Mines et Resources Canada, Ottawa,) 1978 Combustibles liquides tirés des ressources renouvelables: étude de faisabilité (résumé et conclusions), Pêches et Environnement Canada, Ottawa, mai 1978 Utilisation de la biomasse forestière et des déchets de l'industrie forestière pour produire et économiser de l'énergie.Pêches et Environnement Canada, Ottawa, 1976 QUEBEC SCIENCE / mai 1979 21 LE SYNDROME DE THREE MILE ISLAND Malgré leurs deux tonnes de rapports de sécurité, les experts nucléaires ont été pris au dépourvu.Et une simple bulle, qu’on n’a jamais su prévoir ni contrôler, nous a amené à deux doigts de la catastrophe.par Jean-Pierre Rogel envoyé spécial à Harrisburg C'est une très petite pompe qui a fait défaut, ce 28 mars vers 4 h du matin, alors que l'unité numéro deux de la centrale de Three Mile Island, en Pennsylvanie, fonctionnait à 97 pour cent de sa puissance.C'est même, selon un des ingénieurs de la Metropolitan Edison, «une ridicule petite pompe à eau, dans le fond».Le problème, c'est que le ridicule petit bruit qu'a dû faire cette ridicule petite pompe lorsqu'elle a arrêté de fonctionner a déclenché le pire accident de l'histoire commerciale de l'industrie nucléaire.Et que cet accident pourrait fort bien marquer un point tournant — un point d'arrêt —dans le développement de l'énergie nucléaire, du moins chez nos voisins du Sud.Dimensions.Tout est question de dimensions, à Three Mile Island.D'abord ces tours immenses qui, de l'autre rive de la rivière Sasquehanna, semblent vouloir vous écraser tant elles dominent la scène.Et puis, entre les tours, ces six bâtiments bien modestes en apparence, quatre boîtes plates et deux cylindres de béton.Les cylindres sont les bâtiments abritant les réacteurs nucléaires.Ils paraissent très petits à côté des tours, mais on aurait tort de les sous-estimer: hauts comme des immeubles de douze étages, ils font 65 mètres de haut et 45 de large.Juste derrière eux, le bâtiment qui abrite les turbines n'a que 30 mètres de haut et celui qui se tient à ses côtés en fait 1 2 de haut: c'est un bâtiment auxiliaire destiné à recevoir l'eau de refroidissement lorsqu'on vide le réacteur.DEUX AIMS DE TRAVAIL Il est important de saisir ces dimensions, car cela permet de comprendre l'ampleur des dégâts.Quand les responsables expliquent que les cuves du bâtiment auxi- À la pointe de la flèche, le réacteur numéro deux de la centrale de Three Mile Island, entre les gigantesques tours de refroidissement de plus de 120 mètres de haut.* AP Laserphoto 22 mai 1979 / QUÉBEC SCIENCE LES COBAYES DE PENNSYLVANIE La grande presse a beaucoup parlé des mesures d'évacuation et des risques des émanations radioactives pour la santé.C'est un aspect spectaculaire mais paradoxalement extrêmement difficile à évaluer (plus que l'état d'un réacteur) et les informations disponibles sur place étaient très fragmentaires.Paradoxalement encore, c'est une situation qu'il faut suivre sur dix ou vingt ans, et non au jour le jour.De façon générale, il convient toujours de garder en mémoire certaines distinctions essentielles dans ce débat.«C'est un peu comme la règle de Laswell, expliquait un médecin avec un clin d'œil aux journalistes: Qui dit quoi à qui par quel canal?Eh bien, dans ce cas, il faut toujours se demander: quels radioéléments, en provenance de quelle source, s'attaquant à quelle cible, pendant combien de temps?» Les substances émettant des particules alpha et bêta, par exemple, ont des effets différents de celles émettant des rayons X ou des rayons gamma.De plus, les organismes les absorbent différemment, et par voies différentes.Dans l'écosystème, le phénomène de concentration dans la chaîne alimentaire est aussi à considérer.Toutes ces raisons expliquent d'ailleurs pourquoi on mesure généralement en rems, une unité de mesure de l'étendue des dommages biologiques causés à l'homme, les effets d'une substance radioactive, plutôt qu'en intensité de radioactivité.Cette unité est le Curie, tandis que le Roentgen est une unité d'exposition.Rem veut dire Roentgen Equivalent in Man (Rem).Les gaz qui se sont échappés à Three Mile Island sont principalement de l'iode 131, du xénon 133 et du krypton 85.Le plus dangereux est l'iode 131 à cause de sa capacité de se concentrer dans la glande thyroïde des enfants.De plus, l'iode 1 31 passe facilement dans la chaîne alimentaire: de l'herbe à la vache, puis au lait et à l'homme.Les experts de la FDA Food and Drug Administration) en mesuraient des traces dans le lait dès le 2 avril: de l'ordre de 10 à 20 picoruries par litre, avec une mesure atteignant 41 picocuries dans un échantillon d'un litre.Soulignant que la FDA n'intervenait pas avant que sa propre norme, qui est de 12 000 picocuries par litre, soit dépassée, le Dr Denton concluait le 3 avril qu'il ne considérait pas ces niveaux comme alarmants.Il soulignait aussi qu'il s'agissait de gaz à demi-vie courte, à l'exception, il est vrai, du krypton 85 dont la demi-vie est de 1 0,4 années; du xénon 1 33, de demi-vie de 5,27 jours; du krypton 87, d'une demi-vie de 25 minutes.Mais ceci se passait le 3 avril.Depuis, les produits de fission et d'activation ont dû se manifester dans les rejets gazeux ou liquides.Souvent, il s'agit de substances à demi-vie plus longue, comme le stontium 90, qui se fixe sur les os, à surveiller de très près même s'il s'agit de doses minimes.Car la radioactivité reçue par l'organisme est cumulative.Surtout, on ne connaît pas de seuil minimal.Même de très petites doses absorbées sur une longue période de temps peuvent s'avérer dangereuses pour la santé.Nous recevons peut-être en moyenne, en Amérique du Nord, environ 200 millirems de source naturelle et artificielle par an, mais nous ne savons pas si le 202ième ou le 207ième millirem aura ou n'aura pas des effets différents, beaucoup plus nocifs que les autres.Qu'elles soient de source naturelle ou artificielle, les radiations ont les mêmes effets sur les cellules humaines.Des perturbations profondes peuvent être introduites dans ces cellules, la formule sanguine peut être modifiée, de petites mutations peuvent être induites dans l'ADN lorsque les cellules sont heurtées par les ions.Cela signifie concrètement que les rayonnements ionisants, en bousculant le code génétique, peuvent provoquer des déformations congénitales ou bien encore — bien que la question ne soit pas prouvée et soit très débattue — induire le cancer ou la leucémie.Quoi qu'il en soit, ces dommages sont irréversibles, et n'apparaissent qu'après un certain temps, de cinq à vingt ans.Le Dr Denton de la NRC estime que «pas plus de 1 00 millirems au total n'ont été absorbés par qui que ce soit du public lors de cette crise, à l'extérieur de la centrale».Le Dr Charles Meinhold, du Laboratoire national de Brookhaven, exprimait l'avis que la dose moyenne, en excès des radiations naturelles, qui sera reçue par les habitants de Pennsylvanie vivant dans un rayon de dix kilomètres de la centrale, ne dépassera pas la dose annuelle «normale» de 200 millirems (1 00 étant d'origine naturelle, 100 d'origine artificielle, principalement médicale).Un médecin présent à Middletown hasarderait quant à lui «un chiffre variant entre 400 à 1 200 millirems, d'ici mars 1980, soit d'ici un an».Avec l'inconnue des seuils et des mécanismes de concentration dans la chaîne alimentaire, qui seront à observer de très près dans les mois qui viennent, ces batailles de chiffres sont un peu trompeuses.On pourrait plutôt considérer, comme le prix Nobel George Wald «qu'en matière de radiations, toute dose est une surdose».Ou bien encore qu'en l'absence de toute démonstration formelle que de très faibles doses n'induisent pas sur une longue période des cancers, leucémies ou des mutations, les normes maximales actuellement en vigueur (500 millirems par an pour le public en général, 5 000 millirems pour les travailleurs du nucléaire, qui sont soumis en principe à des programmes de décontamination) doivent rester en vigueur.Ou bien encore, et pour les mêmes raisons, qu'on doit les renforcer de façon significative.Après Three Mile Island, il faut prévoir que la remise en question de ces normes sera envisagée.Un consensus pourrait se dégager pour qu’on les abaisse et qu'on limite par la même occasion les usages médicaux abusifs des rayons X, ainsi que l'utilisation de certains gadgets radioactifs fonctionnant, comme les détecteurs de fumée, à l'américium radioactif.Pour le reste, hélas, il faudra surveiller de près les cobayes malgré eux de Pennsylvanie et d'ailleurs.Et revenir enquêter dans dix ou vingt ans pour voir s'il y a une augmentation significative du taux de cancers, leucémies et malformations congénitales. QUÉBEC SCIENCE / mai 1979 23 Maire sont «pleines à ras bord», on comprend qu'il s'agit de centaines de milliers de litres.Et de fait, la décharge discrète autorisée par la Commission de réglementation nucléaire (NRC), maître d'œuvre sur les lieux, le 29 mars, portait sur près de 200 000 litres «légèrement radioactifs».Lorsqu'on apprend que le surlendemain, ces cuves débordaient à nouveau, on comprend qu'en fait on parle d'un total de près d'un million de litres d'eau contaminée.Quand les ingénieurs expliquent en outre que pour décontaminer le réacteur, il faut pénétrer à l'intérieur, ce dont il ne sera pas question avant plusieurs jours après l'arrêt complet du réacteur, soulever le couvercle du cœur proprement dit (une pièce de 14 mètres de haut, blindée d'acier et de béton), et retirer les barres de combustible du cœur du réacteur, on comprend qu'il s'agit d'une opération d'envergure.Les experts envisagent de submerger le cœur d'eau pour réaliser cette opération, et la conséquence est évidemment qu'ils créeront une gigantesque piscine circulaire de 1 2 mètres de diamètre et de 18 mètres de profondeur.À nouveau, des milliers de litres d'eau à filtrer, refiltrer, épurer.Pour soulever le couvercle du cœur, on utili sera une grue et des grappins pour tirer les barres de combustible.Mais un bon nombre de ces 175 groupes de barres, de 25 à 50 groupes environ, sont très endommagées: tordues, fondues, brisées, elles risquent de s'émietter au fond du réacteur.«Il n'existe pas de technique pour récupérer des barres de combustible endommagées à ce point», avoue Robert Bernero, directeur-adjoint de la section «matériaux» à la NRC, «il faudra en inventer une».«Lorsqu'on parle de décontamination complète, on parle en termes, non de jours et de semaines, mais d'une ou deux années au moins», souligne-t-il.Pour la grande presse pourtant, au moment où nous quittons Middletown et «Nous survivrons» proclame, au plus fort de la crise, un panneau placé devant le poste de pompiers de Highspire, à cinq kilomètres de la centrale de Three Mile Island.Centre de la crise, T hôte! de ville de Middletown était assailli par une meute d'environ deux cents journalistes venus du monde entier.Dès qu'un expert de la Commission de contrôle sortait des bureaux improvisés dans les arrière-salles, les questions pressantes pleuvaient.Ici, Robert Bernero, directeur-adjoint de la section «sécurité des matériaux» à la NRC répond aux questions.écrivons ces lignes, au soir du 3 avril, tout est terminé.Les principaux dangers sont écartés, le réacteur est en phase 1 de refroidissement et devrait atteindre l'arrêt complet d'ici quelques jours si tout va bien.La vie va reprendre son cours normal dans la région de Harrisburg, l'évacuation massive n'aura pas eu lieu, les niveaux d'émissions radioactives à l'extérieur sont faibles (on oublie cependant de préciser qu'on commence à déceler des traces de substances à demi-vie longue, plus dangereuses, comme le strontium 90 et le cobalt 60).Pour les ingénieurs et les experts de la NRC — qui après les premières bourdes de la «Met Ed» ont pris les commandes à la centrale — la crise est cependant loin d'être résolue.Il va falloir évacuer la radioactivité intense mesurée à l'intérieur, il va falloir décontaminer, il va falloir examiner le cœur.Cela, comme nous le soulignions, est une question de mois plutôt que de semaines.À tel point que lorsque les analyses physiques et chimiques seront achevées, on pourrait décider, une fois la radioactivité réduite, de sceller le réacteur une bonne fois pour toutes et le laisser là.Three Mile Island - aurait alors accouché, selon le mot du ® sénateur Hart, «d'un mausolée d'un mils' liard de dollars», un vaste cimetière de c béton contaminé, entouré de fils de fer I barbelés.UN DÉDALE DE TUYAUX Un schéma d'une centrale nucléaire à eau sous pression est relativement simple.Dans un réacteur blindé d'acier, des faisceaux de barres remplies de billes de bioxyde d'uranium sont amenés si proche les uns des autres que les neutrons émis spontanément par les atomes radioactifs heurtent les atomes voisins et se mettent à les casser, ce qui libère plus de neutrons encore et démarre la réaction en chaîne.Les barres de combustible se mettent à chauffer et sont refroidies par un circuit d'eau.Ce premier circuit est sous une forte pression, qui empêche l'eau de s'évaporer et la maintient donc à l'état liquide.Ce circuit primaire scellé cède sa chaleur à un circuit secondaire qui aboutit à un générateur de vapeur (deux dans le cas de Three Mile Island), qui entraîne des turbines, qui, à leur tour, actionnent le générateur, et le tour est joué.L’eau est refroidie dans des tours et retournée dans l'atmosphère et à la rivière, où de l'eau froide est pompée pour être réintroduite à nouveau dans le système.Le principe est simple, mais la réalité d'une telle centrale nucléaire est complexe.C'est un dédale de tuyaux, de valves, de pompes, de chambres sous pressions diverses et de machinerie.Un cauchemar pour plombiers.Ce qui s'est passé au matin du 28 mars, c'est une défaillance de la pompe principale d'alimentation en eau du circuit secondaire.Le rapport préliminaire d'enquête de la Commission de réglementation nucléaire américaine, la NRC, est peu précis quant à l'origine exacte de cette défaillance, mais Edson Case, expert de la NRC, a déclaré à NewsWeek que «quelqu'un était en train de jouer dans le système d'alimentation en eau.Quoi qu'il ait fait Jean-Guy Lebel 24 mai 1979 / QUÉBEC SCIENCE là-dedans, le résultat a été que la pompe s'est retrouvée hors circuit.» La turbine a alors ralenti, mais le réacteur a continué à produire de la chaleur, alors que la pression et la chaleur ont subitement augmenté dans le circuit primaire du réacteur, au-delà des conditions normales (305°C à 14 860 kilopascals ou 2 1 55 psi).L'ouverture automatique d'une valve dans le pressuriseur a permis une accalmie dans cette escalade, mais la fermeture de la valve ne s'est pas faite par la suite, pour une raison qu'il reste à déterminer.L'eau radioactive venant du réacteur a alors coulé vers un réservoir de déversement, situé à la base de la centrale.La pression a atteint des seuils critiques, des gaz se sont échappés, le réservoir a débordé.À 11 000 kilopascals (1 600 psi) de pression, le système d'urgence de refroidissement du cœur (Emergency Core Cooling System, ECCS) s'est déclenché.«Toutes ses composantes ont fonc- tionné normalement», dit le rapport préliminaire de la NRC.À ceci près que, pour des raisons obscures — pour arrêter la montée de l'eau dans le pressuriseur?— quelqu'un prend la décision d'arrêter manuellement le système d'urgence, le ECCS.On le repart cinq minutes après, mais le réacteur a eu le temps de surchauffer.Une fissure s'est déclarée dans le générateur de vapeur B (qui, dès lors, sera inutilisable).Les barres de combustible ont été endommagées, certaines ont peut-être fondu, d'autres émanations radioactives se sont échappées dans le bâtiment-réacteur, et s'échappent maintenant dans le bâtiment auxiliaire.«Vers 7 h, une haute radioactivité est décelée près des tuyaux du système secondaire (environ 600 millirems par heure).«Une urgence sur les lieux est alors déclarée», dit laconiquement le rapport, qui ne précise pas pourquoi cette urgence sur les lieux a été déclarée seulement trois heures après le Dès le lendemain de la crise, /77e entière de Three Mile Island sera interdite d'accès, sauf aux ouvriers de la centrale.Et au président Carter, qui la visitera.pendant 23 minutes, et en passant du côté non exposé aux radiations du bâtiment auxiliaire.Son dosimètre mesurera tout de même 42 millirems à la fin des 23 minutes.début de l'accident.«À environ 7 h 30, une urgence générale est déclarée, sur la base de lectures de radiations élevées dans le bâtiment», poursuit le rapport.«Le centre d'alerte de la région 1 a été mis en branle (activated) à 8 h 10 et des communications directes ont été établies entre le détenteur de licence (Metropolitan Edison) et le quartier général de la NRC.L'équipe de secours est partie à 8 h 45 et est arrivée sur les lieux à 10 h 05.» Six heures se sont déjà écoulées depuis la défaillance de la fameuse pompe.Six heures critiques sur lesquelles la commission d'enquête de la NRC devra faire la lumière, et la compagnie Metropolitan Edison s'expliquer plus clairement.UN PANACHE BLANC Dès le début de l'emballement du réacteur, les ingénieurs ont rapidement arrêté la réaction en chaîne en faisant descendre dans le cœur les barres de contrôle qui absorbent les flux de neutrons passant d'une barre de combustible à l'autre.La réaction en chaîne a donc été arrêtée comme il se doit.Mais il faut encore évacuer la - chaleur résiduelle,, assez élevée pour vaporiser une tonne d'eau, à pression atmosphérique, en une seconde.De plus, il faut veiller aux processus de fission qui se poursuivent en dessous du seuil critique et à l'évacuation de toute cette radioactivité.À 3 h 30, le 28 mars, rapporte la NRC, le réacteur se refroidit lentement, mais est encore très chaud.Le pressuriseur, dont le niveau est bloqué au maximum depuis ce matin, fonctionne à nouveau; le niveau est très élevé cependant.Une bulle d'hydrogène s'est résorbée dans une boucle du système de refroidissement et on a aligné la deuxième centrale de Three Mile Island pour créer un vide dans le condensateur principal et utiliser le générateur de vapeur A pour évacuer la chaleur.Ce mode d'opération, lent maissommetoute prudent, sera maintenu dans lesjoursqui suivent.À ce stade, ce sont les émanations radioactives qui retiennent beaucoup l'attention.En plus des 200000 litres d'eau contaminée déversés dans le bâtiment secondaire — une pompe, une autre, s'était mise en frais de transvider cette eau de la cuve située à la base du bâtiment réacteur dans le bâtiment voisin, on ne sait trop pourquoi — des gaz s'échappent de ce bâtiment par une petite cheminée de deux mètres de haut sur le côté.Le panache defumée blanche qui s'élève de la centrale, de ce bâtiment et des tours, révèle, vers 4 h de l'après-midi, la présence de gaz radioactifs comme le krypton et l'argon.L'iode 131 est aussi présent, qui se concentre facilement dans la chaîne alimentaire, de l'herbe à la vache, au lait et à l'homme, dans ce pays agricole.Heureusement, les vaches se nourrissent encore à l'étable à ce temps-ci de l'année.Le taux moyen de radioactivité du nuage est de cinq à sept millirems par heure.Ce n'est pas dramatique, mais c'est tout à fait suffisant pour s'inquiéter.Le lendemain, les émanations de gaz n'ont pas cessé.Un capteur mesure même jusqu'à 1 200 millirems par heure dans la fumée au-dessus de la centrale.Les niveaux au sol atteignent jusqu'à 25 millirems par heure en dedans d'un rayon de cinq kilomètres.La NRC conseille au gouverneur de Pennsylvanie l'évacuation des femmes enceintes et des enfants en bas âge dans un rayon de cinq kilomètres, des mesures de précaution dans un rayon de 1 5 kilomètres.On parle de plans d'évacuation préventive vendredi alors que les mesures de radioactivité sont stables.L'attention des media, captée par cet aspect spectaculaire, se détourne du sort du réacteur.Mais c'est là pourtant que tout se joue. QUÉBEC SCIENCE / mai 1979 25 JL.Dans le bâtiment-réacteur, en effet, des masses de gaz s'accumulent sous le dôme, en un gros ballon radioactif.À cause de la présence massive de gaz très radioactifs, il est exclu de les libérer dans l'atmosphère; il faut plutôt les condenser, les liquéfier et les évacuer par le bas.Mais ce qui est plus dangereux, c'est la présence d'une bulle de grande taille (42,5 m3) dans le cœur du réacteur.Sa teneur en hydrogène, grandissante, la rend potentiellement explosive, rapprochant le danger de fusion du cœur — l'accident «maximal» qui voit les 100 tonnes de combustible percer le fond de la cuve et s'enfoncer dans le sol.La bulle provient de deux sources: des gaz non condensables issus du combustible endommagé, et de la décomposition radio-lytique de l'eau.Dans un cas, un mélange de gaz rares s'est échappé des barres fondues — dix pour cent des barres le 29 mars, puis 20 pour cent le 30, 25 pour cent le 3 avril, reconnaissait la NRC —; dans un autre, les tubes de zirconium, chauffés jusqu'à fusion partielle, réagissent avec l'eau alentour, se liant chimiquement avec l'oxygène de l'eau et libérant l'hydrogène.Le gaz remonte vers le haut du réacteur, où il s'accumule en une bulle avec d'autres gaz.Ces autres gaz ne posent pas de problème, à l'exception de l'oxygène; à un certain volume, celui-ci risque de se recombiner avec l'hydrogène en une explosion chimique qui n'a rien de «nucléaire», contrairement à ce qu'annoncera la presse, mais peut déclencher la fusion en exposant le cœur du réacteur.Le dimanche soir, on passe à deux doigts de cette explosion.La situation a paralysé les experts.Diverses voies seront envisagées pour réduire la taille de la bulle, mais personne n'osera en choisir une tant elles s'avéreront toutes dangereuses.Finalement — et c'est Torn Elsasser de la NRC qui le reconnaîtra — «le temps a joué pour nous.Nous avons laissé faire la méthode la plus simple, qui est d'accélérer légèrement la circulation de l'eau pour que celle-ci re-capture du gaz au passage, petit à petit.» La bulle s'est résorbée, mais on peut affirmer que la prudence et la chance, seules, en ont eu raison.UN MANUEL MUET Cette histoire de bulle mérite qu'on s'y arrête.Au plus fort de la crise, elle a tenu tout le monde en haleine, journalistes, experts et grand public.Or, si on a prévu l'existence de bulles dans d'autres parties du système, on n'avait jamais prévu son existence dans le cœur du réacteur.Le mouvement continuel de l'eau était censé l'empêcher de se former.Pour les manuels de sécurité des réacteurs, elle n'existait même pas.Àtel point qu'au plus fort de la crise, on pouvait voir des ingénieurs nucléaires, aussi décon- tenancés que les journalistes pour lesquels tout cela était du chinois, consulter fébrilement, dans un coin de l'hôtel de ville de Middletown transformé en centre de presse, le gros manuel en quatre tomes et faisant dix centimètres d’épaisseur du constructeur, Babcock and Wilcox: la bulle du réacteur n'y figurait pas, nulle part.Ceci illustre à quel point l'accident de Three Mile Island a pris les experts de court.La prudence et la compétence d'un Harold Denton, sa franchise à répondre aux questions, peuvent avoir convaincu: il n'y avait là rien d'un «coup politique»ou d'une crise «où on cache les vrais dangers à la population».Il n'empêche que tous les experts ont été pris au dépourvu et sont tombés de haut.Plus que toute critique, cet accident a balayé les conclusions des rapports de sécurité rassurants, le fameux rapport Rasmussen en tête.L'industrie nucléaire a perdu une couverture facile, les anti-nucléaires ont mis de l'eau à leur moulin.Mais derrière cela, il y a probablement un constat de faillite pour la technologie moderne de la sécurité des grandes installations, qu'elles soient nucléaires ou hydro-électriques.«Ces systèmes grands et complexes ne sont pas incontrôlables, mais notre expertise actuelle est limitée», reconnaissait Robert Ber-nero, de la NRC.«Les limites humaines sont trop fragiles, les failles que les erreurs humaines introduisent dans de tels systèmes sont béantes», souligne-t-il.Des propos significatifs, car au moins deux erreurs humaines ont été relevées lors de cet accident majeur: la fermeture manuelle, durant cinq minutes, du système de refroidissement de secours, et le «taponnage» initial des pompes qui aurait tout déclenché, les mesures correctives étant intervenues trop tard.La solution Chaque jour, des dizaines de caméras de télévision venues des quatre coins du monde ont observé la centrale menaçante.«Si la centrale bouge, disait un cameraman d'une station de Harrisburg, ce sera sur film, on verra l'image trembler, à cause des vibrations du trépied».Jean-Guy Lebel Jean-Guy Lebel 26 mai 1979 / QUÉBEC SCIENCE ET LES CANDU?Ce n'est que l'été dernier que le voile sur les problèmes de sécurité des CANDU a commencé à se soulever.Et ce n'est guère que parce qu'un groupe anti-nucléaire a fait «couler» à la presse un certain nombre de documents internes de l'Énergie atomique du Canada (EACL) et de la Commission de contrôle (EACB), lors de la Commission Porter en Ontario, qu'on a commencé à entrevoir l'ampleur des problèmes de sécurité de ces CANDU.Depuis, on va de surprise en surprise, et d'inquiétude en inquiétude.Officiellement, le discours est ferme: les réacteurs CANDU canadiens, bouilloires à eau lourde et uranium naturel, sont beaucoup plus sécuritaires que les réacteurs à eau légère comme ceux de Three Mile Island.Il est vrai qu'ils possèdent un bâtiment-aspirateur, sous vide, qui empêcherait les rejets gazeux d'atteindre l'atmosphère environnante, encore qu'il faut souligner que les CANDU de la première génération, comme ceux de Gentilly I, Douglas Point et Rolphton, n'en possèdent pas.Il est vrai aussi que les problèmes de pression — donc, de tuyauterie et de plomberie — sont en principe moins importants dans les CANDU que dans les réacteurs à eau légère, et que la structure même des CANDU permet de retirer tout faisceau de barres de combustible défectueux sans qu'on soit obligé d'arrêter le réacteur.L'entretien est donc en principe plus facile.En outre, nombre de systèmes de sécurité de base sont doublés et automatisés.Les ingénieurs de l'EACL maintiennent qu'ils sont plus redondants que ceux des réacteurs PWR (eau sous pression) du type de Three Mile Island.Mais la réalité est moins impressionnante que ce discours.Passons sur les dizaines de petits incidents de plomberie qui ont affecté les premiers CANDU.Ils sont le lot de toute grosse installation productrice d'électricité, de toute chaudière qui a des centaines de pompes, valves et des kilomètres de tuyau.Plusieurs défauts ont été corrigés: des fissures dans les gaines de combustible en zirconium à Douglas Point, par exemple, il y a quatre ans.Des défauts dans un système de valves ont aussi été corrigés.Plus inquiétantes sont des révélations récentes, qui portent sur des défauts structurels et de construction importants.On a appris par exemple, à l'automne dernier, que la construction des réacteurs de Gentilly II et de Pointe Lepreau avait été arrêtée quelque temps, fin 1 977, à cause des inquiétudes de la Commission de contrôle au sujet d'un défaut dans les canalisations des générateurs de vapeur, qui, combiné à la défail- lance d'une autre partie du système, pourrait résulter à faire grimper la pression intérieure à un niveau excédant la résistance de l'enceinte de confinement.Cette inquiétude de la Commission de contrôle, qui avait demandé à l'EACL des études supplémentaires, semble apaisée depuis.Mais les défauts de construction des générateurs de vapeur refaisaient surface récemment.Près d'une cinquantaine de ces générateurs de vapeur, révélait Radio-Canada le 4 avril, présenteraient des défauts inquiétants: le bosselage des milliers de petits tubes qu'ils contiennent pourrait déboucher sur la perforation à l'usage, surtout à cause de la rouille.Assez curieusement, le constructeur de ces appareils importants est la firme Babcock et Wilcox, celle-là même qui a construit le réacteur de Three Mile Island.Par ailleurs, les problèmes du système de refroidissement d'urgence du cœur (ECSS), destiné à déverser des tonnes d'eau froide en cas d'emballement du réacteur, semblent assez sérieux, si on en croit les révélations faites à la commission Porter.Des analyses par ordinateur concernant les réacteurs de troisième génération de Bruce effectuées en 1 976 ont révélé que, dans certains cas de pertes de réfrigérant, même le système de refroidissement d'urgence n'empêcherait pas la stagnation du réfrigérant dans certains tubes de combustible.Cette stagnation, combinée avec une baisse de pression et une élévation de température, pourrait causer des dommages sérieux au combustible.Des fuites de gaz importantes se produiraient par les gaines de zirconium.La Commission de contrôle a pris les choses au sérieux, puisqu'elle a donné l'ordre à l'EACL de réduire la puissance en opération du réacteur de 208 MW de Douglas Point à 70 pour cent et qu'elle n'a donné la permission à l'Hydro-Ontario d'exploiter les tout nouveaux réacteurs de Bruce qu'à 85 pour cent de puissance et non 1 00 pour cent.Des modifications sont évidemment envisagées sur les réacteurs, à des coûts qui se chiffrent en millions de dollars.On en est donc là pour l'instant.C'est-à-dire, en fin de compte, assez loin de l'image rassurante que cherchent à projeter l'EACL et les défenseurs des CANDU.Après Three Mile Island, un débat de fond sur la sûreté des CANDU devrait permettre de tirer toutes ces questions au clair, dans lesquelles l'information officielle, que ce soit de l'EACL, de la Commission de contrôle ou de l'Hydro-Québec, parvient souvent aux media et au public au compte-gouttes. QUÉBEC SCIENCE / mai 1979 27 Ce jour-là, les vaches étaient à l'étable.Mais c'est pendant plusieurs mois qu'il va falloir surveiller l'apparition et la persistance de traces éventuelles d'éléments radioactifs dans le lait des vaches de la région.wu/ebfcd HOLSTEIN FRIESIAN GRAND VIEW FARMS C.S.ERB Ju k.'T'l est probablement de pousser l'automatisation, mais qui pourra empêcher que des hommes prennent des décisions dans ces gigantesques systèmes?Quel nouveau système doublant le système du système de sécurité principal, lui-même doublé, assurera la sécurité absolue?«C’est une quête sans fin», reconnaissait un ingénieur de Metropolitan Edison présent à Middletown.UN DÉBAT ÉCLATE Il reste, dans ce dossier, d'autres aspects troublants.Le 2 avril, la NRC ordonnait aux sept autres centrales utilisant des réacteurs construits par Babcock and Wilcox de faire rapport dans les dix jours sur certains détails techniques qu’on a noté dans l’accident de Three Mile Island, dans le but de remédier à d'éventuels défauts de structure.Action louable et apparemment énergique.Mais au même moment, Robert Pollard, expert atomiste du Union of Concerned Scientists, démontrait à Washington, devant un comité sénatorial que ces défauts de structure étaient connus et dénoncés par son groupe depuis quelque temps déjà.Les documents publiés de la NRC, derrière leur jargon tarabiscoté, exposaient en effet une remarquable série d’incidents dans ces réacteurs de Babcock et Wilcox, depuis au moins deux ans.S'il est vrai que l'industrie nucléaire devra répondre à certaines questions troublantes non résolues, la NRC aura donc aussi à s'expliquer sur ces faits.Ce que Three Mile Island aura apporté, finalement, c'est l'éclatement d'un débat sur le nucléaire et l'avenir énergétique que nous choisirons.Il reste à voir si ce débat se fera au Canada et particulièrement au Québec, en cette période de moratoire de deux ans.Autant l'EACL que la Commission de contrôle n'ont pas été très enclins à rendre le débat public jusqu'ici.Certaines études sur la sécurité restent inaccessibles ou contestables (voir notre rubrique sur le rapport Inhaber dans ce numéro) à bien des points de vue.Et si fission, fusion, millirems et strontium font maintenant partie de notre vocabulaire, c'est peut-être qu'il font partie de notre environnement culturel et technologique.Jamais la science n'aura été tant exposée qu'aujourd'hui, àtravers ces circonstances dramatiques.On ne saurait s'en plaindre, s'il y a des remises en question qui permettent un débat profond et dynamique.ALERTE ROUGE À plusieurs reprises, l'industrie nucléaire a évité que des accidents tournent en catastrophe.Toutefois certains accidents significatifs marquent l'évolution de ces trente ans de nucléaire en Amérique du Nord: Décembre 1949: Une explosion à la centrale expérimentale de Chalk River, en Ontario, tue un technicien qui manipulait des produits chimiques, et en blesse plusieurs autres.Décembre 1 952: Le réacteur expérimental NRXdeChalk Rivers'emballe, jusqu'à la fusion partielle du cœur du réacteur, qui perce la cuve.Il faudra 14 mois et des centaines de militaires pour décontaminer la centrale et reconstruire NRX.Un des spécialistes américains appelés sur les lieux était le président Jimmy Carter, alors jeune ingénieur atomiste.Janvier 1961: Un réacteur expérimental explose à Idaho Falls, tuant trois techniciens.Bien que le public n'ait pas été en danger, les radiations furent extrêmement élevées sur les lieux pendant des semaines.Octobre 1 966: Le cœur du surrégénérateur expérimental Enrico Fermi fond partiellement, alors que le système de refroidissement au sodium tombe en panne.L'accident est si grave qu'on pensa un moment devoir évacuer Détroit.Il faudra quatre ans pour repartir le réacteur.La centrale est aujourd'hui fermée définitivement.Mars 1975: La flamme de la chandelle d'un technicien qui vérifiait des circuits électriques déclenche un feu important à la centrale de Browns Ferry en Alabama.La pression dans le réacteur monte, le système de secours fonctionne mal, le réacteur est hors de contrôle pendant dix heures.Novembre 1977: Le réacteur Hanford de Richland dans l'ÉtatdeWashington doit être fermé temporairement après que 200000 litres d'eau contaminée sont déversés dans la rivière Columbia.Un mois après, une fuite de combustible cause la contamination de quatre ouvriers.Janvier 1 978: De l'hélium radioactif s'échappe pendant deux heures de la centrale de Saint-Vrain près de Denver, Colorado.Deux cents ouvriers sont évacués, les routes alentour sont bloquées dans un rayon de cinq kilomètres.Autour de l'usine, les niveaux de radiations sont de 20 à 30 fois la normale, et plusieurs employés sont contaminés.Avril 1978: Deux ouvriers sont sérieusement contaminés à la centrale nucléaire de Trojan en Oregon.La NRC trouve six violations graves aux règles de sécurité et condamne la compagnie à $20 000 d'amende. W- '—\ O ~V\ r~>i \ 1 i mi rf v.—> , ^—> n r ^ n / (vjj ^ P&-II- lYS rr«- ft ¦PI ! \ //| MpKte k"#£ il : 4 , ) Ajoutez -y votre pièce Morceau par morceau, le magazine QUÉBEC SCIENCE peut mettre fin au casse-tête qui est le vôtre devant la complexité des problèmes auxquels l'actualité vous confronte chaque jour.Ajoutez votre pièce en vous abonnant à QUÉBEC SCIENCE.Vous ferez partie de la grande mosaïque des lecteurs du magazine qui réussit à démêler tous les morceaux du puzzle et à rendre l'ensemble intelligible à tous.En ajoutant votre pièce, vous pourrez gagner l'une des cinq embarcations de fabrication entièrement québécoise offertes en prix.Prix offerts Non, nous ne vous montons pas un bateau.Voici les prix que vous pouvez gagner en vous abonnant (ou en vous réabonnant) à QUÉBEC SCIENCE: Premier prix: Un voilier LASER complet (une valeur de SI 375) Deuxième prix: Une embarcation LA PIROGUE (une valeur de $400) Troisième prix: Un canot d'eau vive D.B.R.SPORT (une valeur de $250) Quatrième prix: Un canot de lac D.B.R.SPORT (une valeur de $250) Cinquième prix: Un kayak D.B.R.SPORT (une valeur de $250) Règlements du concours Participants: Toute personne qui s'abonne, se réabonne ou recrute un nouvel abonné à QUÉBEC SCIENCE, a droit à une chance par année d'abonnement de gagner l'un des prix offerts (à l'exception de tout notre personnel, rédacteurs, représentants et fournisseurs).Durée du concours: Du premier avril au 30 juin 1 979.Tirage et remise des prix: Le tirage au sort sera effectué au cours du mois de juillet 1979.Les prix seront décernés de façon spécifique à chacun des gagnants et leur seront livrés gratuitement.J#ajoute ma pièce* ?en m'abonnant ou ?en me réabonnant à QUÉBEC SCIENCE ** 9 J mm au prix de $1 7.00 (pour 1 an / 1 2 numéros) pour .année(s).1 1 1 1 1 1 1 1 1 M 1 1 L L LJ L 1 1 II 1 1 1 1 1 1 1 .1 J 31 nom Il M 1 1 1 1 II M 1 M 1 1 1 1 1 1 1 60 61 prénom 80 LâJ U 7 8 1 1 1 1 1 1 1 1 1 1 1 1 i i i i i i i i i i 9 numéro rue 1 1 1 1 1 1 M 1 1 1 1 appartement 28 1.1 1 1 1 1 1 1 1 1 29 ville 1 1 .1 1 1 1 1 1 1 1 1 1 48 1 1 1 1 1 1 1 1 1 1 49 province ou pays 68 1 1 1 1 1 1 1 69 code postal 74 ?Chèque ou mandat postal ci-joint ?Veuillez me facturer Québec Science, C.P 250, Sillery, Québec G1T2R1 J'ajoute ma pièce* ?en faisant s'abonner 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 II 1 1 1 1 M 1 1 1 1 1 1 31 nom M 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 M 1 1 1 60 61 prénom 80 LU U 7 8 1 1 1 1 1 1 1 1 1 1 1 1 i i i i i i i i i i 9 numéro rue 1 1 1 1 1 1 1 1 1 1 1 1 appartement 28 1 1 1 1 1 1 1 1 1 1 J ! 29 ville 1 i il i i i i i i i i i 48 1 1 1 1 1 1 1 1 M H V 49 province ou pays I I I I II I 69 code postal 74 68 ?Chèque ou mandat postal ci-joint ?Veuillez me facturer Québec Science, C.P.250, Sillery, Québec GIT 2FT a lüOKtofa' i 1979 et au Canada seule/r 30 mai 1979 / QUÉBEC SCIENCE LES CHERCHEURS EN KAKI Discrète et efficace, l’armée canadienne cherche et innove.Les effectifs sont flous, les budgets fuyants, mais les armes sont modernes.par Luc Chartrand L'armée canadienne fait «quincaillerie neuve».D'ici 1 982, nos armements auront été remplacés à tous les paliers importants par du matériel hautement sophistiqué.La facture totale va vraisemblablement dépasser le cap des cinq milliards de dollars, soit la valeur de cinq parcs olympiques.Or, l'espérance de vie d'un stade est de quelques siècles; celle d'un avion de chasse est d'à peine 25 ans! Après dix ans d'un laisser-aller militaire qui commençait à inquiéter nos partenaires de l'OTAN, le Canada s'est résolu à enfoncer l'accélérateur de la course aux armements.«C'est la taxe que nous devons payer à la défense commune, dit le général Charles-Henri Belzile qui commande la base de Lahr en République fédérale allemande (RFA).Lorsqu'on s'embarque dans une alliance comme l'OTAN, on n'a pas le choix: chacun doity contribuer selon ses capacités.» Pour le contribuable canadien, la taxe de la défense dépasse maintenant les quatre milliards par année, dix pour cent de toutes les dépenses gouvernementales fédérales.Nous ne sommes évidemment pas les seuls embarqués dans cette galère.En mai dernier (1 978), les chefs de l'OTAN, réunis à Washington au lendemain de la conférence de l'ONU sur le désarmement, ont approuvé un nouveau programme de dépenses de 80 milliards pour la prochaine décennie.Les budgets de défense de chacun des alliés devront croître désormais de trois pour cent par année.On ne rit plus avec les Russes.L'effort du Canada ira avant tout fortifier nos troupes stationnées en Allemagne de l'Ouest.L'Alliance Atlantique vit sur un pied de guerre: le relâchement général dont le Canada fut l'un des principaux acteurs est chose du passé.L'automne dernier, les grandes manœuvres annuelles de l'OTAN ont impliqué 323 000 hommes de douze pays différents: un record.«Il y a pas mal longtemps que je suis dans le service, signale le général Belzile, et c'est la première fois que j'assiste à un essor matériel aussi important.» UN FREIN À L'AVANCE DES RUSSES Le but avoué d'une telle escalade, c'est bien sûr la réponse à une avance militaire trop agressive des Soviétiques.Les officiers n'attentent même plus les questions des journalistes.«Advenant une guerre classique en Europe centrale, dit-on, les forces du Pacte de Varsovie s'opposeraient à nous à deux et même à trois contre un.Les Russes dépensent onze ' éMzàm S ! S —‘te*» jùmti BsSCHnSlffl BaM H 'à as «w'y/ ¦%.• .Ù.mm 5mm tjxm ICE QUÉBEC SCIENCE / mai 1979 pour cent de leur produit national brut (PNB) à des fins militaires tandis que les États-Unis n'en consacrent que 5,5 pour cent.» Mais selon le général Belzile, «il y a d'autres indices d'agressivité.Le meilleur est sans doute le système doctrinaire du communisme international qui n'a jamais fait de grands secrets sur ses intentions.» Ce type d'arguments a de l'âge.Les généraux de Moscou sont d'ailleurs à même d'en servir une version à peine modifiée à leur population pour justifier une position contraire.Après tout, les Américains dépensent peut-être une portion deux fois moins grande de leur PNB en armements que les Soviétiques mais leur PNB est en revanche deux fois plus élevé.Le fameux processus «action-réaction» a été largement surestimé dans l'évaluation des causes de la course aux armements.Un haut-fonctionnaire américain, qui avait participé de près aux négociations sur les accords SALT, déclarait par la suite: «En général, ce qui se passe dans un camp est utilisé par l'autre comme argument pour faire ce qu’il ferait de toute façon.» Selon le dernier annuaire du Stockholm International Peace Research Institute (SIPRI), il se dépense un million de dollars à la minute dans le monde pour l'achat de nouveaux armements.Il y a nécessairement des gens pour qui cette activité est rentable.La dernière guerre mondiale a fait naître au sein des pays développés une infrastructure que certains économistes ont baptisé «complexe militaro-industriel» ou encore «complexe militaro-scientifique».Si cette nouvelle force économique ne suffit pas à elle seule à entretenir la tension militaire mondiale, elle n'a que peu d'intérêt à la voir se résorber.De plus, les hausses de dépenses militaires sont devenues, comme l'explique l'économiste québécois Louis Gill, des «mesures anticycliques destinées à dominer ou contenir les crises économiques».En d'autres termes, les crises de surproduction doivent, pour se sortir de leur impasse, entraîner la conversion d'une masse de forces productives en forces de destruction.UNE «COUPE DU DÉFI» EN EUROPE CENTRALE Les facteurs économiques de la course aux armements n'excluent pas, bien sûr, les motifs politiques.Les Soviétiques sont de toute évidence beaucoup plus impressionnants qu'il y a dix ans.Mais si inquiétude il doit y avoir, c'est davantage au niveau du choix stratégique qu'ils ont fait qu'à celui de leur puissance totale.Depuis 1 945, on s’était toujours appuyé sur le développement de la puissance nucléaire pour élaborer ses plans de défense, tant à LEst qu'à l'Ouest.En 1 975, la capacité nucléaire des arsenaux 31 mondiaux atteignait 15 tonnes de TNT par habitant.Les récents développements d'armes stratégiques américaines ont suivi cette tendance.Les dernières nouveautés de la panoplie guerrière américaine sont le fameux missile «Cruise», le sous-marin nucléaire «Trident» capable de lancer 1 92 ogives atomiques et la célèbre bombe à neutrons.Du côté soviétique, la production militaire des dernières années a été axée sur les armes plus conventionnelles.On s'aperçoit aujourd'hui, à la lumière de rapports des services secrets de Grande-Bretagne et de la CIA, que les forces du Pacte de Varsovie ont acquis une nette supériorité numérique à ce chapitre.Elles pourraient s'engager dans une guerre classique en Europe et créer une surprise digne de la Coupe du Défi.Selon les chiffres de l'armée britannique, les forces de l'Est en Europe et dans l'Atlantique dépassent celles de l'Ouest de 20 pour cent sur les mers, de 40 pour cent sous les mers, de 20 pour cent au niveau des troupes et de 270 pour cent en ce qui concerne les chars.Il est désormais acquis que les Soviétiques possèdent une supériorité significative dans leur capacité de mener une guerre conventionnelle.À l'OTAN, on réagit.LA FIN D'UN RÊVE L'acquisition de 1 30 avions de chasse, de quelques destroyers ou de 114 chars Léopard par le Canada ne va pas modifier sensiblement l'équilibre mondial.Ce qui est notable cependant, c'est que cette attitude marque la fin d'une époque — brève, il est vrai — pendant laquelle le Canada s'était fait champion du désarmement.Entre 1968 et 1976, l'armée a peut-être essuyé la plus dure défaite de son histoire.Le régimeTrudeau a eu pourelle des répercussions catastrophiques.Les effectifs sont passés de 1 20000 hommes à 78000 hommes; de 1972 à 1976, le budget de la défense a été gelé; 5 000 des 10000 hommes que nous affections aux forces de l'OTAN ont été retirés; finalement, nos forces ont été dénucléarisées.Ce tableau n’est pas pour plaire à la majorité des officiers.Le journaliste canadien-anglais Gerald Porter, ancien militaire, écrivait l'an dernier dans une étude sur l'armée canadienne: «Nos forces chétives contribuent à maintenir l'illusion de la solidarité Atlantique mais, stratégiquement, il ne s'agit que d'une brigade suicide.» A l'aéroport de Lahr, le lieutenant qui me fait visiter le système de défense antiaérienne fait remarquer: «L'équipement qui se trouve ici doit être opéré par 127 hommes et nous ne sommes que 28 artilleurs chargés de le maintenir en opération.» Ce genre de situation est courant à Lahr.Il n'est toutefois pas aussi dramati- se Blow Pipe est un système d'interception aérienne, utilisant des missiles téléguidés, dont est équipée l'armée canadienne.Ministère de la Défense nationale 32 mai 1979 / QUÉBEC SCIENCE SUR LE FRONT il mm ¦ Dans un petit village bavarois, près de Bamberg, nous assistons à un exercice des Forces Armées Canadiennes.Derrière les maisons, tapis entre les bottes de foin avec les poules et les lapins, les blindés attendent l'ordre de départ.À quelques pas de là, un poste de commandement a été aménagé au grenier d'une maison familiale.Pendant une semaine, l'état-major va monopoliser un étage de la résidence.Nous sommes à 30 kilomètres de la frontière est-allemande, à quelques minutes de l'«ennemi».Ici, la guerre n'a pas vraiment cessé.Depuis 1 945, on fait comme si la prochaine était pour demain.En attendant, à défaut de pouvoir occuper ou réquisitionner, nos militaires se font inviter.Le grenier utilisé par nos officiers a été prêté par une dame du village.Les habitants boivent de la bière avec les soldats.En Allemagne, les forces de l'OTAN sont toujours considérées comme une garantie de survie du monde «libre».Une telle harmonie serait difficile à imaginer chez nous.Au Canada, on se sent généralement peu concerné par la défense.Il se trouve même un bon nombre de Québécois pour croire que le seul risque de confrontration à brève échéance nous vient d'outre-Outaouais.Bref, un tas de gens ignorent jusqu'à la présence de 5 000 de nos soldats sur le «front» d'Europe centrale.Ils y sont pourtant depuis près de 30 ans.Le retrait de 5 000 de nos soldats d'Allemagne en 1 972, le «désarmement» des escadrons de chasse et la désuétude de nombreux équipements avaient sérieusement atteint le moral des troupes il y a quelques années.De douze qu'il était pendant les années 50, le nombre des escadrons est passé à trois seulement en 1972.À l'époque, le Canada provoquait une crise au sein du Pacte Atlantique.Aujourd'hui, il semble s'être rendu à la «raison» de l'establishment militaire occidental.Nos dépenses en Europe vont à l'avenir croître de cinq pour cent par an.En cas de conflit, 4 000 militaires et deux escadrons de CF-5 sont désormais prêts à s'envoler pour la Norvège.Le Canada vient de plus d'accepter de verser à l'OTAN dix pour cent — soit 1 80 millions de dollars — du coût des radars volants «AWACS» que l'Alliance s'apprête à acheter.Malgré tout, nombreux sont les observateurs qui estiment qu'en cas de conflit nos troupes feraient l'effet d'une bille dans un jeu de quilles.Evidemment, quand on pense à notre centaine de chars qui sont là-bas et qui font face aux 45 000 du Pacte de Varsovie.que que le cliché le suggère.Le général Belzile n'en perd pas encore le sommeil: «Durant une période de tension, pn n'a aucune raison de croire que l'avertissement ne viendrait pas assez tôt polir que nous ne puissions ramener à temps des troupes du Canada.Entre-temps, s'il se produisait quelque chose avant leur arrivée, il faudrait se démêler.Ça diminuerait jusqu'à un certain point notre efficacité mais on prendrait des gens qui ont d'autres fonctions pour les affecter à la défense anti-aérienne.» Quoi qu'il en soit, un militaire n’accepte pas facilement un anachronisme du genre.La popularité du gouvernement Trudeau n'a jamais été au beau fixe chez les officiers.Si leur position ne leur permet pas d'exprimer publiquement des opinions politiques, l'iconographie officielle des Forces parle à leur place.Immanquablement, les bureaux militaires arborent un portrait de Sa Majesté, souvent celui du ministre de la défense, quelquefois celui du gouverneur-général mais jamais celui du Premier ministre.Ce n'est pas parce que la puissance opérationnelle de l'armée a été réduite que le lobbying militaire a battu en retraite.L'armée canadienne est une armée de métier, une force qui compte davantage sur la performance que sur des effectifs humains illimités.Nos soldats sont parmi les meilleurs au monde, mais aussi parmi les plus grassement payés.Qui dit armée de métier dit troupe d'élite et, par conséquent, équipement de première qualité.Or, à ce chapitre, les premières années de la présente décennie ont été désastreuses pour le moral des troupes.Jusqu'à l'an dernier, les «Royal Dragoons» en Europe devaient manœuvrer avec des chars d'assaut Centurion qui dataient de la dernière guerre mondiale.«Des chars qui ne pouvaient plus rouler 15 kilomètres sans tomber en panne.» Les pressions répétées de l'état-major de l'OTAN, des officiers canadiens et de l'opposition parlementaire ont finalement abouti à l'achat des fameux «Léopard» allemands, ce qui se fait de mieux.Ce n'était qu'un début.Le «marché du siècle» qu'on s'apprête à conclure avec une des deux grandes multinationales de l'aviation (General Dynamics ou Mac-Donald-Douglass), va nous «enrichir» de plus d'une centaine de nouveaux chasseurs évalués à 2,3 milliards de dollars (de 1977).Il s'agira de la plus grosse commande militaire canadienne de tous les temps.Les 18 patrouilleurs Aurora que la compagnie Lockheed commençait à nous livrer il y a quelques semaines, vont nous coûter 1,1 milliard tandis qu'on s'apprête à débourser 1,5 milliard pour l'achat de cinq destroyers.Quant au budget militaire qui a pratiquement doublé depuis 1974, il compte parmi les heureux élus QUÉBEC SCIENCE / mai 1979 33 qui se sont vus augmenter lors des «coupures» fiscales de janvier dernier.UN TABLEAU MONDIAL Les gagnants de cette consommation fabuleuse, on le devine, sont les producteurs d'armes.La compagnie General Dynamics, qui tente actuellement de décrocher le «contrat du siècle» canadien et de nous vendre 1 30 copies de son F-1 6, en a déjà livré 650 modèles à l'U.S.Air Force, 350 aux pays d'Europe de l'Ouest et quelques centaines ailleurs sur la planète.En voici une pour qui les effets de la crise économique ne sont pas trop catastrophiques.Les enjeux de telles transactions sont bien sûr énormes.L'économie militaire mondiale représentait en 1 973 un chiffre d'affaires de 210 milliards de dollars et atteint aujourd'hui 400 milliards.À l'aube de la guerre 1 914-1 91 8, de 3 à 3,5 pour cent du produit mondial brut (PMB) était dépensé aux fins militaires.Entre 1 950 et 1 970, l'humanité a englouti sept pour cent de son PMB dans les arsenaux.Une telle ascension profite à certains intérêts.On peut se demander si les intéressés ne sont pas devenus les agents mêmes de cette progression.La notion de complexe militaro-industriel n'est pas une invention de sociolo- I gue ou d'économiste.C'est le général Eisenhower qui popularisa l'expression lors de son discours d'adieu à la vie politique.Ce complexe, disait-il, «est la conjonction entre un appareil militaire gigantesque et une immense industrie d armements.(.) Son influence totale, économique, politique, voire spirituelle, se fait sentir dans chaque ville, dans chaque État, dans chaque bureau du gouvernement fédéral » Selon Michael T.Klare, de l'Institute for Policy Studies de Washington et auteur du livre War without End, ce complexe se double également d'un complexe militaro-scientifique.Le monde scientifique tire depuis 30 ans une part vitale de ses revenus du complexe militaro-industriel.Aujourd'hui, 400 000 chercheurs et techniciens sont affectés à des projets F concernant la défense.Ce chiffre représente le tiers (certains prétendent la moitié) de tout l'effectif scientifique du monde.Les activités de recherche et développement (R&D) militaire absorbent près de 40 milliards de dollars par an, quatre fois plus que les recherches biomédicales.D'après les chiffres de l'institut SIPRI, les dépenses de R&D, qui comptaient pour un pour cent des budgets militaires entre les deux guerres, en II représentent actuellement dix pour cent.UN APPAREIL TENTACULAIRE Les universités n'ont pas échappé aux tentacules de la pieuvre militaire.La // est difficile d'obtenir des informations sur la R&D militaire.Ainsi, le Centre de recherche de la défense de Valcartier préfère parler des applications industrielles du laser que de son développement offensif.' i - wtunrrTr ' «ü dernière guerre a engendré une dépendance financière de ces institutions vis-à-vis l'État.Klare signale entre autres qu'en 1965, les deux tiers des chercheurs américains engagés dans la recherche travaillaient grâce aux fonds du gouvernement fédéral tandis que toutes les subventions fédérales de R&D parvenaient du département de la défense.Aux États-Unis, l'impulsion toujours grandissante des contrats militaires d'après-guerre a donné naissance à une floraison d institutions para-universitaires de recherche, souvent privées, et prêtes à vendre leurs services aux plus offrants.En 1950, Washington comptait 48 institutions de R&D; en 1 969, on pouvait en dénombrer 700.La plupart de ces institutions que Klare appelle les think tanks (réservoirs du savoir) vivent principalement des contrats du département de la défense.Certaines, comme le Stanford Research Institute (SRI) en Californie, emploient jusqu'à 2 200 personnes et reçoivent jusqu'à 25 millions de dollars par année pour la recherche militaire, en 1970, des étudiants de l'université Stanford dénonçaient le rôle joué par le SRI dans le développement d'armes chimiques et bactériologiques destinées au Vietnam.Ils publièrent du même coup les noms des administrateurs de l'institut parmi lesquels on retrouvait ceux de directeurs de Lockheed et de General Dynamics, respectivement premier et troisième plus gros contractants de la défense américaine.Le complexe militaro-scientifique américain a aussi ses ramifications chez nous.Un groupe d'étudiants de l'université McGill et un professeur de sciences politiques, Samuel Noumoff, réunis dans le cadre du «Project Anti-War», publiaient en 1972 une étude indiquant qu'entre 1967 et 1971, le Pentagone avait dépensé plus de 34 millions de dollars pour des recherches militaires effectuées au Canada.Ce chiffre représente plus de la moitié de toutes les subventions de R&D accordées à l'étranger par le Pentagone durant cette période.En 1 972, la proportion aurait légèrement diminué selon les statistiques de la National Science Foundation (E.-U.), le Canada ne recevant cette fois que 5,8 des 16,2 millions octroyés pour les mêmes activités.Pendant la période couverte par le Project Anti-War, l'université McGill a encaissé $831 41 5 du Pentagone tandis que d'autres institutions du Québec, dont l'Université de Montréal et l'université Laval, recevaient aussi une part quoique moins substantielle.Au pays, le rôle joué par l'économie militaire est plus difficile à évaluer.Aux États-Unis, la guerre du Vietnam a engendré un nombre intéressant d'études sur les mécanismes d'armement.Chez nous, c'est presque le néant.De plus, à mesure qu'on avance dans le temps, les sources de renseignements se tarissent, subtilement mais sûrement.«Il serait impossible, dit Samuel Noumoff, de mener aujourd'hui la même étude que nous avons faite en 1972.Pourtant, ce n'était déjà pas facile à l'époque.» À titre d'exemple, chaque année, le ministère fédéral de l'Industrie et du Commerce publie un catalogue des produits de défense fabriqués au Canada.Depuis 1972, les noms des compagnies ont été rayés de la liste et remplacés par un numéro de code.CRDV 34 mai 1979 / QUEBEC SCIENCE IA FORCE NUCLÉAIRE AU CANADA Beaucoup de gens au Canada gardent l'impression erronée qu'aucune arme atomique n'est stationnée sur le territoire.En fait, quelques centaines de missiles nucléaires se trouvent encore stockés chez nous et sont en parfait état d'utilisation.La confusion vient du fait qu'en 1972, le gouvernement canadien décidait de se défaire des fameux missiles BOMARC entreposés depuis une dizaine d'années à la base de La Macaza dans les Laurentides.Ces engins, maintenus en opération dans le cadre de NOR AD, étaient devenus désuets et le Canada, en décidant de ne pas les remplacer, abandonnait du même coup son rôle nucléaire «officiel» au sein de l'alliance nord-américaine.La même année, les CF-104 «Starfighter» canadiens stationnés en Allemagne de l'Ouest avaient été «désarmés».Ces avions de chasse spécialement conçus pour l'attaque nucléaire : WSf ï* ne servent aujourd'hui qu'à lâcher des bombes classiques comme la bombe au napalm.Malgré cet effort important, notre participation à NORAD nous vaut encore la présence de quelques centaines de missiles de type «Genie» sur notre territoire.Ceux-ci sont entreposés aux bases de Comox, en Colombie-Britannique, et à Bagotville, au Québec.Les «Genie» n'appartiennent pas aux Forces Armées Canadiennes mais à l'armée américaine qui s'occupe de leur surveillance.Le Canada ne possède donc plus d'armes atomiques, ce qui ne signifie pas qu'il ne joue plus aucun rôle dans ce domaine.En cas d'attaque contre le continent nord-américain, ce sont les chasseurs VOODOO canadiens qui seraient chargés de faire la livraison des fameux missiles chez l'ennemi.Les officiers canadiens se montrent fort peu bavards sur la question; pour le moment, ces armes se trouvent sous responsabilité américaine et on préfère ne pas passer de commentaires.Théoriquement, notre rôle atomique sera chose du passé en 1982.Les quelque 130 appareils que nous achèterons à General Dynamics ou à MacDonald-Douglas au coût de 2,3 milliards de dollars, entreront en effet en service d'ici trois ans et seront incapables de servir à l'attaque nucléaire.En mai 1 978, lorsque le Premier ministreTrudeau annonça le désengagement nucléaire total du Canada, certains n'ont pas manqué de faire remarquer qu'il était facile de se faire du capital politique sur cette question alors que le Canada vit sous le parapluie nucléaire américain.A n'en pas douter, la décision est politique et va à l'encontre des vœux militaires.La frustration de l'armée est peut-être sourde, mais n'en est pas moins présente comme l'illustre cette boutade entendue chez les pilotes canadiens en Allemagne: «Utiliser un Starfighter pour lâcher des grenades, c'est comme se servir d'une Cadillac pour ramasser les ordures.» ' - • L'an dernier, le Canada fit l'acquisition de 114 Leopard qui ont remplacé les chars d'assaut Centurion qui dataient de la dernière guerre mondiale.UNE ARMÉE DE RÉPUBLIQUE DE BANANES Ernie Regehr, du Conrad Grebel College en Ontario, est l'auteur d'un travail sur le commerce d'armements au Canada.«Je ne crois pas, dit-il, qu'on puisse vraiment parler de complexe militaire-industriel ou scientifique canadien.Nous connaissons encore mal le sujet mais l'industrie de défense locale n'est pas assez puissante pour contrôler notre économie.» De fait, si une économie militaire domine le pays, ce n'est pas la nôtre.Les Forces Armées s'équipent à la manière d'une armée de république de bananes.Le soldat des forces se déplace en véhicule de transport suisse, en tank allemand ou en avion américain, et il tire avec un fusil belge.Son uniforme mis à part, il n'y a pas grand-chose dans son équipement qui relève vraiment de la production locale.L'industrie militaire canadienne est avant tout une industrie de pièces.Les productions majeures ne se font qu'ex-ceptionnellement chez nous.Nous sommes des sous-contractants.Dans une tentative unique en son genre, la compagnie AVRO entreprit il y a 25 ans, la création d'un chasseur authentiquement canadien, le CF-105 Arrow.Cinq ans plus tard, le gouvernement Diefenbaker en stoppait la production.Celui que l'on considérait le meilleur avion au monde dans sa catégorie n'avait pas réussi à percer les marchés protectionnistes d'Europe et des États-Unis.Les seuls besoins de notre aviation ne suffisaient pas à rentabiliser la production.Ironiquement, après 20 ans, le Canada s'apprête à acheter une flotte de chasseurs qui n'auraient probablement pas pu rivaliser avec les CF-105.En revanche, l'armée constitue un marché relativement intéressant pour la PME domestique.Le Financial Post publiait il y a deux ans la liste d'achats des Défense nationale QUÉBEC SCIENCE / mai 1979 Forces pour 1 979 et 1 980, au niveau des équipements secondaires.Ces besoins de routine représentent un marché d'environ 300 millions pour les deux années citées.Le Canada vient au huitième rang des exportateurs mondiaux d'armements et il est le principal fournisseur de l'armée américaine (après les États-Unis bien entendu).Selon l'U.S.Arms Control and Disarmement Agency, la balance des exportations et des importations d'armes était à la faveur du Canada il n'y a pas si longtemps.Entre 1967 et 1976, notre excédent commercial a été de l'ordre de 100 millions de dollars.L'actuel effort de rééquipement va probablement modifier la balance mais la production canadienne n'en subira pas pour autant un déclin.UNE AGENCE POUR LA PROMOTION DE NOS ARMES Selon Christian DeBresson, économiste à l'University of British Columbia, le secteur manufacturier canadien occupe le cinquième rang de la production manufacturière militaire mondiale.Les commandes américaines lui sont d'un précieux secours.DeBresson note dans une étude sur les produits de défense canadien que nous sommes le seul pays au monde à disposer d'une agence gouvernementale qui s'occupe de la promotion de nos armes sur les marchés étrangers: la Corporation commerciale canadienne.Chaque année, cet organisme du ministère de l'Industrie et du Commerce publie un catalogue de nos produits de défense et le distribue à travers les ambassades.Les clients éventuels doivent communiquer avec un attaché de l'ambassade pour entrer en contact avec les producteurs.De plus, la CCC a agi au moins jusqu'en 1971 comme agence chargée de distribuer les contrats de production du Pentagone.Toujours selon le «Project Anti-War», elle aurait reçu, de 1967 à 1971, $485 355 202 à cet effet de la défense américaine.La R&D militaire autonome au Canada est certes beaucoup moins importante que celle des grandes puissances.Officiellement, elle compte pour 2,7 pour cent du budget du ministère de la Défense nationale (MDN).Ce chiffre est assez mince si l'on considère que les États-Unis, la France et la Grande-Bretagne consacrent dix pour cent ou plus de leur budget de défense aux mêmes activités.La recherche militaire de ces trois pays correspond à 95 pour cent de l'effort total du monde capitaliste en ce domaine.Ce genre de clivage, note Georges Menahem dans La science et le militaire, correspond à une certaine division internationale du travail de production d'armements: la fabrication sous licence ou l'importation d'armements paraissent souvent aux autres pays comme la solution la plus abordable.Nous sommes parmi les «autres pays».LA SCIENCE EN SILENCE Notre appareil de R&D militaire est donc orienté vers le perfectionnement ou l'adaptation de matériel d'abord conçu à l'étranger.Mais si ce secteur ne rivalise pas chez nous avec celui des grandes puissances, il y a quand même lieu de croire qu'il est beaucoup plus important que les chiffres officiels ne l'indiquent.L'étude de «notre complexe militaro-scientifique» reste à faire.Au sein même du ministère de la Défense, la fusion de certains budgets de recherche aux budgets administratifs rend difficile la démarcation des activités.On y retrouve en premier lieu un réseau officiel de R&D composé de six centres de recherches en défense (CRD) et chapeauté par le CRAD (Chief of Research and Development).Ce réseau consacre pour l'année fiscale 1 978-1 979, 50 millions de dollars à ses activités internes.Parallèlement à ce secteur, se dresse celui de la recherche dite opérationnelle, dont on ne parle jamais et qui ne bénéficie pas d'un budget distinct.Chaque secteur des forces (marine, aviation, communications, etc.) possède son «établissement d'essai technique».On y expérimente le matériel en service et on développe les modifications aux équipements.Ces établissements délèguent aussi des officiers de liaison technique dans les industries pour y diriger les développements scientifiques qui intéressent les forces.On peut difficilement évaluer l'importance de ce réseau, son budget étant inclus dans les dépenses globales du ministère de la Défense.Mais c'est à l'extérieur du ministère que le tableau est le plus vague.Entre le 1er avril et le 31 décembre 1978, les organismes du gouvernementfédéral ont alloué des contrats de recherche d'une valeur de 101 millions de dollars dont 26 millions allaient à des «marchés ne pouvant être divulgués».M.Brad Ralph, chef du groupe de soutien au Centre des sciences et responsable de la publication des contrats de recherche, se dit incapable de préciser quels sont les organismes qui ont émis ces contrats.En ce qui concerne les marchés divulgués, moins gênants, le ministère de la Défense avoue une participation de $6 147 61 9 pendant cette période.On ignore qu'elle a été sa contribution aux marchés secrets.On peut cependant supposer qu'elle est importante car, comme le souligne M.Edward Bobyn, chef du CRAD, son département aura octroyé des contrats extérieurs d'une valeur de 42 millions à la fin de la présente année fiscale.Par ailleurs, le ministère n'est pas seul à soutenir la recherche militaire au Canada.Les activités des autres organismes fédéraux à ce chapitre sont mal Une bonne partie de la R&D militaire canadienne s'effectue dans les industries.Canadair, par exemple, a mis au point ce système de surveillance aérien qui lance des missiles espions, ainsi que ce système de repérage des cibles.Canadair Canadair 36 mai 1979 / QUÉBEC SCIENCE connues.On sait cependant que plusieurs d'entre eux ne sont pas étrangers aux travaux de défense.Le Centre de recherche en communications (CRC), autrefois rattaché au CRD d'Ottawa, est passé en 1 968 sous la responsabilité du ministère des Communications.Aujourd'hui encore, le CRC participe à des recherches sur les radars en collaboration avec le CRAD.La Corporation commerciale canadienne, pour sa part, a administré entre 1 968 et 1 971 des subventions à la recherche d'une valeur de $28 387 000 venus du Pentagone.Il est toutefois impossible de savoir qui a bénéficié de ces fonds.De plus, comme le souligne Ernie Regehr, une grande partie de l'aide à l'industrie venue du ministère de l'Industrie et du Commerce et du ministère de l'Expansion économique régionale va soutenir l'industrie de défense et sert aux développements d'armements.Cette fois, la démarcation entre le civil et le militaire est presque impossible à faire.Le gouvernement fédéral n'a jamais tenu à distinguer les deux secteurs.Cela peut s'expliquer en partie à cause du désintéressement général des Canadiens et des media nationaux face à tout ce qui touche l'armée.Par contre, la ligne de démarcation ne cesse de s'effacer.En 1974, le ministère de la Défense cessait de subventionner la recherche «extra-muros».Toutes les subventions fédérales aux universités sont aujourd'hui régies par le ministère d'État à la Science et à la Technologie tandis que celles qui vont à l'industrie sont émises par le ministère de l'Industrie et du Commerce et celui des Approvisionnements et Services.«Le CRAD, précise M.Bobyn, agit comme organisme conseil auprès de ces deux derniers ministères.» Le point de vue de la défense n'a donc pas été écarté du secteur de la recherche subventionnée.A-t-il gagné ou perdu en importance?Au ministère, on estime y avoir perdu un peu en terme d'efficacité administrative mais on s'accorde pour dire qu'après une période un peu austère, la R&D militaire au pays vient d'entrer dans une période qui s'annonce prospère.En général, on se montre peu bavard, tant au ministère de la Défense que dans les universités ou dans l'industrie, dès qu'il est question de travaux militaires.Le CRD de Valcartier est plus loquace quand il s'agit de parler des applications industrielles du laser que lorsqu'il est question de son développement offensif.De même, l'industrie se montre d'une discrétion exemplaire sur ces questions.DES ACTIVITÉS IMPOPULAIRES Si on s'acharne ainsi à masquer l'activité reliée à la défense, c'est peut-être qu'elle est un peu gênante.Les CF-104 des Forces sont aujourd'hui armés de bombes au palmitate de sodium.Ce produit est mieux connu sous le nom de napalm «mais, expliquait un officier, on a dû changer son nom car le napalm était devenu impopulaire.» L'opinion publique n'est plus ce qu'elle était.Que ce soit au niveau de la production ou de la recherche, on a de plus en plus tendance à déguiser l'activité militaire en gestes civils.On ne sait pas exactement qu'elle est l'importance des travaux ainsi camouflés.Selon SIPRI, de 10 à 20 pour cent des dépenses militaires mondiales sont effectuées sous le couvert civil.Plusieurs estiment que ce chiffre est conservateur et qu'il peut varier d'un pays à l'autre.Selon Ernie Regehr, la proportion des fonds de recherche fédéraux destinés directement ou indirectement à la défense pourrait atteindre 50 pour cent.Les gouvernements tendent de plus en plus à présenter l'économie militaire comme une machine au service du bien-être collectif.Toute justification des dépenses d'armements se fait en fonction du nombre d'emplois créés.Les sous-contrats découlant de l'achat de nos patrouilleurs Aurora auront créé, selon M.Arthur Mathewson, chef de la politique de planification au ministère de la Défense, entre 2 200 et 2 500 nouveaux emplois au Canada; les sous-contrats reliés à l'achat de nouveaux chasseurs rapporteront un demi-milliard de dollars au Québec; et ainsi de suite.• La R&D militaire contribue aussi, selon les officiels canadiens, à l'essor de la technologie civile.Les exemples ne manquent pas là non plus: les découvertes du collège de Saint-Jean sur l'électrêt ont donné naissance à une industrie internationale importante dans le domaine des communications, Cana-dair a produit son Challenger grâce à l'expérience acquise dans la fabrication d'appareils militaires, etc.Christian DeBresson fait entendre un autre son de cloche: «Peu importe l'importance des retombées économiques.Elles seraient aussi fortes sinon plus si les énergies étaient investies ailleurs et on n'assisterait pas à la transformation fabuleuse des forces productives en forces destinées à être détruites.» UNE PASSION TECHNIQUE Si impopulaire soit-elle, la R&D militaire mobilise un nombre sans cesse croissant de personnes-ressources.Les Forces Armées emploient 550 chercheurs civils et en font vivre indirectement un grand nombre.S'il est difficile de porter un jugement de valeur sur l'orientation de ces hommes et femmes, on peut quand même se demander si leur passion technique n'escamote pas trop facilement les conséquences pratiques de leurs travaux.Un chercheur engagé dans les recherches qui conduisirent à la réalisation de la première bombe atomique raconta par la suite: «Je brûlais de savoir si elle (la nouvelle bombe) justifierait les espoirs qu'on avait mis en elle, en un mot, si elle «fonctionnerait».Pensées effrayantes, je l'avoue, mais irrésistibles.» Plusieurs scientifiques retirent sans doute un sentiment de fierté patriotique de leur engagement militaire mais à en croire M.H P.Tardif, chef-adjointdu CRD de Valcartier, le sentiment général en est plutôt un d'indifférence bienveillante.«Les chercheurs du CRDV ne viennent pas travailler ici pour la défense; ils ne connaissent rien là-dedans.Ils sont là pour faire de la physique ou de la chimie et nous leur offrons les moyens nécessaires.La plupart sont d'ailleurs plus intéressés par la recherche fondamentale tandis que la défense a besoin de travaux pratiques; pour éviter les frustrations, nous leurs permettons de travailler sur certains projets de recherche fondamentale.» Le Dr John Zubek de l'Université du Manitoba, qui avait travaillé pour le compte de la défense canadienne sur la privation sensorielle — une méthode de «torture douce» que certains assimilent au «lavage de cerveau» — déclarait il y a quelques années au magazine The Canadian: «Je suppose que les résultats de mes recherches sont disponibles dans la plupart des pays du monde.Mais en tant que savant, je n'ai aucun contrôle sur le fait que mes découvertes soient bien ou mal utilisées.» Ce genre de désengagement est si courant dans le milieu de la recherche militaire qu'on peut se demander s'il n'est pas devenu un prérequis essentiel au recrutement du personnel.Un physicien à l'emploi du ministère de la Défense me confiait récemment: «Vous savez, il y a des gens qui ont étudié la sociologie ou la politique et c'est leur travail de discuter de nos orientations.Moi, j'ai étudié la physique et je me contente de faire de la physique.» Après tout, si les balayeurs se contentaient de balayer, il n'y aurait plus d'obstacles à la course aux armements! Pour en lire plus: Christian DeBresson, Canada's New Staples: Strategic Materia! and Defence Systems 1945-1975.Dancette-DeBresson Translating Service, Colombie-Britannique, 1978 Georges Menahem, La science et le militaire, Seuil, Paris, 1 976 Samuel J.Noumoff et al, How to Make a Killing.Project Anti-War, Montréal, 1972 Samuel J.Noumoff et al, How to Buy a Country.Project Anti-War, Montréal, 1973 Ernie Regehr, Making a Killing, MacMillan, Toronto, 1 972 Defence systems 1945-1975, Dancette-DeBresson Translating Service, C.B., 1978 ?______________________ Lois multiplie ses exemples de beauté.Ces quatre nouvelles coupes, modèles de la collection d’été 1979 ajoutent à ce qui se porte bien durant une saison qui vous va déjà à merveille.Quand ledeans be fait beau: [L@fe> JEANS & JACKETS 38 mai 1979 / QUÉBEC SCIENCE IA TERRE DÉMÉNAGE Attachez vos ceintures, des physiciens vous amènent coloniser l’espace.par Claude Faubert De temps à autre, une idée scientifique ou technologique s'empare de l'imagination populaire et devient vite un sujet de conversation à la mode.Il en fut ainsi des possibilités de vie extraterrestre et, plus récemment, des manipulations génétiques.Aujourd'hui, c'est au tour du physicien américain Gerard K.O'Neil et des colonies de l'espace d'être à la vogue: d'ici quelques décades, l'espace interplanétaire près de la Terre serait peuplé de plusieurs colonies spatiales, véritables villes de l'espace, soutient-il.Depuis 1976, un nombre croissant de chercheurs s'intéressent au sujet.Les media n'ont pas tardé à y voir de l'attrait: tout magazine qui se respecte lui a consacré au moins un article et, aux États-Unis, on a déjà réalisé plusieurs émissions de radio et de télévision sur la colonisation de l'espace.L'idée est très simple: construire dans l'espace des habitats où pourront vivre éventuellement des dizaines de milliers d'individus.Selon les protagandistes, de telles colonies aideraient à résoudre certains problèmes terrestres pressants, en nous permettant d'aller au delà des limites de notre petite Terre.Les problèmes techniques sont formidables, mais non pas insolubles.Mais il reste à savoir si nous sommes prêts pour une telle aventure.Ou si nous la désirons réellement.ON Y PENSE DEPUIS 50 ANS À l'automne 1969, Gerard O'Neil, physicien nucléaire à l'Université de Princeton, se voit chargé d'enseigner un cours de physique générale à des étudiants de première année.Pour éveiller leur intérêt, il organise un petit séminaire informel.Comme premier problème, il leur pose la question suivante: «À longue échéance, la surface d'une planète, pas nécessairement la nôtre, est-elle vraiment la meil- t- U h •jailli* A _ "*«• T QUÉBEC SCIENCE / mai 1979 39 leure place pour une civilisation technologique en expansion?» À cette question, O'Neil et ses étudiants devaient répondre: non! Et l'idée des colonies de l'espace, du moins dans sa forme moderne, était lancée.Le concept de stations spatiales habitées avait été mentionné pour la première fois dans les années 20.Par exemple, en 1929, un ingénieur autrichien, sous le nom de plume d'Hermann Noordung, publiait une description détaillée d'une telle station, ayant la forme d'une roue de 30 mètres de diamètre, fort semblable à la station orbitale du film 2001 : A Space Odyssey.En 1949, Wernher Von Braun suggérait une construction similaire: une immense roue de 75 mètres de diamètre, en rotation pour créer une gravité artificielle de 0,33g (g est l'accélération subie par un corps lorsqu'il tombe en chute libre dans le vide; g est égale à 980,665 cm/s2).En 1969, Gerard O'Neil continua seul à étudier le projet dans ses moments libres.Finalement, en 1974, la revue américaine Physics Today acceptait de publier un de ses articles sur le sujet.Depuis, les publications n'ont cessé de paraître.Une société s'est formée aux États-Unis, regroupant surtout des chercheurs et des étudiants, pour étudier le problème et organiser des conférences.La NASA, qui ne peut se permettre de laisser passer une idée qui pourrait porter fruit, a déjà organisé trois ateliers d'été pour en étudier certains aspects spécifiques.DES ASTRONAUTES MINEURS SUR LA LUNE On s'est vite rendu compte que l'espace offrait plusieurs avantages sur l'environnement terrestre, par exemple l'accès à une source illimitée, continue et gratuite d'énergie: le soleil.Pas de nuages, pas de nuits qui viennent interrompre le flot d'énergie.La chaleur produite dans les divers procédés industriels peut être émise dans l'espace au lieu de réchauffer l'environnement immédiat.L'apesanteur permet la construction de structures gigantesques avec un minimum de matériaux car elles n'ont pas à supporter leur propre poids.Enfin, l'apesanteur et le vide extrême facilitent la fabrication de matériaux d’une plus grande pureté.Ainsi, en état d'apesanteur, donc d'absence de force gravitationnelle, on obtient des cristaux d'une plus grande perfection au point de vue structure, et le vide très poussé de l'espace élimine le problème des impuretés qui flottent toujours dans les vides artificiels.Ériger une simple structure artificielle requerrait tout de même plusieurs milliers de tonnes de matériaux.Transporter ces derniers de la surface de la Terre à l'endroit requis dans l'espace coûterait évidemment trop cher.Par exemple, se servir de la navette spatiale exigerait 21 millions de dollars pour 30 tonnes de cargo.L'idéal serait de se procurer les matériaux nécessaires sur place, ou presque.On sait maintenant, grâce aux échantillons de sol lunaire rapportés par les astronautes, que la Lune contient environ 30 pour cent de métaux, tels le fer et l'aluminium, 20 pour cent de silicium et 40 pour cent d'oxygène.Ce qui manque, ce sont les matières organiques à base de carbone et l'eau.Gerard O'Neil suggère donc que l'une des toutes premières étapes de cette colonisation de l'espace soit l'installation de stations minières sur la Lune.Pour faire parvenir le matériau lunaire à sa destination finale, on se servirait d'accélérateurs électromagnétiques qui ne sont ni plus ni moins que d'immenses catapultes qui lanceront des petits paquets de matériau lunaire à unevitesse suffisante pour échapper à l'attraction Plusieurs produits finis, ainsi que certaines matières premières, devront être transportés de la Terre.Pour ce faire, on pourrait faire appel à d'immenses fusées qui, d'un poids total de 12 000 tonnes et d'une hauteur de 60 m, pourraient transporter, chacune, 225 000 kg de cargo en un seul voyage.Chacun de leurs 20 engins a quatre fois la puissance d'une fusée Saturne V qui amena les astronautes à la Lune.lunaire, et dans la bonne direction.Après leur voyage dans l'espace, ces paquets seront capturés, peut-être à l'aide d'une sorte de grand filet à papillons, puis traités et finalement utilisés dans la construction des stations orbitales.Quelques modèles d'accélérateurs électromagnétiques existent aujourd'hui.Le plus prometteur semble être celui du système Magnaplane, un système de transport en commun à haute vitesse mis au point au Massachusetts Institute of Technology.À la température de l'hélium liquide, des bobines supraconductrices produisent un champ magnétique très puissant qui soulève le véhicule au-dessus d'un rail creux et courbe d'aluminium.D'autres bobines sous le rail accé- lèrent le véhicule à de très grandes vitesses.Le premier modèle construit au MIT pouvait donner une accélération de 25g sur une distance de deux mètres.Par comparaison, une voiture sport donne au maximum une accélération de 0,5g.Sur la Lune, un accélérateur électromagnétique devra avoir une longueur de deux à quatre kilomètres pour que les godets contenant le matériau lunaire puissent atteindre la vitesse de libération de 2,4 km/s.Selon son inventeur, Henry Koln, l'accélérateur électromagnétique sera non seulement utilisé sur la Lune pour le lancement du matériau extrait mais deviendra aussi le moyen de propulsion de l'avenir.En lançant une masse dans une direction, si l'on en croit Newton, l'accélérateur sera poussé dans la direction opposée.L'énergie nécessaire sera fournie par d'immenses panneaux solaires montés autour de l'accélérateur.Contrairement aux moteurs chimiques ordinaires, qui dissipent une grande partie de leur énergie en chaleur dans toutes les directions, l'accélérateur concentrera toute son énergie dans une seule direction et sera ainsi beaucoup plus efficace.LA CHASSE AUX ASTÉROÏDES Mais pourquoi s'arrêterait-on à la Lune?Près de 90 pour cent des astéroïdes qui orbitent autour du Soleil entre les orbites de Mars et de Jupiter sont du type chondrites carbonées: ils contiennent beaucoup de carbone, d'hydrogène et d'azote, éléments très rares ou manquant dans le sol lunaire.On a donc suggéré d'aller capturer un astéroïde, de 200 à 300 mètres de diamètre et pesant dix millions de tonnes, et de le ramener près de la Terre.Pour se faire, on se servirait — évidemment — d'un accélérateur électromagnétique qui se rendrait jusqu'à l'astéroïde et s'y amarrerait.Selon le principe action-réaction, en projetant une portion de l'astéroïde dans la direction opposée à celle vers laquelle on veut déplacer l'astéroïde, l'accélérateur, lentement et doucement, changerait la trajectoire de l'astéroïde.Après un voyage de trois à quatre ans, l'astéroïde serait en position, près de la Terre.Le coût total d'une telle opération serait environ 50 pour cent de celui du transport de tous les matériaux équivalents de la surface de la Terre à l'endroit voulu dans l'espace.Une fois les bases lunaires bien établies et produisant suffisamment de matières premières, on procéderait alors à la construction d'île I, la première station spatiale d'envergure.Construite en grande partie d'aluminium et de verre, cette immense sphère de 500 mètres de diamètre pourrait supporter une population de 10000 habitants.Le mouvement de rotation de la sphère créerait une gravité artificielle de 1 g à l'équateur.On y reproduirait une atmosphère et une tempéra- 40 mai 1979 / QUÉBEC SCIENCE W:.•' Voici deux colonies de type He III telles qu'on les verrait d'un vaisseau spatial à une distance de 32 km.Chaque cylindre, d'une longueur de 32 km et d'un diamètre de 6,4 km, compléterait une révolution toutes les 114 secondes.Les petits cylindres autour du cylindre principal seraient des stations d'agriculture.Le cylindre principal se terminerait par une centrale d'énergie et une station industrielle où se concentreraient les diverses usines et manufactures.Les miroirs rectangulaires situés le long des cylindres réfléchiraient la lumière du soleil à l'intérieur, réglant les saisons et contrôlant le cycle quotidien.ture proches de celles de la Terre, ainsi qu'un champ magnétique.De plus, l'intérieur devrait être protégé des radiations et des météorites par un épais bouclier construit à l'extérieur de l'habitat et stationnaire.Les fermes et les industries seraient situées à l'extérieur de la sphère, dans des anneaux centrés sur l'axe de rotation.Pour «l'agriculture», on reconstituerait un sol, qui pourrait avoir une épaisseur d'un mètre, à partir de matériaux transportés de la Lune et on s'approvisionnerait en graines sur la Terre.Vision parfaite, mais tous les problèmes rattachés à la transplantation de la vie dans l'espace sont loin d'être résolus.Une colonie de type île I pourrait être construite d'ici 2010, si le projet était commencé dans quelques années.Chaque colonie devra être autosuffisante.Des expériences en laboratoire ont déjà démontré qu'il est possible d'accroître grandement la productivité d'un environnement contrôlé.Mais cela requiert une surveillance constante de toutes les variables.Le maintien d'environnements clos, où tout doit être récupéré et recyclé est encore au-delà des limites de notre technologie.Moins de 50 ans après la fabrication des colonies de type île I, et si tout va bien, on en arriverait à des colonies de type île III: des cylindres de six kilomètres de diamètre, longs de 30 kilomètres, ayant chacun à bord plusieurs millions d'habitants.Ces colonies construiraient à leur tour d'autres colonies, probablement plus grandes, qui vraisemblablement s'éloigneraient de la Terre et partiraient à la conquête du système solaire.Un habitat spatial pourrait être à trois jours-lumière du Soleil et encore profiter d'un environnement quasi terrestre.ON RÊVE ENCORE DU PARADIS Il est difficile de s'imaginer l'intérieur d'une de ces colonies.Les artistes qui ont essayé n'ont bien souvent réussi qu'à transposer leurs vues géomorphiques.Gerard O'Neil lui-même ne sait pas trop comment décrire ce nouvel environnement.Il propose l'établissement de petits villages, avec beaucoup d'espaces verts.Les habitations ressembleraient à ce qui existe aujourd'hui.À l'aide d'immenses panneaux réflecteurs mobiles, on pourra contrôler la longueur des nuits et des saisons, la quantité de lumière à l'intérieur de l'habitat.Il faudra sûrement inventer de nouveaux sports pour profiter de la diminution de la gravité près de Taxe de rotation.En général les auteurs nous présentent un décor idyllique, vert, sans pollution.Un nouveau paradis terrestre, fort différent de notre petite Terre polluée, sale, surpeuplée.Il y a une dizaine d'années, le Dr Peter Glaser écrivait qu'une façon de résoudre le problème énergétique sur la Terre serait de construire un grand nombre de satellites solaires dans l'espace.En orbite à quelques centaines de kilomètres au-dessus de la surface de la Terre, ils convertiraient l'énergie solaire en microondes.Ces micro-ondes seraient ensuite envoyées à la Terre où de très grandes antennes réceptrices les capteraient et les convertiraient en énergie électrique.Ce mode de conversion d'énergie est théoriquement très efficace.Mais à cette époque-là, l'idée ne fut pas prise au sérieux.Comment allait-on construire de telles structures dans l'espace?Et le nombre de satellites nécessaires était plutôt élevé.Pour les États-Unis seulement, près de 110 stations solaires seraient requises pour satisfaire 25 pour cent des besoins d'énergie en Lan 2025.Il y a dix ans on pensait évidemment qu'il faudrait transporter les millions de tonnes de matériaux de la surface de la Terre en orbite.Aujourd'hui, surtout grâce à l'idée des colonies spatiales de Gerard O'Neil, le concept d'un réseau de satellites solaires refait surface.La construction de ces stations solaires pourrait être la première tâche d'une colonie spatiale de dimensions modestes.Cette nouvelle source d'énergie donne aussi une justification économique au projet.Selon les calculs d'O'Neil, chaque station solaire aurait un rendement équivalent à dix centrales nucléaires (d'un coût total de plusieurs milliards de dollars); le coût initial d'un satellite solaire pourrait être récupéré en quelques années en vendant l'énergie à des industries ou des gouvernements, espère-t-on.Selon Gerard O'Neil, il nous est maintenant possible, si nous le voulons, de «sortir de cette fragile biosphère où il nous est difficile de faire quoi que ce soit sans causer de dommage et d'aller là où il y a de nouvelles sources d'énergie et de matières premières».Le premier but à long terme de cette colonisation de l'espace sera de «mettre à notre disposition des sources virtuellement intarissables d'énergie et de matériaux pour ce qui sera, nous l'espérons, une croissance économique universelle».Devant le coût d'une telle entreprise — 100 à 200 milliards de dollars — plusieurs soutiennent qu'il serait préférable de tenter de résoudre les problèmes de pauvreté, de famine et de surpopulation en utilisant les moyens du bord plutôt que de se lancer dans une telle aventure.Ce à quoi Gerard O'Neil répond: «On essaie de trouver des solutions depuis des milliers d'années et on n'a rien trouvé.Il est temps de s'y prendre autrement.» Un journaliste européen a déjà écrit que seule la société américaine pouvait concevoir une telle idée et la développer ainsi, car elle seule semble avoir atteint le niveau technologique et économique nécessaire.Aussi ce n'est pas par hasard que O'Neil a intitulé son livre The High Dans cet habitat de type île I, près de 10 000 personnes pourraient vivre sur la surface intérieure de la sphère centrale.Les anneaux, qui ressemblent un peu à une série de chambres à air, contiendraient les fermes pour l'agriculture et l'élevage.Les grands panneaux rectangulaires serviraient à dissiper la chaleur produite par la station industrielle.Frontier.La société américaine semble toujours avoir besoin d’une frontière.Et qui parle de frontière, parle de conquête, d'occupation, d'exploitation; et ce bien souvent au nom d'une idéologie «sans reproche».Il y a deux siècles, c'était la frontière du Far-West; il y a près de 20 ans c'était celle de la Lune.Et maintenant, NASA QUÉBEC SCIENCE / mal 1979 41 '•> si Ceffe sphère d'ile / tournerait à une vitesse de 1,9 révolution/minute, produisant une gravité de 1 g à d'équateur» et nulle aux «pôles».// faudrait environ 20 minutes pour marcher de l'équateur à l'un des pôles.c’est la colonisation de l'espace, cette «dernière frontière» (titre d'une récente émission de télévision sur le sujet).POUR QUE S'ÉCOULE LE TROP-PLEIN HUMAIN Si l'on en croit certains supporteurs, la colonisation de l'espace pourrait résoudre le problème de la surpopulation.Le surplus d'habitants serait envoyé dans des colonies que l'on construirait au fur et à mesure que le besoin s’en ferait sentir.Mais cela ne peut pas être une façon bien efficace d'attaquer le problème.Les problèmes presque quotidiens de regroupement et de transport de milliers de personnes seraient énormes.Et l'on pourrait s'inquiéter des critères de sélection qui seraient alors appliqués.La surpopulation requiert une solution à la source, et non pas une demi-mesure qui, à la longue, ne résoudrait rien.Dans un article sur la croissance exponentielle, le physicien américain Allan Bartlett propose l'analogie suivante.Une colonie de bactéries vivait dans un vase fermé.À chaque seconde, la population de la colonie doublait: 1,2,4,8,16.Bientôt une bactérie plus intelligente que les autres se rendit compte que les bactéries occupaient déjà un huitième du vase et qu'il ne restait plus que trois secondes avant que la colonie ne meure de surpopulation.Pris de panique, on envoya des éclaireurs à la recherche d'autres vases.À la seconde où le vase était à demi-rempli, la colonie apprit que l'on avait découvert trois autres vases, ce qui quadruplait l'espace habitable.Les bactéries se réjouirent, ne réalisant pas qu'avec leur taux de croissance, la découverte de trois autres vases ne prolongeait l'existence de la colonie que de deux secondes.Les colonies spatiales ressemblent un peu à ces trois autres vases.La solution semble être trouvée mais on ne fait que repousser le problème temporairement.L'analogie mentionnée plus haut peut aussi s'appliquer à l'augmentation à un taux exponentiel de nos besoins d'énergie et de matières premières.Gerard O'Neil et ses collègues semblent prendre comme point de départ la notion suivante: si nous voulons continuer à croître et à nous développer au même rythme, il nous faut aller chercher ailleurs l'énergie et les matières premières nécessaires; ce que nous offre la Terre ne suffit plus.Peut-être faudrait-il plutôt remettre en question cette croissance effrénée?Même si la colonisation de l'espace est présentée comme la seule solution future aux divers problèmes humains et devrait être entreprise pour cette raison, on peut facilement croire que le projet sera finalement accepté ou rejeté pour des raisons économiques ou politiques.Et ce ne seront pas les pays sous-développés qui en profiteront.Dans son livre Les Villes de l'Espace, O'Neil suggère que la vente d'énergie à la Terre rendra le projet économiquement possible.Plusieurs critiques d'O'Neil trouvent ses projections trop spéculatives et sont d'avis que cette possibilité d'énergie à bas prix ne justifie pas un tel investissement initial.FUIR LA RÉALITÉ TERRESTRE DANS L'ESPACE Pour satisfaire ceux qui préfèrent les arguments un peu plus philosophiques, O'Neil ajoute: «La plupart des gens qui ont étudié les conséquences sociologiques de demeurer à jamais sur la Terre et de ne pas utiliser les ressources non terrestres concluent que nous sommes presque certains d'en arriver à un monde beaucoup plus restrictif, beaucoup plus autoritaire; lorsque l'on établit des règles dans un domaine, le domaine physique extérieur, il est très difficile de ne pas en établir dans les autres domaines, psychologiques et intellectuels par exemple.Si nous chérissons les libertés humaines — de pensée, d'action — il est d'une grande aide de se trouver dans un environnement où les libertés physiques sont aussi disponibles et intactes.» Certes, la tâche d'éviter un monde plus autoritaire, où les libertés de pensée et d'action seront intactes, ne sera pas facile.Mais c'est avoir une vue plutôt matérialiste et simpliste des choses que de penser qu'un accroissement des libertés physiques entraînera quasi automatiquement une plus grande liberté intellectuelle.Rien ne nous assure non plus qu'une communauté de 10000 habitants dans l'espace se comportera de façon différente d'une communauté semblable sur la Terre.Transplanter un groupe de personnes dans une petite sphère dans l'espace n'éliminera pas nécessairement les problèmes d'injustice, d'oppression.d'inégalités sociales.Selon Paul Csonka, professeur de physique à l'Université de l'Oregon, «la colonisation prématurée de l'espace sur une grande échelle ne serait en fait que l'exportation, à l'échelle cosmique, de l'oppression, de la misère et du désordre — les qualités mêmesqui caractérisent aujourd'hui une grande partie de l'activité humaine.» Les problèmes sérieux auxquels nous avons déjà à faire face ne sont-ils pas plutôt de nature politique et morale?Bâtir une nouvelle Terre sur notre petite planète ne serait pas nécessairement une tâche plus difficile que d'en bâtir une dans le ciel.Le développement des connaissances scientifiques et technologiques se poursuivront et il est probable qu'un jour l'espace interplanétaire sera habité par l'homme.Par contre, les colonies de l'espace, telles qu'elles sont présentées aujourd'hui, sont le produit d'une pensée technologiste — «La technologie nous sauvera» — peut-être trop simpliste pour convaincre.Pour en lire plus: T.A.Heppenheimer, Colonies in Space, Warner Books, New York, 1978 Gerard R.O'Neil, Les villes de l'espace, Robert Laffont, collection Les Visages de l'avenir / prospective scientifique et technologique, Paris, 1 978 Space Settlements — A Design Study.Nasa, 1977.Document disponible chez The Superintendant of Documents, U.S.Government Printing Office, Washington, D.C.20402 La revue The Futurist présente de temps à autres des articles sur le sujet, écrits par des supporteurs et des critiques. 42 mai 1979 / QUÉBEC SCIENCE ORCHESTRER LE TRAFIC AÉRIEN Les aiguilleurs du ciel sont des candidats rêvés aux ulcères et au divorce.Une solution: autonnatiser leur travail de plus en plus.par Claude de Launière Si les frères Wright se retrouvaient aujourd'hui, par je ne sais quelle magie, à l'aéroport Kennedy de New York, en plein après-midi, il est probable qu'une fois revenu de leur étonnement, après s'être longuement émerveillés devant nos monstres volants, commencerait alors à trotter dans leur tête une question qui pourrait bien ressembler à celle-ci: comment diable font-ils pour éviter les collisions?Tant de mouvements au sol et dans les airs, tant de machines volantes différentes, et tout semble se dérouler harmonieusement, sans anicroche?Ce que ne savent pas Wilbur et Orville Wright, c'est que, cloîtrés dans la tour de contrôle et dans le centre-radarterminal, les aiguilleurs du ciel mènent le bal; aucun mouvement ne leur est étranger; grâce à un réseau de communications sophistiqué et à un travail d'équipe de haut niveau, ils font de l'aviation le moyen de transport le plus sécuritaire.Sans service de contrôle, l'aviation, particulièrement commerciale, paralyse; il suffit de se rappeler les dernières grèves de la controversée CATCA (Canadian Air Traffic Controllers Association) pour s'en convaincre.Depuis le début de son existence, dans les années 30, le service de contrôle de la circulation aérienne a fait preuve d'un dynamisme étonnant, devant répondre aux besoins nombreux que ne cessait de créer l'évolution accélérée de l'aviation.Rappelons-nous que seulement 70 ans séparent le frêle biplan des frères Wright du supersonique Concorde.Durant la période 1 935-1 950, la vitesse de croisière des avions commerciaux se situait dans les environs de 200 nœuds et le volume de trafic était très faible.Avec les années, le caractère international de l'aviation s'affirmait; le besoin d'un organisme international permanent, capable d'assurer une certaine uniformité dans le développement de tous les domaines de l'aviation, se faisait sentir.En 1947, l'Organisation internationale de l'aviation civile venait remplir ce rôle.Aujourd'hui, non seulement la vitesse de croisière de la plupart des avions commerciaux a-t-elle presque triplée, mais il existe toute une gamme de types d'avion, conçus pour des vitesses et altitudes de croisière variées, possédant des caractéristiques opérationnelles différentes, et qui ont tous droit, à des degrés divers, aux services du contrôle du trafic aérien.UN RÉSEAU ROUTIER AÉRIEN Le contrôle de la circulation aérienne possède beaucoup de points communs avec celui de la circulation routière.Les objectifs sont identiques: éviter les collisions tout en interférant le moins possible avec l'écoulement du trafic.Dans les deux cas, un réseau complexe de routes existe, bien délimité au sol, formé par d'invisibles ondes radio dans le ciel.Évidemment, l'automobile opère en deux dimensions alors que l'avion se déplace aussi verticalement; ça complique les choses.L'automobiliste évite les accidents en respectant certains règlements et en suivant visuellement le mouvement de ses congénères.De même, le pilote, opérant selon les règles du vol à vue (VFR), suit certaines règles, mais la responsabilité d'éviter les collisions repose entièrement sur ses épaules.«Voir et être vu», voilà son mot d'ordre.Ses contacts avec le service de contrôle se limitent au moment où il pénètre dans la zone de contrôle d'un aéroport.«K.fi ' ,,, • ¦ 'fifi*1***" _ QUEBEC SCIENCE / mai 1979 43 Pour l'automobiliste, quand la visibilité ou les conditions routières deviennent mauvaises, il peut toujours s'immobiliser.Le pilote, lui, doit troquer les règles de vol à vue pour celles du vol aux instruments (IFR); alors interviennent les contrôleurs de la circulation aérienne.À partir de l'instant où l'aéronef commence à rouler, au point de départ, jusqu'à l'arrêt des moteurs une fois arrivé à sa destination, tous ses mouvements seront dictés par les aiguilleurs du ciel.Ceux-ci maintiendront entre chaque avion IFR des séparations latérale, longitudinale et verticale, fournissant à chacun un espace aérien impénétrable en forme de boîte, solidaire de son mouvement, durant un vol complet, l'avion pourra facilement passer «entre les mains» d'une dizaine de contrôleurs, chacun responsable d'une étape du vol.Les mauvaises conditions météorologiques ne sont pas un préalable obligatoire à l'utilisation du vol aux instruments.En fait, la majorité des transporteurs aériens en font usage quelle que puisse être la situation météorologique; sécurité oblige.DE GÉNÉRATION EN GÉNÉRATION On peut diviser le développement des moyens de contrôle du trafic aérien en générations; générations se chevauchant les unes les autres, les besoins variant selon les régions.Durant la première génération, dans les années 40, le contrôleur suivait l'évolution du trafic IFR sur une carte, jonglant avec une quarantaine de formes de séparation pour solutionner ses problèmes de trafic.L'opération radio servait de relais, informant le contrôleur de la position des avions, et transmettant aux pilotes des instructions du genre: A devra décrire un circuit d'attente au nord et à l'ouest du point X, alors que B traversera son altitude pour dégager la voie à C; B devra avertir quand il croisera l'altitude de A, et ce dernier devrait recevoir une autorisation de poursuivre son vol à 12:07 (heure).Bref, ce mode de contrôle, encore utilisé dans certaines régions éloignées du Canada, exigeait beaucoup de temps de communications et ne pouvait intégrer qu'un nombre très limité d'avions.L'arrivée du radar, à l'aube des années 50, marqua la transition de la première à la deuxième génération.Suivirent les communications directes contrôleur/pilote, et une amélioration des aides à la navigation au sol grâce à l’utilisation de radiophares omnidirectionnels à très haute fréquence (VOR/DME), fournissant au pilote le relèvement et la distance le séparant de la station.Les contrôleurs pouvaient réduire les séparations entre les avions et augmenter sans danger la densité du trafic.Dans les années 60, l'automation fit son apparition, marquant le début de la troisième génération.Première étape de cette automation, le traitement et l'impression de certaines données de vol par un ordinateur, travail clérical qu'effectuaient auparavant les contrôleurs.Voilà la situation régnant actuellement au centre de Montréal.DES CANDIDATS A L'HYPERTENSION, AUX ULCÈRES ET AU .DIVORCE Aéroport Ohare-Chicago: 1 900 vols, quotidiennement, à espacer, ordonner, suivre, des yeux ou sur écran radar, tout en maintenant les délais au minimum.Aux heures de pointe, on y enregistre un décollage ou atterrissage à tous les 20 secondes.94 contrôleurs pour réaliser ce travail; deux y œuvrant depuis plus de dix ans, mais la plupart n'y font pas cinq ans.La quantité énorme de décisions instantanées à prendre chaque jour, la peur d'une erreur de jugement et leurs corollaires: tension, ulcères, problèmes conjugaux, etc., ont raison de leur entêtement.Car, aussi surprenant que cela puisse paraître, la plupart des contrôleurs affectés à Ohare choisissent cet enfer par défi personnel.En une année, sept contrôleurs quittèrent la tour de contrôle sur une civière, victime d'hypertension aiguë.Voilà évidemment un cas extrême, Ohare étant l'aéroport le plus achalandé au monde.Mais qu'en est-il exactement pour le contrôleur «moyen»?Quel impact a son travail sur sa santé, physique et mentale?Une étude américaine réalisée par les docteurs Sidney Cobb et Robert M.Rose apporte un peu de lumière sur le sujet.On y compare un groupe de 4 325 contrôleurs et de 8 435 pilotes à Laide d'examens médicaux identiques que les deux groupes doivent passer, généralement chaque année, pour renouveler leur licence.Les résultats montrent un facteur anormalement élevé de cas d'hypertension chez les contrôleurs; ceux-ci y sont quatre fois plus sujets que les pilotes.Ce risque semble relié à la charge de travail, les contrôleurs travaillant dans les régions à haute densité de trafic remportant la palme.De même, les ulcères (peptiques) font des ravages dans le milieu; l'occurrence y est deux fois plus grande pour les contrôleurs, et ils en sont victimes à des âges beaucoup moins avancés que les autres.Enfin, bien que l'évidence soit moins forte, les contrôleurs semblent plus sujets au diabète que le groupe des pilotes.Un défaut à cette étude: les personnes passant ce genre d'examen n'informent habituellement pas le médecin de leurs problèmes de santé de peur de se voir retirer leur licence.La situation réelle pourrait être pire.À quel degré ces constatations s'appliquent-elles aux contrôleurs canadiens?La densité de trafic est moindre ici mais, d'autre part, en raison d'un équipement techniquement moins développé, le con- trôleur doit consacrer beaucoup plus de temps et d'énergie à chaque utilisateur de l'espace aérien.Malheureusement, il existe peu d'études canadiennes traitant de l'aspect humain du système, pourtant le contrôleur en demeure l'élément clef.Toutefois, à discuter avec les gens de ce milieu fermé, on constate que le travail a indubitablement un impact, à des degrés divers, sur leur santé et leur comportement social; le nombre anormalement élevé de divorces au centre-radar de Montréal est un fait admis depuis longtemps.Beaucoup de spécialistes pensent que la situation est telle qu'une augmentation des responsabilités du contrôleur se ferait au détriment de la sécurité aérienne.La forte tension à laquelle sont soumis les contrôleurs aériens a des conséquences sur leur santé.Ainsi, les contrôleurs sont quatre fois plus sujets à l'hypertension que les pilotes d'avion et deux fois plus aux ulcères d'estomac.RNAV: L'ORDINATEUR QUITTE LE PLANCHER DES VACHES Dans le système de navigation conventionnel, les avions IFR se déplacent en général de radiophare en radiophare, sur des routes aériennes bien délimitées et restreintes en nombre.Cette façon de procéder impose beaucoup de contraintes, tant pour le pilote que pour le contrôleur, et nécessite un volume élevé de communications, accaparant beaucoup du temps des deux acteurs.Ceci est particulièrement vrai durant les phases délicates d'approche et de départ d'un aéroport.La navigation de surface (RNAV), possible grâce à la miniaturisation des ordinateurs, pourrait bien changer radicalement la situation.Aux États-Unis, il existe depuis 1973 un vaste programme pour intégrer le plus rapidement possible ces nouvelles techniques de navigation au système de contrôle de la circulation aérienne.Il existe deux types de navigation de surface; la première requiert l'utilisation OACI 44 mai 1979 / QUÉBEC SCIENCE LA TRAVERSÉE DES OCÉANS W w +2 +1 0 -1 -2 9- a.accélérateur à nul TERRE FORCE * TERRE b.accélération réelle TERRE c.fausse accélération due à la gravité (0 FORCE) «Tout avion, au repos ou en mouvement rectiligne uniforme, gardera cet état, de mouvement ou repos, jusqu'à ce qu'il subisse une accélération (augmentation ou réduction de vitesse, virage).» Vous avez sûrement reconnu la première loi de Newton.servie «à la moderne».Un système de navigation de surface (R N AV) repose sur cette vérité vieille de trois siècles.Depuis la fin des années 60, la majorité des grandes lignes aériennes l'utilisent pour la traversée des océans.Il s'agit de la navigation par inertie.Le système est complet par lui-même, c'est-à-dire qu'il ne nécessite aucune aide à la navigation au sol ou en orbite (satellite).Avec lui, la profession de navigateur devient caduque, tout s'effectuant de façon automatique.Le principe de fonctionnement est simple.En mesurant chaque accélération que subit le mobile, on peut calculer sa vitesse et, de cette dernière, déterminer sa nouvelle position; seule donnée initiale requise: la position précédente.Un accéléromètre, appareil formé d'une masse quelconque libre de se déplacer par rapport au mobile (par exemple, un pendule), obtient cette première donnée (l'accélération) aussitôt transformée en un signal électrique proportionnel à la magnitude du déplacement.L'opposition qu'offre la masse à l'accélération est analogue à la pression qui «colle» le passager à son siège lors d'une accélération brusque.Le traitement de cette donnée s'effectue par un ordinateur, deuxième élément du système, qui en l'intégrant acquiert la vitesse; vitesse qu'il additionne ou soustrait à celle précédemment emmagasinée en mémoire, pour enfin trouver la vitesse instantanée.Une deuxième intégration fournit la distance parcourue.En fait, le système comprend deux accéléromètres à angle droit, qui fournissent les données à partir desquelles l'ordinateur calcule la distance voyagée dans les directions nord-sud et est-ouest.Troisième et dernier élément important, un gyroscope pour maintenir l'accéléromètre à niveau, celui-ci ne pouvant pas distinguer entre une accélération «réelle», causant un changement dans la vitesse du mobile, et l'accélération gravitationnelle.En raison de sa rigidité spatiale lui permettant de conserver son orientation, le gyroscope élimine la possibilité d'inclinaison de la plateforme sur laquelle repose les accéléromètres.L'ordinateur, en plus d'évaluer vitesse et position, effectue aussi les calculs nécessaires pour mener l'avion à bon port, excusez.aéroport, fournissant des indications codées au système de pilotage automatique ou au pilote.Pour le contrôle du trafic aérien, les avantages sont énormes; les radars ne couvrant pas l'espace aérien au-dessus des océans, les contrôleurs doivent espacer latéralement les avions en fonction de la précision de la navigation.Meilleure précision signifie espacement moindre, diminution de la possibilité de délai, et plus grande capacité d'absorption de trafic.Enfin, de récents développements dans la technologie laser-gyro pourraient bien accroître la précision de cette forme de navigation, et en réduire par la même occasion le coût.Durant un vol complet, depuis le départ jusqu'à son arrivée à destination, l'avion pourra passer «entre les mains» d'une dizaine de contrôleurs, chacun responsable d'une étape du vol.d'aides à la navigation au sol, et la deuxième, complètement autonome, fonctionne sans aucune information du monde extérieur.Ces systèmes offrent la possibilité d'effectuer n'importe quel parcours sans tenir compte des routes aériennes conventionnelles.Il suffit au pilote, au départ ou en vol, d'insérer dans l'ordinateur les coordonnées (latitude, longitude, distance d'un radiophare, etc.) des points de cheminement choisis pour son trajet.L'ordinateur fournit alors continuellement de l'information sur la route suivie et sur la distance parcourue.Dans une version améliorée, le pilote reçoit aussi de l'information sur sa position verticale (RNAV-3D).Enfin, le summum, le RNAV-4D, calcule pour le pilote le parcours et la vitesse à maintenir pour arriver à un point donné dans l'espace à un temps précis.Les contrôleurs peuvent créer de toutes pièces des routes multiples d'évitement parallèles pour décongestionner certains secteurs, et exercer une certaine ségrégation du trafic en fonction de la vitesse et des autres caractéristiques opérationnelles des utilisateurs (VTOL, STOL supersonique etc.).Tout le charabia verbal échangé durant les approches et les départs, entre le pilote très occupé à manœuvrer l'avion durant cette phase critique du vol, et le contrôleur devant suivre l'évolution de plusieurs avions, pourra être pratiquement éliminé.Il suffira de déterminer à l'avance des parcours d'approche et de départ RNAV pour chaque aéroport.Le contrôleur n'aura alors qu'à mentionner l'identification du trajet à suivre, l'ordinateur en vol ira chercher l'information nécessaire emmagasinée en mémoire et la présentera au pilote.Si l'avion possède un système RNAV-4D, le contrôleur pourra aussi spécifier letemps de l'atterrissage, observant le mouvement de l'avion sur l'écran radar, n'intervenant pratiquement jamais.Ce sera la 45 QUÉBEC SCIENCE / mai 1979 belle vie.Qui plus est, il deviendra possible d'effectuer des approches aux instruments à des aéroports ne possédant pas l'infrastructure électronique habituellement requise au sol, décongestionnant ainsi certains aéroports au profit d'autres présentement sous-utilisés.Au Canada, il n'existe pas de programme global pour incorporer cette nouvelle technologie au système de contrôle aérien, le besoin ne s'en faisant pas sentir présentement.Toutefois, une expérience intéressante a eu lieu il y a quelques années entre Montréal et Ottawa: lesystèmeADACqui utilisait des avions à atterrissage et décollage courts.22 vols allers retours s'effectuaient quotidiennement sur des routes RNAV conçues pour interférer le moins possible avec letrafic IFR conventionnel, et nécessiter le minimum d'interventions de la part des contrôleurs.LA SOLUTION CANADIENNE POUR LES ANNÉES 80-90 le et T h >1 [!«¦ il jlofi II je.' |0!i :e# iitf u Dès la fin des années 60, il devenait évident, particulièrement aux États-Unis où les demandes des transporteurs aériens excédaient les capacités d'absorption du système de contrôle, qu'il fallait faire entrer de plain-pied l'informatique et l'automation pour pouvoir répondre aux besoins des années 80-90.JETS (Joint Enroute Terminais System), un programme d'automation progressive du système de contrôle, voilà la réponse canadienne à ces préoccupations.Un troisième coéquipier s'adjoindra à l'équipe contrôleur/pilote: l'ordinateur.Le cœur du système, l'unité centrale de traitement (UCT), consistera en un ensemble d'ordinateur duplex, le systèmë devant fonctionner 24 heures par jour, sept jours par semaine et cela sans panne qui pourrait compromettre sérieusement les opérations de contrôle.Dans lejargon des ordinateurs, on parle du concept «Fail Soft-Fail Safe», concept qui implique que la panne d'un élément quelconque ne dégrade pas le fonctionnement du système.Advenant la défaillance de deux éléments jumeaux, le système se réorganise de façon à assurer les fonctions essentielles selon une priorité pré-établie.L'UCT contrôlera le minutage de toutes les fonctions de traitement, l'intégrité opérationnelle du système reposant sur une exécution précise et ordonnée de tâches interdépendantes.Il éditera et traitera les données radar et de plan de vol, distribuera l'information aux unités de présentation et effectuera les fonctions qui lui seront demandées via la console de contrôle du système.A cela s'ajouteront les sous-systèmes d'acquisition des données et de leurs présentations.Concrètement, pour le contrôleur, cela signifie la présentation automatique sur l'écran des informations dérivées du Comparaison des différents moyens de transport en fonction du nombre d'accidents mortels autoroutes piétons transport marin chemin de fer transport aérien I ' " 1 Si l'on compare le nombre d'accidents mortels, il est plus sûr de voyager par un moyen de transport aérien que terrestre.Les autoroutes remportent haut la main le record des accidents mortels.Satellite de communication Satellite de surveillance Centre de contrôle du trafic aérien // est bien possible que, dans le système de contrôle de la circulation aérienne du 21 e siècle, les satellites occupent une place importante, servant pour la navigation aussi bien comme relais pour des communications automatiques, que pour la surveillance radar. 46 mai 1979 / QUÉBEC SCIENCE radar.Les symboles présentés indiqueront la position de la cible radar, latraînée de son parcours, et enfin une ligne reliant la cible à un rectangle contenant des données alphanumériques (identification de I avion, altitude, vitesse, etc.).Un programme de dépistage (tracking) rendra le bloc de données solidaire du mouvement de la cible.Le contrôleur pourra filtrer I information qui lui sera présentée; par exemple, n observer que les avions à telle altitude.À I aide d’un clavier, il pourra «converser» avec l’ordinateur, l'interrogeant, modifiant ou ajoutant de l’information.Enfin, toutes les informations pertinentes, cartes, conditions météorologiques, conditions des aéroports, liste des arrivées et des départs, etc., lui seront présentées sur un écran cathodique ou à l’aide d’un système de projection.Voilà évidemment un aperçu très incomplet du projet JETS qui devrait débuter sa carrière au début des années 80.Viendront éventuellement s'y greffer d'autres programmes en fonction de nouveaux besoins; ainsi, au moment venu, JETS pourra «s acclimater» à la navigation de surface.Bref, s'ensuivra une réduction appréciable du volume de communications, une accession plus rapide à ( information, une meilleure coordination contrôleur/ contrôleur et contrôleur/pilote et le résultat de tous ces avantages: la possibilité de gérer le mouvement de plus d'avions, plus sécuritairement, et un certain allègement du fardeau du contrôleur.ET LES SATELLITES?Vers 1968, les spécialistes prévoyaient que dès 1973, une flopée de Concorde survoleraient l'Atlantique en nombre tel qu il ne serait plus suffisant de les espacer verticalement.La nécessité d'un superradar pour réduire les espacements horizontaux et surveiller ce trafic particulier (altitude de croisière 1 5 à 23 000 mètres, vitesse mach 2,2) semblait une évidence.D'autre part, les retombées de l'exploration spatiale, surtout dans le domaine des communications et des satellites, commençaient à apparaître, d'où l'idée d'un satellite multi-fonctions (navigation, communication et surveillance du trafic).Ces satellites devraient être géostationnaires pour surveiller les océans.Ils feraient office de relais pour des échanges de données codées et de phonie entre les avions et le contrôle de trafic.Un signal serait émis en permanence par le satellite, signal dont la phase et le découpage serviraient de référence aux avions.Ces derniers émettraient à d'autres fréquences dans les créneaux de temps alloué à chacun.Le calcul de la distance entre les avions et le satellite s'effectuerait à partir du décalage entre bits et entre phase des signaux de référence émis par le satellite et les signaux émis par les avions.Il suffirait de deux satellites et de la connais- ^•1 sx.V.v?\ A.7 •ALÀ.Au cours du vol aux instruments, par exemple lors de mauvaises conditions météorologiques, tous les mouvements de r avion sont dictés par le contrôleur qui suit ses déplacements sur son écran radar.sance de I altitude de l’avion pour évaluer sa position, position qui pourrait être retransmise par les satellites.Les Américains réalisèrent en 1974-1975 à l’aide du satellite ATS6 des expériences de navigation dont les résultats furent très discutables.Le projet a disparu en 1977.D'autre part, la navigation par inertie marquant de tel progrès, il a été possible aux responsables du contrôle de la circulation aérienne au-dessus de (Atlantique Nord de réduire l'espacement latéral des avions à 95 kilomètres sans satellite.Le système de navigation hyperbolique Omega satisfait également les besoins actuels.L Omega fournit une couverture globale (terrestre et océanique) à l'aide de huit stations à très basse fréquence situées à des endroits stratégiques à travers le monde.Aujourd hui, les militaires américains travaillent au programme NAVSTAR, système mégalomane (un milliard et demi de dollars) que seuls une clique de militaires d'une superpuissance peut s offrir, et encore; d'où les tentatives de ces messieurs d intéresser d'éventuels utilisateurs civils pour obtenir leur soutien.Les objectifs visés sont nombreux; une couverture mondiale nécessitant des orbites inclinées, une mesure accessible en permanence, requérant des satellites aussi stationnaires que possible.Évidemment les militaires demandent un système invulnérable.Il faudra donc choisir des orbites hautes et multiplier le nombre de satellites.Résultats de ces conditions: un système de 24 satellites de 400 kg, d'une durée de vie de cinq ans, et tournant à 22 000 km d'altitude.Élément le plus délicat de ces satellites; une horloge atomique capable d'une précision de 10-13 s.En tenant compte de toutes les variables, telles que les mouvements erratiques des pôles, les 38 microsecondes d effet relativiste, les erreurs ionosphéri- ques, la dérive des horloges atomiques, etc., on obtient une précision positionnelle de dix mètres en latitude, en longi-tude et en altitude.Évidemment, seuls les militaires pourront bénéficier de cette précision maximale.Le projet est en marche.NAVSTAR est un système complexe et coûteux et il est fort probable que l'usage ne pourra se généraliser à tous les navigateurs.Dans les prochaines années, il semble plus vraisemblable que les satellites servent plutôt aux civils comme relais pour la communication avion/centre de contrôle.POUR L'AVENIR.PARTAGER LES RESPONSABILITÉS Environ un quart de siècle après le survol de Montréal par le comte Jacques de Lesseps, deuxième aviateur à franchir la manche, un service de contrôle de la circulation aérienne naissait.Aujour-d hui, après des débuts modestes, ce service de contrôle est devenu un des facteurs affectant le plus significativement le développement du transport aérien.Quels concepts ou philosophie présideront aux futurs développements du système de contrôle?Beaucoup de spécialistes croient qu’il faudra graduellement transférer une partie des responsabilités du contrôleur au profit du pilote.Autre élément important, il faudra bien cerner et comprendre le problème du comportement humain dans cet univers hautement automatisé.L utilisation intensive des méthodes de navigation de surface favorisera un allègement du fardeau du contrôleur et un certain transfert de responsabilité.Les futurs développements technologiques permettront peut-être une visualisation sur écran de l’environnement aérien dans la cabine de pilotage; le pilote pourra alors prendre certaines décisions sans aide du contrôleur.À long terme, peut-être que tout se résumera à l’échange d'informations codées entre un ordinateur au sol et ses semblables en vol; le contrôleur surveillera l'évolution du trafic et n'interviendra qu'en de rares occasions, devenant un espèce de «réparateur de maytag» du ciel. QUÉBEC SCIENCE / mai 1979 47 ASTRONOMIE M 87 A LE CŒUR TROUÉ M87.une galaxie elliptique géante dans la constellation de la Vierge suscite depuis longtemps l'intérêt des théoriciens.Son cœur serait un trou noir.Source The Hubble Atlas of Galaxies Quels processus pourraient rendre compte de l'énergie observée dans les noyaux des radiogalaxies (galaxies qui ont un rayonnement radio non thermique) et des quasars?Comment expliquer ces explosions soudaines au centre de certaines galaxies qui médusent les astronomes, tellement les quantités d'énergie libérées sont énormes?Se pourrait-il que les trous noirs, sous une forme ou une autre, en soient responsables?Autant de questions auxquelles se greffent des réponses spéculatives; réponses qui pourraient bien aujourd'hui passer le test suprême; la confrontation avec deux séries de données observationnelles recueillies récemment par un groupe d'astronomes des observatoires Kitt Peak et Haie, et un groupe de radio-astronomes de Caltech (California Institute of Technology).Première cible des attentions de ces scientifiques: M87, une galaxie elliptique géante logeant dans la constellation de la Vierge, relativement près de nous, et de magnitude onze (la magnitude est l'échelle de brillance).Depuis longtemps, elle pique la curiosité des théoriciens, notamment en raison de son rayonnement radio non ther- mique et de la possibilité d'éjection de matière sous forme de jets à partir de son centre.La combinaison des mesures spectroscopiques, réalisées avec le télescope de quatre métrés de Kitt Peak, et des informations photométriques, obtenues à l'observatoire Haie, montre une galaxie normale jusqu'à un rayon d'un arsec (une seconde d'arc) du centre galactique, où alors le rapport masse/ luminosité croît rapidement pour atteindre une valeur de 60 au centre.Dix fois plus que les attentes théoriques.Résultat ahurissant que les observateurs expliquent par la présence d'un objet noir central qui, tenez-vous bien, posséderait une masse équivalente à cinq milliards de soleils.Si cette masse est réellement un trou noir, comme tout semble l'indiquer, alors toutes les pièces du casse-tête M87 accumulées depuis quelques années s'emboîtent les unes aux autres pour former une image compréhensible.Par exemple, l'intense émission de rayons X (5x 1042 ergs/sec) mesurée découlerait de Taccrétion (masse qui grossit sous l'effet de la force gravitationnelle) de gaz dans un super-disque entourant le trou noir.Ce disque de gaz et de poussière se nourrirait de débris crachés par certaines étoiles du centre galactique vivant des phases spasmodiques de leur évolution; des morceaux d'étoiles, disloquées par effet de marée en s'approchant trop près du gouffre cosmique, contribueraient également à sa masse.Toutefois, une énigme demeure: compte tenu du taux d'ac-crétion calculé et de l'âge de l'univers, l'explication de la formation d'un trou noir de cette dimension rencontre de sérieux problèmes théoriques »f Télé-université Cours du programme de certificat Un art méconnu; la gestion La publicité au Québec Initiation à la coopération Initiation à l'économie du Québec L'environnement: un bien collectif menacé Action-environnement I Action-environnement II Action-environnement III Français pour tous, français pour tout Histoire du Québec d'aujourd'hui: économie pouvoirs, idéologie Histoire du Québec d'aujourd'hui: population travail, nation Le patrimoine québécois L'informatique.c'est pas sorcier L’individu: son affectivité, sa sexualité Affectivité, sexualité et relations interpersonnelles CHEM r.i ! Je désire recevoir plus d'information sur les cours du programme i CHEM i * NOM .I ADRESSE I .Code postal .i L.J Bureau du registraire Télé-université 214, avenue du St-Sacrement Québec, Québec GIN 3X7 Bureau du registraire Télé-université 3465.rue Durocher Montréal, Québec H2X 2C6 48 mai 1979 / QUÉBEC SCIENCE auxquels les astrophysiciens n'ont pas de réponses précises.Du moins, pour le moment.Deuxième sujet de préoccupation, pour les radio-astronomes cette fois: NGC6251, une radiogalaxie de magnitude 14.Précisons d'abord que la contrepartie radio d'une galaxie dépasse habituellement de beaucoup ces dimensions optiques.La carte radio, obtenue par l’équipe de Caltech, comprend deux lobes gigantesques séparés de trois millions de parsec (1 parsec = 3,26 années-lumière), dans l'un desquels se trouve un mince jet intense long de 1,7 parsec.Fait important, ce jet, perpendiculaire à l'axe majeur galactique, possède à un de ses bouts une source radio compacte coïncidant avec le noyau optique de la galaxie; de plus, il s'étend dans la même direction qu'un jet aux dimensions beaucoup plus imposantes (200000 par-sec), découvert en 1 976 par les radio-astronomes de Cambridge.Ces jets émaneraient de matière éjectée du centre galactique, Il y aurait cinq millions d'années pour le plus grand, et beaucoup plus récemment pour l'autre.Ces observations apportent plus de poids aux hypothèses de radiosources extragalactiques dans lesquelles masse, énergie et momentum sont fournis continuellement aux composantes radio (lobes) via un faisceau originant du noyau galactique.D'autre part, l'orientation de ces jets semble coïncider avec l'axe de rotation d'un noyau central massif qui pourrait bien être un trou noir.Enfin, la constance manifestée dans cette orientation (près de cinq millions d'années) autorise le rejet de certaines théories qui supposent l'interaction de plusieurs corps éjectant de la matière de façon aléatoire.Bref, sans confirmer indubitablement la présence d'un trou noir au centre de NGC6251, les présents résultats permettront d'éliminer certaines hypothèses.L'arrivée du télescope orbital, prévu pour 1983, capable d'une résolution de 0,1 arsec, devrait apporter plus de lumière sur le sujet et, peut-être, quelques certitudes de plus.Claude de Launière La Recherche a des lecteurs dans 83 pays: pourquoi pas vous?Offre spéciale * /' N RECHERCHE R Pour chercheur, diant, sitaire, rche cons-ynthèse e tout ce d'im- fé I p-.uiic.msur lOUS les fronts de la recherche de la %ÆËÊ biochimie à Castro-physique^fi Recherche est une revue internationale^H publiée en^B français.^B bs Ses articles^ K.sont écrits^ BÉ| du monde Et lus dans jMiSæS^te monde entier.Je désire souscrire un abonnement d’un an (11 nos) à la Recherche au tarif de 26 dollars canadiens au lieu de 33 dollars.nom________________________________________________________________ adresse______________________________________________________________ pays_______________________________________________________________ à retourner accompagné de votre paiement à DIMEDIA, 539, bd Lebeau, Ville-St-Laurent P.Q.H4N 1S2.* offre réservée aux particuliers, à l'exception de toute collectivité. QUÉBEC SCIENCE / mai 1979 49 PATRIMOINE DES ARMES ANTI-FAUSSAIRES Au cours des dernières décennies, de nombreux conservateurs de musées, surtout en Europe et en Amérique, se sont rendus compte qu'ils avaient des faux dans leurs collections d'oeuvres d'art exposées.En fait, les faussaires sont de grands artistes à leur façon: leurs oeuvres sont souvent si bien réussies qu'elles paraissent plus vraies que les originaux.En Italie, on trouve une profusion de fausses lampes à huile romaines, de fausses amphores ou de fausses statuettes antiques.Les faux tableaux anciens se comptent par centaines à travers le monde, ne serait-ce que dans les musées.Au Mexique, les touristes, tout autant que des spécialistes de l'art du pays, achètent sans s'en rendre compte de fausses antiquités aztèques, toltèques ou autres.Au Canada, les experts se retrouvent avec de fausses statuettes esquimaudes ou de faux objets amérindiens: faux, parce qu'ils ne sont pas faits par des Amérindiens, ou encore parce que, bien qu'étant l'oeuvre d'Amérindiens, ils n'ont pas été faits à la période que laisse supposer la personne qui les vend.Ainsi, pour ce masque amérindien qui a l'air vieux, on ne saura la vérité à son sujet que lorsqu'il sera passé entre les mains des physiciens de l'Institut canadien de conservation (ICC) à Ottawa.Maintenant, en effet, on dispose de moyens techniques hautement perfectionnés pour les travaux d'expertise d'oeuvres d'art ou d'objets de provenance archéologique.Mieux que l'observation à la loupe ou au microscope, qui permet de connaître la nature du bois et l'état de détérioration, il y a la spectrométrie à rayons X et à l'infrarouge, la radiocristallographie, l'activation neutronique ou la thermoluminescence.La spectrométrie à rayons X permet d'identifier les éléments minéraux contenus dans un échantillon de matière.Lorsque l'on dirige un faisceau de rayons X de courte longueur d'onde sur un objet, il s'en dégage par réaction un rayonnement secondaire caractéristique des éléments inorganiques contenus dans l'objet en question.Ce rayonnement est alors capté par un cristal puis réfléchi vers un détecteur.Celui-ci enregistre le spectre de raies d'émission sur un diagramme où l'on peut lire la nature et la quantité de chaque minéral contenu dans l'objet.Ainsi, en plaçant un échantillon infime de la peinture du masque dans l'appareil, on apprend, par exemple, qu'elle contient du bioxyde de titane, un produit dont on sait parfaitement qu'il n’entrait dans la composition d'aucune peinture avant 1920.Par la spectrophotométrie à l'infrarouge, le physicien analyse les matières organiques présentes.Le spectre formé à partir du rayonnement infrarouge dirigé sur l'échantillon CTKCIlUMf Spécial Bonheur a—or IL N’Y A QU’UNE SEULE REVUE RÉGIONALE DE CE GENRE AU QUÉBEC.Focus présente mensuellement: 1 port-folio d'un photographe régional (sur papier glace), 3 dossiers d'analyse de type socio-culturel, une dizaine de chroniques (condition féminine, media, consommation.) et.11 est difficile de trouver Focus en dehors du Saguenay-Lac-Saint-Jean.ALORS.ABONNEZ-VOUS! 12 numéros .$12.00 soutien .$20.00 NOM.____________________________________________ ADRESSE: __________________________________ VILLE: ____________________________________________ code poslal Payable par chèque ou mandat-poste à la REVUE FOCUS.CP 10.JONQUIÉRE Musées nationaux du Canada 50 mai 1979 / QUÉBEC SCIENCE ECONOMIE UN MODELE POUR LES FLUCTUATIONS de peinture placé dans l'appareil permet dans ce cas-ci de déceler la présence de protéines de diverses origines.Ainsi, pour un masque amérindien ancien, la peinture est à base de gélatine animale et d'huile végétale et renferme des traces d'œufs de poisson (du saumon), tandis que la peinture moderne est à base d'acrylique, depuis 1910 environ.Dans le cas de céramiques, on peut aussi utiliser la radio-cristallographie et la thermoluminescence.La première consiste à déterminer par diffraction des rayons X la structure des cristaux contenus dans l’argile, doncdeconnaître l'origine de la terre qui a servi pour faire la céramique.Les mesures très précises, obtenues à partir d'un échantillon de seulement quelques milligrammes de terre cuite réduite en poudre, permettent de comparer facilement plusieurs échantillons.Par radiocristal-lisation on pourra identifier les composants inorganiques contenus dans les pigments d'une peinture.La thermoluminescence est le phénomène d'émission de lumière par un objet qui a subi une cuisson préalable, lorsqu'on le chauffe de nouveau à basse température.Elle est due à la libération par l'objet de l'énergie provenant de traces d'éléments radioactifs qui y sont stockées et est d'autant plus forte que la cuisson originale est plus ancienne.Il s'agit alors de comparer les courbes de thermoluminescence d'objets dont on connaît la date de fabrication à celles des autres objets.L'analyse par activation neu-tronique permet de déceler les impuretés contenues dans certains métaux et de les quantifier.Pour cela, on rend un échantillon radioactif en le soumettant à un flux de neu- trons dans un petit réacteur nucléaire de recherche.Ensuite, on identifie les radioéléments formés à partir des métaux ou des impuretés qu'ils contiennent.Par cette technique, un physicien de l'ICC a pu prouver qu’un couteau en fer fondu trouvé dans l'Arctique aurait été fabriqué par les Inuit de Devon Island, tout simplement parce qu'il s'agit de fer de l'endroit, d'origine météoriti-que, avec sept pour cent de nickel comparativement à un maximum de 2,5 pour cent dans les objets en fer importés.Telles sont quelques-unes des armes les plus perfectionnées des physiciens en lutte contre les faussaires ou qui veulent tout simplement en savoir plus sur des œuvres d'art ou des objets anciens.Les faussaires n'ont qu'à bien se tenir! François Picard Il arrive souvent, lorsque l'on tente d'analyser les situations complexes de la «vie réelle», que trop de facteurs contradictoires entrent en action pour permettre de dégager une vision claire.Ainsi en est-il, par exemple, des lois de l'économie.Afin de mieux analyser d'aussi complexes équilibres, le professeur Jay W.Forrester, du Massachusetts Institute of Technology, travaille depuis six ans au perfectionnement d'une simulation par ordinateur, connue sous le nom de «modèle national de dynamique des systèmes».Rappelons d'abord que Forrester fut un des piliers du Groupe de dynamique des systèmes du MIT qui effectua, au tournant des années 1970, la simulation de l'économie mondiale, pour le compte du Club de Rome.De conception assez primaire, le modèle ne tenait compte alors que de cinq variables: la population mondiale, les réserves de ressources, la production agricole, la production industrielle et le niveau de pollution.Chacune de ces variables devait influencer les autres selon diverses boucles de régulation établies arbitraire- ment.Par exemple, une hausse de pollution pouvait affecter le taux de mortalité, et entraîner par conséquent un ralentissement de la croissance démographique, impliquant par le fait même une moins grande pression sur le marché alimentaire, etc.Le modèle avait alors débouché sur une prédiction «noire»: à moins qu'on ne freine la croissance de la production industrielle, l'économie mondiale et le bien-être des populations allaient s'effondrer entre 1 990 et 2020.Certes, le modèle était simpliste.Il était aussi trop globalisant, puisque les systèmes économiques prennent le plus souvent des dimensions régionales dans notre monde.Dès 1972, Forrester se mettait donc au travail pour perfectionner un modèle analogue, mais simulant la situation des États-Unis.Cette fois les variables sont fort nombreuses: le niveau d'activité de chacun des grands secteurs industriels y est caractérisé par la circulation des employés, de l'information, du capital, ainsi que le niveau des investissements, des stocks et des prix.Pour simplifier, le .le droit à une enfance heureuse 1979 Année Internationale de l’Enfant Inieef Canada ® L'Institut canadien de conservation reçoit plusieurs masques comme celui-ci pour authentification et pour conservation.La spectrométrie à rayons X permet d'en analyser les pigments. QUÉBEC SCIENCE / mai 1979 modèle analyse le comportement économique des secteurs (au nombre de 1 5) comme s'il ne s'agissait que d’une seule compagnie par secteur.Bien sûr, on peut encore soutenir que toute simulation, aussi sophistiquée fût-elle, demeure simplificatrice à outrance, et n'est d'aucune utilité prospective.Jay W.Forrester fournit toutefois un sérieux argument à la défense de son modèle national.Dans un article du magazine The Futurist de décembre dernier, le chercheur américain affirme en effet que «notre modèle a démontré son caractère réaliste en générant le même genre de comportement que ceux qui affectent constamment l'économie nationale.Par exemple, le modèle a montré trois cycles réguliers dans les comportements économiques, tels qu'ils ont toujours été documentés dans la littérature: la fluctuation dans les affaires de trois à sept ans; la fluctuation à moyen terme (1 5 à 25 ans) dans le niveau des investissements, et un cycle de croissance à long terme de 45 à 60 ans».Alors que les gouvernements ont tendance à vouloir apaiser l'importance du cycle à court terme en jouant sur les politiques monétaires, les simulations sur le système de Forrester ont démontré que l'impact de telles mesures ne se fait sentir que très lentement, et que la fluctuation des affaires ne dépendrait que de problèmes d'ajustement entre le niveau des commandes, celui des inventaires, et le niveau de la main-d'œuvre.Au contraire, les politiques touchant les taux d'intérêt, la disponibilité du crédit et les primes à l'investissement peuvent avoir un effet direct sur l'importance du cycle intermédiaire (aussi appelé «cycle de Kuznets»), mais à condition d'être maintenues de manière continue, malgré l'apparence instable des fluctuations à court terme.C'est toutefois au niveau du cycle à long terme, ou cycle de Kondratieff, du nom de l'économiste russe qui l'étudia le premier en 1920, que le modèle Forrester est le plus surprenant.Quoique constaté historiquement, ce cycle à long terme n'a jamais pu être expliqué théoriquement, de sorte qu'on doute encore de sa réalité.Après tout, l'apparente régularité des grandes crises économiques (1830, 1890, 1930 puis, qui sait, 1980?) pourrait n'être due qu'à un hasard.Or, contrairement à toute attente, le modèle de Forrester, issue d'une simulation qualifiée de «neutre» par son auteur, aboutit à des oscillations présentant à peu près le même intervalle de 50 ans.Et à ceux qui doutent de la possibilité qu'une seule analyse économique soit valable au fil des siècles (après tout, la situation socio-économique change tellement en 100 ans), Forrester rappelle que les facteurs qui semblent influencer ce cycle dans son modèle n'ont guère changé depuis 200 ans, malgré notre ère de la vitesse: la dépendance accrue de la productivité face aux investissements de capitaux, les cycles dans la construction domiciliaire et industrielle, la faible mobilité des gens entre les secteurs in- 51 dustriels (le cas des textiles au Québec est un exemple éloquent), et la durée de vie active des travailleurs et de leurs patrons (qui déterminerait finalement la durée de ce cycle).On saura probablement dans dix ans si Forrester aura raison pour les prochaines années, mais son modèle est le premier qui fait ainsi apparaître ce cycle à long terme comme épiphénomène de la gestion de type capitaliste.Pierre Sormany À la découverte des oiseaux du Québec.vient de paraître NICHOIRS D’OISEAUX par Raymond Cayouette illustrations de Jean-Luc Grondin La description de 20 espèces d’oiseaux qui occupent les nichoirs.Des trucs pour les attirer et les faire nicher.Plus de 25 modèles de maisonnettes.18 planches en couleur.36 pages, illustrées en couleur.S4.00 nouvelle édition LES OISEAUX DU QUÉBEC par Raymond Cayouette et Jean-Luc Grondin L’habitat, les mœurs, le nid.le chant, la distribution, les migrations et lieux d hivernage de 243 espèces d’oiseaux du Québec.Un complément idéal aux guides d’identification sur le terrain.120 pages, illustrées en noir et blanc.S5.00 Les Oiseaux du Québec des oiseaux
Ce document ne peut être affiché par le visualiseur. Vous devez le télécharger pour le voir.
Document disponible pour consultation sur les postes informatiques sécurisés dans les édifices de BAnQ. À la Grande Bibliothèque, présentez-vous dans l'espace de la Bibliothèque nationale, au niveau 1.