Le jeune scientifique, 1 novembre 1966, Novembre
VOLUME 5 NUMÉRO 2 NOVEMBRE 1966 ' ejeune ¦ _ V,.£._ scientifiaue L’ACFAS PUBLICATION DE .tegB le jeune scientifiaue PUBLICATION DEI L’ACFAS Le Jeune Scientifique paraît huit fois par année, d'octobre à mai.C'est une revue de vulgarisation scientifique pour les jeunes publiée par l'Association cana-dienne-française pour l'Avancement des Sciences (ACFAS).RÉDACTION Léo Brassard directeur Roger H.Martel secrétaire de la rédaction Volume V, no 2 novembre 1966 SOMMAIRE CONSEIL D'ADMINISTRATION Réal Aubin Jean-A.Baudot Jean-M.Beauregard Léo Brassard Roger-H.Martel Jean-Louis Meunier Gaston Moisan Roland Prévost Marcel Sicotte 25 Le «Programme biologique international» (PBI) et le Québec 29 Actualité scientifique 30 Le fonctionnement de la pile solaire COMITÉ DE RÉDACTION Réal Aubin Jean-R.Beaudry Jean-Pierre Bernier Michel Brochu Raymond Cayouette Louis-Philippe Coiteux Pierre Demers Jean-Paul Drolet Jean-Guy Fréchette Raymond-M.Gagnon Guy Gavrel Olivier Héroux Edouard Kurstak Jacques Labrecque Serge Lapointe Paul Lorrain Alphée Nadeau Paul-H.Nadeau Raymond Perrier Roland Prévost Jacques Vanier 36 Le « bulldozer » thermonucléaire sera bientôt utilisé 41 Un ouvrage récent en « phytosociologie » 42 Les astronomes à la recherche de l'automation 44 Prochaine éclipse de Soleil, le 10 juillet 1972 46 Quelques jalons dans l'histoire des mathématiques Photo-couverture : une technicienne de laboratoire de l’Impe-rial Oil, Faye Chang, utilise une laveuse ultra-sonique pour nettoyer des tubulures complexes en verre qu’aucune autre méthode ne saurait récurer.Des ultra-sons à haute fréquence traversent le liquide, engendrent la dispersion des bulles et créent une intense pression — souvent de l’ordre de cinq tonnes au pouce carré — qui nettoie en quelques secondes à peu près n’importe quel objet.(Photo Ron.Vickers, Toronto, gracieuseté de l’Imperial Oil).Tarif des abonnements Abonnement annuel : Canada, $3.00; Etranger, $3.50.Abonnement annuel de groupe-étudiants, soit 15 abonnements et plus à une même adresse : $2.00 chacun.Vente au numéro : 50 cents.Adresses Direction : case postale 391, Joliette, Qué., Canada, (Collège de Joliette).Tél.: code régional 514 — 753-7466.Abonnements : case postale 6060, Montréal 3, Qué., Canada.Tél.: code régional 514 — 342-1411.Notes Tout écrit publié dans la revue n’engage que la responsabilité du signataire.Tous droits de reproduction et de traduction réservés par l’éditeur © ACFAS, 1966.Le Ministère des Postes à Ottawa a autorisé l’affranchissement en numéraire et l’envoi comme objet de deuxième classe de la présente publication.Port payé à Montréal.Imprimé aux ateliers de l’Imprimerie Nationale, Joliette. Les ressources naturelles sont menacées sous la pression de la population humaine qui s'accroît à un rythme sans précédent.Le Programme biologique international et le Québec par Gaston MOISAN La population du globe continue à s’accroître à un rythme sans précédent et elle exerce sur les ressources naturelles une pression qui s’accroît proportionnellement.Il faut trouver de nouvelles solutions pour répondre à cette pression croissante et on doit s’attaquer résolument au problème.On réalise cependant que pour augmenter la productivité mondiale, il nous manque des données scientifiques fondamentales.Dans un contexte biologique ou écologique, la productivité est une notion essentiellement quantitative.Elle embrasse les phénomènes de transformation de l’énergie solaire et des matériaux de base en énergie potentielle sous forme de matière vivante végétale ou animale.Ce concept n’inclut pas que la productivité primaire (surtout par les plantes vertes), mais aussi la productivité secondaire (par les animaux herbivores) et tertiaire (par les carnivores).Il s’agit donc de mesurer la quantité d’énergie solaire qui vient en contact avec un milieu donné, soit une forêt, un champ, un lac, un ruisseau, ensuite la quantité qui est transformée en énergie potentielle sous forme de matière végétale et par la suite la dégradation de cette énergie à mesure que le transfert s’effectue aux herbivores et aux carnivores.Les méthodes de mesures de productivité dans les divers milieux n’ont été mises au point que récemment et elles ont besoin d’être raffinées et normalisées.Il est bien entendu que le fait de mesurer la productivité dans un milieu n’accroît pas cette productivité, mais si l’on veut arriver à l’accroître il nous est essentiel de mieux comprendre les phénomènes de conversion énergétique concernés et les relations trophiques entre plantes et animaux.A la suite des succès remportés par les chercheurs du monde entier pendant l’Année Géo- LE JEUNE SCIENTIFIQUE, NOVEMBRE 1966 physique Internationale et à cause de l’enthousiasme démontré pour la Décennie Hydrologique Internationale, des biologistes éminents de plusieurs pays ont conclu qu’un Programme Biologique International serait le meilleur moyen de déclencher à l’échelle mondiale, des études poussées sur la productivité biologique.Ce programme, comme ceux mentionnés plus haut, a été sanctionné par les grandes sociétés scientifiques internationales affiliées à l’UNESCO et à la FAO.Comme thème général, on s’est fixé un but à la fois scientifique et humanitaire : « Les bases biologiques de la productivité et du bien-être de l’homme » Le programme est encore dans sa phase de planification, la phase de recherche devant débuter en 1967 pour se poursuivre pendant cinq ans.Plus de 40 pays, dont le Canada, ont déjà manifesté leur intention d’y participer.Le Conseil national de Recherches s’est chargé de la responsabilité de former un comité canadien du PBI; ce comité se compose de chercheurs des gouvernements et des universités à travers tout le pays.Le comité s’est adjoint sept sous-comités qui correspondent aux sept divisions scientifiques du PBI, à savoir : productivité des communautés biotiques terrestres, des communautés biotiques d’eau douce, des communautés marines, conservation des communautés terrestres, processus de production, utilisation et aménagement des ressources biologiques et enfin adaptabilité humaine.Des travaux seront entrepris dans le monde entier dans tous ces domaines, mais chaque pays pourra orienter ses recherches selon la disponibilité des fonds et des spécialistes et aussi en fonction des ressources naturelles locales.Le tout sera coordonné par un comité central international.Au Canada, le champ d’action des chercheurs n’est pas difficile à imaginer.L’immense forêt boréale qui constitue la pierre an- 25 S-ïTSS %***.-.1 *** •¦ Les chutes Athabaska dans le parc national de Jasper, en Colombie-Britannique.Est-ce qu’il sera bientôt possible, à l’intérieur de quelques parcs nationaux et provinciaux, d’obtenir des « réserves intégrales », c’est-à-dire au moins une parcelle protégée intégralement contre toute forme d’utilisation et d’exploitation ?gulaire de notre économie, les riches prairies de l’Ouest qui nous permettent de nourrir une bonne partie de l’humanité, et la mer qui nous baigne sur trois côtés sont évidemment les milieux productifs où nos chercheurs pourront apporter une contribution importante.Nos rudes conditions climatiques suggèrent aussi que le Canada est bien placé pour étudier l’adaptabilité de l’homme à la rigueur du froid.La plus grande partie des recherches sur la productivité devront être effectuées sur le terrain.Le succès de PBI réside donc dans le choix judicieux et la mise de côté des sites où se poursuivront ces recherches.Il est essentiel de choisir des sites qui ont subi un minimum d’influence humaine car les effets de l’homme sur les communautés biotiques sont complexes et difficiles à analyser.Des études de productivité sur des sites vierges, non-perturbés pourront servir de témoins, de points de repère pour évaluer les changements apportés par une utilisation passée ou future sur des sites de même type.Il fut donc décidé que cinq ou six sites majeurs seraient choisis et étudiés pendant les cinq prochaines années du Programme.De plus, un certain nombre d’autres sites, une centaine au Canada, représentatifs des principaux types écologiques rencontrés à travers le pays, devront être mis de côté, établis en réserves naturelles intégrales, pour être conservés intacts à perpétuité pour fins de recherches futures.Comme l’écologie ne connaît pas de frontières politiques et que ces réserves devront éventuellement être sous le contrôle des provinces, le Conseil Canadien des Ministres des Ressources a accepté de coordonner la sélection des sites et d’étudier la législation qu’il sera nécessaire de faire voter dans chacune des provinces pour assurer la préservation de ces laboratoires vivants.Comme site majeur pour l’étude de la productivité de la forêt canadienne, on a arrêté le choix sur la forêt de Petawawa, en Ontario, où des recherches variées et intensives sont effectuées depuis plusieurs années.De même, on a réservé une importante superficie de prairie en Saskatchewan où l’on mesurera la productivité.Les équipes de chercheurs comprendront des zoologistes, botanistes, physiologistes, pédolo-gistes, géomorphologistes, écologistes, etc.Pour la productivité marine, on a choisi trois sites différents à plusieurs points de vue : le détroit de Géorgie sur la Côte du Pacifique, Cambridge Bay dans l’océan Arctique et enfin le golfe Saint-Laurent.La Station de Biologie marine de Grande-Rivière, en Gaspésie, jouera donc un rôle de premier plan dans le programme puisque ses chercheurs travaillent précisément dans ce domaine depuis plusieurs années.Le Québec aura donc une place de choix dans les travaux du PBI car il faut prévoir que d’autres chercheurs viendront participer aux travaux dans le golfe Saint-Laurent.LE JEUNE SCIENTIFIQUE, NOVEMBRE 1966 La création de réserves naturelles intégrales Les recherches poursuivies pendant cinq ans sur ces sites majeurs permettront sans doute de faire avancer rapidement nos connaissances sur la productivité mais il ne faudra pas s’arrêter là.Je voudrais maintenant m’arrêter davantage sur une des sections du PBI, celle de la conservation des communautés biotiques terrestres.Nous voyons enfin apparaître l’opportunité de créer à travers le monde, le pays et bien entendu le Québec un réseau de réserves naturelles intégrales.On réalise avec quelle rapidité notre milieu se transforme.Plusieurs espèces végétales et animales, aussi bien que les habitats qui les supportent, vont disparaître dans un avenir prochain si l’on ne se met à l’oeuvre dès maintenant pour les protéger.Dans la nature, il existe une relation directe, une dépendance entre les organismes vivants d’une part, et le sol, le climat et les autres organismes vivants d’autre part.Ces intéractions ont donné naissance à des systèmes qu’on a appelés écosystèmes.Malheureusement, juste au moment où nous commençons à comprendre un peu la complexité de ces écosystèmes, on les voit disparaître très rapidement.La valeur scientifique et culturelle de ces communautés biotiques est incontestable.Aux Etats-Unis, les membres du gouvernement, le président et même son épouse, participent à une campagne monstre pour faire valoir la conservation des sites naturels.Au Canada, et surtout au Canada français, il faut bien admettre que ces problèmes nous ont laissés indifférents jusqu’à maintenant.Pour plusieurs, la conservation intacte de la nature dénote une attitude négative et réactionnaire allant à l’encontre du « progrès ».On s’oppose rarement à la conservation d’oeuvres d’art de valeur souvent douteuse dans de vastes musées de pierre, ni à la conservation et à la restauration du Vieux Québec ou du Vieux Montréal.Pourra-t-on persuader ces mêmes personnes, dirigeants et intellectuels, qu’il faut aussi conserver, comme partie intégrante de notre patrimoine national, au moins une parcelle de l’érablière à caryer dans la région de Montréal?Rare est le naturaliste qui, se trouvant dans un coin de nature bien sauvage et vierge, n’ait souhaité que ce trésor soit conservé à jamais.Ne pourrait-on pas, dans chacun de nos parcs provinciaux, protéger intégralement au moins une parcelle contre toute forme d’exploitation et d’utilisation.On visiterait ces endroits comme on visite un Musée, c’est-à-dire sans toucher, presque en silence, avec respect.Les écologistes pourraient scruter en détail le fonctionnement de ces écosystèmes vierges pour mieux évaluer l’influence humaine sur des sites autrefois identiques mais aujourd’hui changés, pollués ou dé- Un crépuscule sur le lac Coon dans la région des lacs Kawartha, en Ontario.Une scène qui se répète des milliers de fois à travers le pays, de Terre-Neuve à l’île de Vancouver.Mais ces milieux naturels seront-ils tous envahis par la villégiature, par les systèmes routiers, par les industries ?LE JEUNE SCIENTIFIQUE, NOVEMBRE 1966 27 truits.Plusieurs naturalistes ont caressé ce rêve qui avait peu de chances de se réaliser à la suite d’efforts individuels seulement.Le PBI nous offre une occasion rêvée d’informer le public et les dirigeants de l’urgence de créer ces réserves pour le plus grand bien de tous.Nous n’avons pas le temps d’attendre cependant que l’éducation du public soit faite et il nous faut procéder vite avant que tout ne soit détruit.Le Québec contient une variété considérable de types écologiques depuis la toundra jusqu’à la forêt décidue.Il faut s’assurer qu’au moins un échantillon de chacune des grandes associations soit conservé.Dans certains cas, comme la toundra et la forêt boréale, il sera relativement facile de localiser une superficie assez grande de terrain vierge, mais on sera probablement incapable de trouver une érablière à caryer ou une érablière laurentienne qui n’a jamais été touchée par l’homme.On devra alors se contenter d’acquérir une forêt modifiée et de laisser le dynamisme inhérent aux communautés biotiques opérer pendant un ou deux siècles avant que cette forêt ne retrouve son caractère original.Nos descendants nous en seront reconnaissants.Pour le Québec une liste préliminaire des réserves souhaitables préparée par quelques écologistes a été soumise au Conseil Canadien des Ministres des Ressources.Cette liste, très longue au début, a dû être réduite afin de rendre le projet pratiquement réalisable.Elle se ramène actuellement à treize sites incluant les principaux grands types écologiques du Québec : une érablière à caryer dans la région de Montréal, une érablière à bouleau jaune dans le Parc du mont Tremblant, une sapinière dans le parc des Laurentides, une pessière dans la région de Chibougamau, une parcelle de toundra arcti- que et une de toundra forestière dans le Nouveau-Québec, une toundra alpine au mont Albert.En plus de ces réserves, la liste comprend certaines curiosités naturelles : des dunes littorales à l’île Brion, îles de la Madeleine, un estuaire de rivière dans la région de Gaspé, une île dans le Bas Saint-Laurent, une autre sur la Côte Nord du golfe Saint-Laurent, une île calcaire à Mingan et un peuplement intéressant de sapin et pin blanc dans la Seigneurie de Mont-Louis en Gaspésie.Il est entendu que cette liste n’est pas définitive et pourra être modifiée, mais il ne faudrait pas la raccourcir.La dimension de ces réserves pourra varier avec les circonstances mais la superficie idéale serait de 25 milles carrés.De plus, afin d’éviter des pressions de la part d’intérêts commerciaux ou politiques dans l’avenir, il faudra s’assurer au départ que ces sites ne contiennent pas de gisements minéraux importants.Il faudra aussi préparer une législation spéciale pour assurer la pérennité de ces réserves.Actuellement, seulement deux provinces canadiennes, l’Ontario et l’Alberta, possèdent une législation leur permettant de créer de telles réserves, et dans les deux cas les lois sont inadéquates puisqu’un arrêté ministériel suffit pour faire disparaître une réserve.Un tel programme est-il utopique?Certainement pas.Il sera sûrement beaucoup plus facile à réaliser cependant quand notre gouvernement aura défini une politique bien nette concernant l’aménagement de nos parcs provinciaux.Une telle politique ne pourra que proposer un zonage où les réserves intégrales auront leur place.Les générations futures auront besoin de ces réserves et nous serons tous tenus responsables si nous ne faisons pas les efforts nécessaires pour les établir dès maintenant.: ' ¦ Invitation au 4e congrès des «Jeunes Scientifiques» L’Association des Jeunes Scientifiques est heureuse d’inviter tous les étudiants à son 4e congrès annuel qui se tiendra à l’Université de Montréal, les 18 (soirée), 19 et 20 novembre 1966.Ce congrès permet aux étudiants intéressés aux sciences de communiquer le résultat de leurs travaux et de prendre connaissance des recherches de leurs collègues.Le quatrième congrès offrira une centaine de communications couvrant les disciplines suivantes : sciences astronomiques, biologiques, chimiques, géologiques, humaines, physiques, mathématiques et autres.Le congrès s’adresse aux étudiants des cours secondaire, collégial et universitaire.Les étudiants intéressés à cette manifestation pourront obtenir d’autres informations en écrivant : Congrès des Jeunes Scientifiques, case postale 6060, Montréal 3, P.Qué.28 LE JEUNE SCIENTIFIQUE, NOVEMBRE 1966 Le progrès des sciences et des techniques La pêche des pays d'Europe Le « Bulletin statistique des Pêches » de l’Organisation des Nations Unies pour l’Alimentation et l’Agriculture, la FAO, signalait récemment que les pays d’Europe (non compris l’URSS), ont exporté et importé en 1965 plus de poissons et de produits de pêche que l’Amérique toute entière.Les importations européennes atteignent 3 784 millions de tonnes en volume et 1 047 millions de dollars.Le total des prises européennes s’élève à 9 600 000 tonnes, le total mondial étant de 51 600 000 de tonnes environ.Interventions chirurgicales prénatales Un groupe de chercheurs de l’Ecole de Médecine de la John Hopkins University de Baltimore, de 1’Armed Forces Institute of Pathology et du département américain de l’Agriculture viennent de procéder à des expériences spectaculaires qui ouvrent la perspective d’opérations chirurgicales prénatales.Us ont sorti de l’utérus de brebis des foetus parvenus à divers stades de leur évolution, leur ont fait subir des interventions médicales et chirurgicales, puis les ont replacés à l’intérieur du corps de la mère.Quelques semaines plus tard, les agneaux ont eu une naissance normale, au moment normal, et ils semblent en parfait état.Ces expériences, associées à la mise au point d’appareils de diagnostic ultra-sensibles, pourraient permettre un jour de détecter au stade prénatal les désordres et les malformations de l’enfant.Elles donnent l’espoir de pouvoir corriger les défauts dits congénitaux avant la venue au monde, puis de replacer le foetus dans l’utérus de la mère en attendant le moment normal de la naissance.Astronomie Au sommet du Mont Palomar, les astronomes ont balayé les deux avec des télescopes optiques et ont reculé les frontières de l’univers visible.Maarten Schmidt a mesuré la lumière provenant d’un « quasar » — c’est-à-dire d’un corps céleste plus petit, mais pourtant cent fois plus brillant qu’une galaxie — désigné par le chiffre 309.Il a constaté que cet objet s’éloignait de la terre à la vitesse de près de 240 000 km à la seconde, soit environ 80% de la vitesse de la lumière.Or, selon les théories astronomiques actuelles, plus vite un objet s’éloigne de nous, plus loin il se trouve de la terre, et, en conséquence, plus la lumière qu’il émet est longue à nous parvenir.D’après les calculs de Schmidt, la lumière qu’il a mesurée aurait été émise par le quasar il y a 309 milliards d’années, soit bien près du moment où se serait produite l’explosion qui aurait donné naissance à l’univers.Un autre astronome du Mont Palomar, Allan Sandage, a découvert de son côté toute une famille « d’objets stellaires bleus », cousins des quasars dont ils diffèrent cependant en ce qu’ils n’émettent pas d’ondes radio détectables et que leur lumière est plus bleue.Après le 309, le quasar bleu BSO 1 serait l’objet cosmique le plus éloigné de la terre.Les découvertes de Sandage l’ont amené à supposer que l’univers s’engage tous les 80 milliards d’années dans un cycle où se succèdent explosions, expansions, contractions, explosions, etc.Il est à noter que cette théorie a été énoncée pour la première fois en 1929 par deux Américains, Howard T.Robertson et Richard C.Tolman, travaillant chacun de leur côté.Des algues artificielles lutteraient contre l'érosion des côtes Un lit d’algues artificielles faites de polypropylène a été ancré à 4,50 m de profondeur, à 240 m des côtes de l’Island Beach State Park du New Jersey.Cette bande d’algues, qui mesure 270 m de long sur 27 m de large et dans laquelle un passage de 2,70 m de large a été ménagé pour les bateaux de plaisance, consiste en grappes faites de milliers de bandes de plastique mesurant 3,60 m de long, dont l’épaisseur va de celle de la mine d’un crayon à 10 mm environ.Les bandes sont reliées par des cordes et l’installation pèse un peu plus de 15 tonnes.Au cours des deux années qui viennent, quatre sondages seront effectués pour déterminer si ce dispositif joue le rôle que l’on en attend, c’est-à-dire retient le sable et l’empêche d’être emporté par les vagues et la marée, retardant ainsi l’érosion des côtes.Découverte d'un nouvel isotope la fluorine 22 Des hommes de science des laboratoires de physique de la Lockheed Missile and Space Company, rattachés au groupe des laboratoires de recherche de la Lockheed, à Palo Alto (Californie), ont découvert un nouvel isotope, la fluorine 22, dont la demi-vie est d’environ 4 secondes.C’est au cours de travaux portant sur les radiations spatiales, les propriétés de l’atmosphère supérieure, les rayons X émis par les étoiles et autres caractéristiques de l’exo-sphère que F.J.Vaughn, R.A.Chalmers, L.F.Chase Jr et S.R.Salisbury ont trouvé la preuve de l’existence de ce nouvel isotope, en bombardant une cible de néon 22 avec des neutrons dans un accélérateur de 15 millions d’électron-volts.LE JEUNE SCIENTIFIQUE, NOVEMBRE 1966 29 L 'utilisation de l'énergie est une caractéristique fondamentale de notre époque.Mais les sources actuelles de l'énergie s'épuisent graduellement devant les besoins de plus en plus grands de l’industrie.Comment le Soleil pourrait-il répondre à nos besoins d’énergie ?Le fonctionnement de la pile solaire Il y a quelques générations, la seule énergie dont l’homme faisait usage était sa propre force physique.Même après qu’il eut domestiqué des bêtes de somme, la puissance dont disposait chaque individu ne dépassait pas tellement sa propre force.Aujourd’hui, l’utilisation de l’énergie est une caractéristique fondamentale de notre civilisation.S’il perdait ses sources d’énergie — charbon, pétrole, gaz, ressources hydrauliques —, l’homme verrait s’arrêter du même coup toutes ces machines qui assurent son confort et souvent même son existence.Avec les progrès de l’automation, les besoins de puissance augmentent sans cesse et il faut puiser à même nos réserves d’énergie pour produire cette puissance.Les sources d'énergie Des sources d’énergie comme le pétrole, le charbon et le gaz sont-elles inépuisables?Voyons ce qui en est pour le pétrole et le gaz.Selon un calcul d’experts, les réserves connues de pétrole et de gaz ne sont suffisantes que pour une centaine d’années aux taux présents et prévus de notre consommation et à des prix comparables aux prix actuels.A mesure que les nations en voie de développement accroîtront leur consommation, les réserves connues s’épuiseront encore plus vite.Il a fallu à la nature des millions d’années pour accumuler ces réserves et nous prenons une bien petite fraction de ce temps pour les dépenser., Cet article a été rédigé par Gilbert LAÇASSE, d’apres le livre « Le soleil source d’énergie » du Dr Daryl M.CHAPIN des Laboratoires du Téléphone Bell.30 par Gilbert LAÇASSE On serait porté à croire que l’énergie atomique apporte une solution définitive à notre problème de source d’énergie; cependant, notre approvisionnement en matière première, l’uranium par exemple, semble limité.L'énergie principale : le soleil A peu près toutes les sources d’énergie que nous connaissons sont ou ont été de l’énergie solaire.Les combustibles fossiles tels que pétrole, gaz, charbon, proviennent de plantes et d’animaux qui ont tiré toute leur énergie du soleil.La puissance hydraulique représente l’énergie dépensée par le soleil pour évaporer l’eau.Si le soleil est la principale source d’énergie, combien de temps peut-il durer?Dans son livre « Le soleil source d’énergie », M.Daryl M.Chapin, des Laboratoires du Téléphone Bell, indique avec chiffres à l’appui, que le soleil peut continuer à briller pendant 104,000,000,000 d’années.Il ajoute qu’en se basant sur d’autres considérations, des hommes de science prévoient une durée de l’ordre de 10,000,000,000 d’années; ce sont apparemment les prévisions les plus pessimistes! M.Chapin souligne de plus que « la quantité totale d’énergie qui atteint la terre est à peu près 30,000 fois plus grande que celle que nous retirons aujourd’hui des combustibles fossiles ».Une valeur de 1,000 watts par mètre carré correspond assez exactement à la force des radiations solaires qui parviennent à la terre par temps clair.LE JEUNE SCIENTIFIQUE, NOVEMBRE 1966 Le soleil à l'oeuvre A cause de sa chaleur et sa nécessité pour l’agriculture, l’homme a toujours senti l’importance du soleil.Il a toutefois fallu des milliers d’années pour qu’il songe à utiliser son énergie pour des fins particulières.Ainsi, on emploie depuis assez longtemps des abris vitrés (serres) pour établir un climat favorable à la croissance des plantes.L’air réchauffé ne peut s’échapper de la serre.On utilise aussi l’effet de serre dans certaines régions ensoleillées du monde pour s’approvisionner en eau chaude pour usage domestique.Le chauffe-eau solaire est en usage en Floride depuis plus de 20 ans.Depuis quelques années, on construit des maisons et des édifices qui sont partiellement chauffés à l’énergie solaire, grâce à des immenses panneaux de verre.Dans la région de Boston, on a chauffé plusieurs petites maisons au moyen de collecteurs de dimensions variant de 400 à 700 pieds carrés, montés sur un mur vertical orienté vers le sud.Dans la plupart des cas cependant, on fait usage de l’énergie solaire seulement comme source secondaire de chaleur.Car l’emmagasinage et la distribution de la chaleur, les longues périodes de temps froid et nuageux créent des problèmes assez difficiles à résoudre.La distillation de l’eau salée par la chaleur du soleil est une autre application que l’homme a tenté de réaliser.Il s’agit de couvrir un bassin d’eau salée de vitres ou de matière plastique transparente.Une eau exempte de sel s’évapore du bassin et se condense sur la couverture inclinée pour être recueillie dans des réservoirs.Il y a eu pendant des années un alambic solaire de 50,000 pieds carrés de surface qui approvisionnait en eau fraîche la ville de Las Salinas au Chili.Capter l’énergie solaire sur une vaste surface plane cause des pertes considérables de chaleur et empêche de produire de hautes températures.C’est pourquoi on a voulu la concentrer.On a mis à profit le principe des lentilles ou des miroirs convergents pour produire une chaleur intense sur une surface de petite dimension.Parmi les accumulateurs déjà construits, le plus connu est peut-être celui du Mont-Louis dans les Pyrénées françaises.Il est muni d’un accumulateur de 30 pieds carrés pour suivre le soleil dans sa course, et d’un miroir parabolique pour concentrer les radiations solaires sur une petite surface.On atteint une température voisine de 3,000 degrés C possédant une puissance thermique de 75 kilowatts.Dès qu’on concentre les radiations solaires, la chaleur qui en résulte peut servir à faire fonctionner une machine à vapeur, par exemple; c’est la transformation de l’énergie solaire en énergie mécanique.Mais il est également possible de transformer la chaleur du soleil en électricité grâce à l’effet Seebeck.Ce procédé consiste à chauffer le point de jonction de deux métaux différents réunis de façon à former un anneau; il se produit alors un courant électri- Deux étudiants exécutent l'une des opérations nécessaires au montage d'une petite pile solaire.Appuyé sur la table de laboratoire, leur professeur surveille étroitement leur travail.\m m LE JEUNE SCIENTIFIQUE, NOVEMBRE 1966 31 que qui augmente avec la différence de température entre le contact froid et le contact chaud.Eviter le gaspillage Il y a un énorme gaspillage à vouloir transformer d’abord la radiation solaire en chaleur, puis ensuite, essayer de la retransformer en électricité ou en mouvement mécanique.L’idéal serait de transformer directement l’énergie solaire en énergie électrique, d’une façon efficace et économique.M.Chapin souligne d’ailleurs clairement que le fait important à considérer est que plus de 10 pour cent de l’énergie rayonnante du soleil qui nous parvient peut être transmise à une charge, après avoir été transformée directement en énergie électrique, sans l’aide de pièces mobiles et sans une transformation antérieure en énergie thermique qui entraînerait beaucoup de pertes.C’est ici que la PILE SOLAIRE s’avère une découverte spectaculaire.Pour en comprendre le fonctionnement, il faut étudier la nature de la radiation et les propriétés d’une classe particulière de matériaux électriques, les semi-conducteurs.L'énergie rayonnante du spectre solaire On a longtemps imaginé que la radiation était surtout une propagation de chaleur.Même si la chaleur peut être transmise de trois façons — conduction, convection et rayonnement — il ne faut pas perdre de vue que le rayonnement est lui-même une forme d’énergie qui peut être transformée en chaleur, mais qui, à proprement parler, n’est pas de la chaleur.Comme le signale M.Chapin des Laboratoires du Téléphone Bell, « le rayonnement est une forme différente d’énergie qui n’est pas soumise aux lois inexorables de la "thermodynamique qui restreignent l’utilité de l’énergie thermique.Il nous faut reconnaître cette distinction pour pouvoir comprendre toutes les possibilités qui existent pour mettre en valeur l’énorme quantité d’énergie solaire qui est à notre disposition ».La lumière blanche du soleil est formée de plusieurs couleurs comme on le voit lors d’un arc-en-ciel ou à l’aide d’un prisme de verre.Ces couleurs visibles ne forment qu’une partie du spectre solaire; les couleurs « invisibles » s’étendent au-delà de l’extrémité rouge et de l’extrémité violette de la gamme visible.Et d’après nos connaissances, le spectre électromagnétique total s’étend, sans interruption, des longues ondes de radio aux plus puissants rayons gamma.La lumière possédant une caractérisque ondulatoire, on a déterminé une longueur d’onde pour chacune des couleurs du spectre solaire.Vers 1900, Max Planck a proposé une théorie des quanta de la lumière, c’est-à-dire que le rayonnement n’est pas une réalité continue, mais qu’il se répartit en grains extrêmement ténus ou photons.Un rayon de lumière devient donc un faisceau d’éléments énergétiques (photons) .Planck a trouvé que l’énergie d’un photon était fonction de la fréquence de rayonnement suivant la formule E = hv où E désigne l’énergie en ergs, v la fréquence de rayonnement en cycles par seconde et h est la constante de proportionnalité de Planck, de valeur 6.62 x 10~27 erg par seconde.L’énergie d’un photon est la plus petite division d’énergie rayonnée.Aussi, il est impossible d’avoir V2 photon, et l’énergie rayonnée doit toujours être égale à quelque nombre entier de photons multiplié par l’énergie d’un photon.L’équation précédente nous fait remarquer que tous les photons ne porteront pas la même unité minimum d’énergie.Avec la formule simple de Planck, nous pouvons calculer l’énergie par photon de n’importe quelle couleur.Pour la fréquence «v», nous pouvons nous servir de son équivalent, v = c/X où « c » est la vitesse de la lumière, et « X » est la longueur d’onde.Etudions, par exemple, l’énergie nar photon pour une longueur d’onde de 6000 (Angstroems) dans le rouge.6.62 x 10-27 x 3 x 10(“ 6000 x 10-8 3.31 x 10-12 ergs Vu que nous étudierons ensuite le phénomène des électrons oui absorbent des photons, il sera avantageux de convertir nos ergs en électron-volts.Cette unité bien descriptive représente l’énergie acquise ou perdue par un électron en franchissant une différence de potentiel de 1 volt.Si un électron équivaut à 1.59 x 10-19 coulomb, un électron-volt est donc égal à 1.59 x 10~19 joule (coulomb-volt) ou 1.59 x 1CU12 ergs.Il s’ensuit donc qu’un photon à 6000À possède 3.31 x 10~12 7—-77—— = 2.08 électron-volts 1.59 x 10“12 En faisant le même calcul, on peut maintenant trouver la quantité d’énergie des photons de la radiation ultra-violette à 3000Â, et l’infrarouge à 12000Â, etc.Dans le premier cas, on arrivera à 4.16 électron-volts, dans le second 1.04 électron-volt par photon.(Figure 1).Maintenant que nous sommes capables de calculer l’énergie d’un photon, nous pouvons découvrir à quelles longueurs d’onde du spectre solaire se trouve le plus grand nombre de pho- 32 LE JEUNE SCIENTIFIQUE, NOVEMBRE 1966 tons.On y arrive en divisant l’énergie évaluée à chaque longueur d’onde par l’énergie par photon, obtenant ainsi la densité relative des photons.Le graphique de la figure 2 indique que la plus grande concentration de photons se situe à près de 6100Â.Dès qu’on assimile le rayonnement à un débit d’unités d’énergie (photons), on doit alors rechercher un mécanisme qui absorbera chaque photon sous forme d’énergie donnée à un électron de telle façon que cette énergie puisse être récupérée et utilisée sous forme d’énergie électrique.Il faut que chaque électron, par l’absorption rayonnante, atteigne un plus haut potentiel électrique afin que, plus tard, on puisse lui faire accomplir un travail lors de son retour à sa position première.Et voilà où les semi-conducteurs entrent en jeu.Les semi-conducteurs et la pile solaire Les semi-conducteurs ont deux qualités particulières.Contrairement aux vrais conducteurs, leur conductibilité s’accroît à mesure que la température s’élève; de plus, ils ont une résistivité d’à peu près un million de fois plus grande que celle des conducteurs tels que le cuivre.Celui qui convient le mieux à notre étude des piles solaires est le silicium.Son noyau a une charge positive de 4; donc, l’atome a 4 électrons de valence dans sa couche périphérique.Chaque atome dans le cristal de silicium partage ses quatre électrons de valence avec ses quatre voisins les plus proches.A tour de rôle, chaque électron partage un électron avec ses quatre plus proches voisins.La paire d’électrons ainsi mutuellement partagée par deux atomes constitue ce que l’on connaît sous le nom de doublet électronique.Pour que le cristal devienne conducteur d’électricité, il faut que des électrons se soient détachés de leurs doublets et soient devenus des électrons libres.On a calculé qu’il fallait dépenser une énergie égale à 1.08 électron-volt (1.72 X 10-19 joule) pour réussir à libérer un électron de son doublet dans un cristal de silicium.La conduction par trous Un électron qui s’échappe de son doublet peut se mouvoir librement dans le cristal; et si on le place dans un champ électrique, il peut conduire l’électricité.Cet électron peut tout aussi bien retomber dans le trou qu’il a créé en quittant le doublet, ou encore dans un trou d’un autre électron libéré.L’action thermique empêche donc une accumulation d’électrons libres; ce concept de la reprise des électrons est fondamental pour bien comprendre le fonctionnement des appareils à semi-conducteurs.Mais ce n’est pas tout.Quand l’électron libre se déplace de sa position première, cette région LE JEUNE SCIENTIFIQUE, NOVEMBRE 1966 LONGUEUR D'ONDE EN ANGSTROEMS Figure 1 Energie du photon en fonction de la longueur d'onde.0 2 4 6 8 10 12 14 16 18 20 x LONGUEUR D’ONDE EN ANGSTROEMS Figure 2 Distribution des photons dans le spectre solaire.33 auparavant de charge électrique neutre possède maintenant une charge positive en excès.Et en pratique, cette charge positive peut se déplacer et augmenter la conductibilité; car s’il faut une énergie de 1.08 électron-volt pour libérer un électron, il est très aisé pour un électron de passer d’une position de liaison à une autre qui est inoccupée.Sous l’effet d’un champ électrique, le trou (position inoccupée) se déplacera dans une direction opposée à celle de la course des électrons libres.Dans ce cas, les trous sont des porteurs de charge électrique.Les photons libérateurs On a dit plus haut qu’il fallait 1.08 électron-volt pour libérer un électron dans l’atome de silicium.Voyons en nous reportant à la figure 1 dans quelle partie du spectre solaire nous trouverons des photons ayant l’énergie nécessaire.Nous constatons tout de suite que ce sera du côté des ondes-courtes, soit à gauche de 12000Â.Grâce au mécanisme de l’absorption de la radiation dans le silicium, chaque électron libéré possède une énergie électrique équivalente à 1.08 électron-volt par rapport à sa position de liaison.Maintenant qu’on a découvert un mécanisme permettant d’absorber l’énergie rayonnante sous forme d’énergie électrique, il faut chercher comment faire donner à nos électrons libres une partie de leur 1.08 électron-volt dans un circuit externe.Addition d'arsenic Remplaçons un atome du cristal de silicium par un atome d’arsenic, à raison de un par million (le phosphore ou l’antimoine peuvent aussi être utilisés).Le noyau de l’arsenic est constitué de 5 charges positives et sa couche périphérique possède 5 électrons de valence.Qu’est-ce qui se produit?Quatre de ces électrons s’incorporent très bien dans le cristal de silicium; mais le cinquième, sans position établie et très faiblement retenu par la charge électrique du noyau, est toujours prêt à se mouvoir sous l’effet d’un champ électrique.L’addition d’arsenic au silicium crée un grand nombre d’électrons de conduction qui éliminent presque tous les « trous » qui peuvent apparaître dans le silicium pur soumis à une action thermique.La conduction se fait donc presque entièrement par les électrons.On dit d’une telle matière qu’elle est de type « n » à cause de ses porteurs majoritaires négatifs.Autre fait à noter: tandis que dans le silicium pur le déplacement des électrons laissait une charge positive libre de se mouvoir, la charge positive qui reste après le départ du 5e électron d’arsenic n’est pas mobile parce qu’elle fait 34 partie du noyau.On désigne cette charge immobile par charge positive liée, pour la distinguer d’un trou.Le bore dans le silicium Voyons maintenant ce que produira l’addition d’un autre type d’impureté, le bore.Son noyau renferme 3 charges positives opposées à 3 électrons de valence.Donc, lorsqu’on remplace un atome de silicium par un atome de bore, un doublet électronique demeure incomplet; cette lacune dans le doublet est un trou réel, capable de se mouvoir et de conduire l’électricité.Dans ce genre de cristal, les électrons seront les porteurs minoritaires alors que les trous demeureront en majorité.Là où est l’atome de bore, il y a une charge négative excédante d’un électron puisque les quatre électrons de valence ne sont équilibrés que par trois charges positives du noyau.La charge négative excédante dans le doublet bore-silicium est retenue fermement, et ne possède pas la liberté de se mouvoir.Ainsi, nous avons des charges négatives fixes, et comme on l’a dit plus haut, des charges positives mobiles ou trous.Le silicium additionné de bore est classé type « p », à cause de la majorité des porteurs positifs (trous).Jonction p-n Il faut maintenant combiner le silicium de type « p » (silicium-bore) à celui de type « n » (silicium-arsenic) dans le même cristal.On appellera la ligne de démarcation des deux types de silicium, la jonction p-n.On se souvient que dans le silicium de type « n », on a une majorité d’électrons mobiles (porteurs négatifs); dans le type «p», ce sont les trous mobiles (porteurs positifs) qui sont les plus nombreux.A la jonction p-n, il se produira donc une diffusion d’électrons s’unissant à des trous.Ils s’unissent et disparaissent ensemble.Par ailleurs, les charges positives liées du silicium de type « n » et les charges négatives liées du type « p » sont encore présentes; ces rangées de charges liées de chaque côté produisent d’elles-mêmes un champ électrique dont la force augmente selon la diffusion des électrons et des trous traversant la jonction p-n.La force du champ continuera de s’accroître jusqu’à ce que la diffusion qui en est la cause soit exactement compensée par le retour à travers la jonction d’un nombre égal de porteurs.Mais il existe entre ces courants opposés une différence importante et qui est essentielle au bon fonctionnement de la pile solaire.Le « courant en sens inverse » est constitué de porteurs minoritaires qui, comme on l’a vu, existent en très petites quantités dans chaque cas.Il y a, par LE JEUNE SCIENTIFIQUE, NOVEMBRE 1966 («0 TYPE-n JONCTION p-n TYPE-p CHARGES POSITIVES -LIÉES ÉLECTRONS LIBRES CHARGE CHARGE NÉGATIVE EXCÉDANTE POSITIVE EXCÉDANTE 1 I POTENTIEL DE CONTACT ÉLECTRIQUE CHAMP © ©-© © © © ©+©+ ©+©+ ?©-_© _© -© © © + + -H © © +© ©~ ©jr_© ©“ ©_ © © + + + 9 © +© © iËL ©“_© "© © © ©+ ©+©+©+l ELECTRONS LIÉS CHARGES POSITIVES LIBRES Figure 3 Porteurs fournis à la jonction p-n par les photons.DIFFÉRENCE DE POTENTIEL DES CONTACTS exemple, beaucoup d’électrons qui peuvent, par diffusion, passer du côté de type « n » au côté de type « p ».Mais dans la substance de type «p », très peu d’électrons libres peuvent subsister et être ramenés au côté de type « n » par le champ électrique.Ils retourneraient en grand nombre s’il en existait, ce qui n’est pas le cas.Et ainsi, dans l’obscurité (absence de photons), la diffusion de ces porteurs qui sont présents occasionne une perte nette d’électrons dans le silicium de type « n » et une augmentation nette d’électrons dans le silicium de type « p ».Au point d’équilibre, le silicium de type « p » a une charge négative par rapport au silicium de type « n ».Que faut-il faire maintenant pour obtenir une différence de potentiel utilisable?Vous l’avez deviné.Il faut faire absorber à la jonction p-n des photons de lumière ayant une énergie d’au moins 1.08 électron-volt.Ceci libérera immédiatement une quantité d’électrons prêts à retourner du côté de type « n » et à abaisser son potentiel, et des trous libres qui seront prêts à retourner dans la région de type « p » et à en élever le potentiel.Si les fils de connexion attachés à chacune des deux régions sont branchés à une charge, un travail s’effectuera dans le circuit aussi longtemps que les photons seront absorbés dans la région de la barrière.Voilà donc en vertu de quel principe fonctionne la pile solaire.Il ne reste ensuite qu’à trouver une disposition avantageuse pour que la radiation n’atteigne pas seulement la ligne extrêmement fine de la jonction des deux types de silicium, mais une grande surface sensible.Si vous êtes intéressés à augmenter vos connaissances sur l’énergie solaire, vous pouvez consulter les volumes et les articles que vous suggère la bibliographie suivante.Bibliographie ABETTI, Giorgio.The Sun.Macmillan Co., 1957.COOK, J.Gordon.We live by the Sun.Dial Press Inc., 1957.DAUVILLIER, L.Physique solaire et Géophysique; l’hé-liomagnétisme; le vent solaire; l’émission d’électrons solaires relativistes; la théorie oscillatoire et l’activité solaire; relations entre les phénomènes solaires et terrestres.Masson, éd.GAMOW, G.Naissance et mort du Soleil.Traduit de l’américain et mis à jour par G.Guéron.Dunod, éd., 1960.MAILLET, P.L’énergie.Coll.Que Sais-je, Presses Univ.de France.HALACY, D.S.The coming Age of Solar Energy.Harper & Row, 1963.Articles Solar Energy; dans Harper Encyclopedia of Science, ed.by J.R.Newman, Harper & Row, 1963, vol.4, pp.1091-1092.Solar Energy; dars McGraw Hill Encyclopedia of Science and Technology, McGraw-Hill Book Inc., 1960, vol.12, pp.466-468.Piles solaires, énergie solaire, etc.(plusieurs auteurs), dans La Science pour tous, Encyclopédie Grolier, 8 vol., Montréal.HUGHES, W.L.and others.Energy system for future; dans Institution of Electrical and Electronics Engineers Transactions on Industrial Electronics, vol.IE-10, no 1, May 1963, pp.108-111.PEARSON, G.L.Electricity from the Sun; dans Proceedings of the World Symposium on Applied Solar Energy, April 1956, pp.281-288.ROY, Jean-René.Le Soleil, notre étoile; revue Technique, fév.-mars 1965, LE JEUNE SCIENTIFIQUE, NOVEMBRE 1966 35 Comment utiliser les bombes nucléaires pour réaliser les grands travaux de génie qui avaient été jugés économiquement impossibles ?mmmmmMmMMmmmmm Le 'bulldozer thermonucléaire sera bientôt utilisé par Jean-René ROY Le 1er juin 1957, était créée aux Etats-Unis l’opération Plowshare (nom typique qui signifie soc de charrue) dans le but d’étudier la possibilité d’utiliser les bombes nucléaires comme engins d’excavation dans la réalisation de grands travaux de génie, jugés jusqu’ici impossibles tant au point de vue ( onomique que technologique.Ces neuf années d’étude et d’expérimentation ont accumulé dossier sur dossier : analyse de plus de 100 puissantes explosions comportant souvent des charges de plusieurs milliers de tonnes d’explosifs chimiques, et l’expérimentation d’un engin nucléaire souterrain de 100 kilotonnes (5 fois la puissance de la bombe de Hiroshima).La Commission de l’énergie atomique des Etats-Unis en a conclu que la bombe nucléaire peut accomplir des tâches jusqu’ici impensables, à un prix très modique et en un temps record.De plus, les données de 5 autres explosions atomiques expérimentales ont été analysées par la Division des engins nucléaires à fins pacifiques.Pour perfectionner la technique, quelques expériences sont encore à mener; ensuite, il s’agira d’exécuter un travail d’envergure afin de prouver que la bombe A ou H n’est pas qu’un gros « pétard » radioactif ou un horrible engin destructeur, mais un outil précieux capable d’accomplir des travaux gigantesques et de sortir ainsi du marasme économique des régions entières.La bombe atomique Au départ, il est peut-être bon de rafraîchir ses notions en matière nucléaire.Les bombes nucléaires se divisent en deux catégories, selon le principe utilisé : bombe A et bombe H.La bombe A (atomique) utilise le principe de la FISSION nucléaire.Moyennant le bombardement du noyau atomique d’un élément lourd par des neutrons dotés d’énergie favorable, le noyau de cet atome se fissionne, c’est-à-dire se divise en 2 ou 3 noyaux d’éléments moins lourds.Cette fission provoque en même temps, la libération brutale d’une forte quantité d’énergie et l’émission de 2 ou 3 neutrons qui à leur tour attaqueront d’autres noyaux fissibles pour les mettre en pièces.Trois éléments atomiques sont très employés dans la bombe A ou dans les réacteurs nucléaires : le plutonium de masse atomique (m.a.) 239 et l’uranium de m.a.233 et 235.Voici un type de réaction nucléaire pouvant se produire soit dans une bombe, soit d^ns un réacteur : uianium 235 neutron + ou ^ fragments plutonium 239 de fission + 2,5 neutrons + énergie.L’énergie moyenne libérée dans la fission d’un noyau lourd est de 200 millions d’électron-volts ou 3.2x10—n joules.L’explosion atomique se produit lorsqu’une brutale réaction en chaîne entraîne la fission d’un grand nombre de noyaux d’uranium en une fraction de seconde (de l’ordre de 7/100 000 000 s).Il y a alors libération d’une formidable énergie.Mais, la réaction en chaîne ne se produit pas avant que la quantité d’uranium atteigne un certain seuil, appelé « masse critique ».Dans une bombe A, il s’agit de disposer à distance deux masses d’uranium 235, chacune inférieure à la masse critique, mais dont la somme dépasse la masse critique.Pour provoquer l’explosion, on n’a qu’à projeter brutalement ces deux masses l’une sur l’autre; et c’est l’explosion.Peu d’informations ont filtré concernant la valeur de la masse critique.En 1945, le fameux rapport Smyth indiquait vaguement qu’elle était « comprise entre 2 et 200 kilogrammes » (1 kg = 2.2 livres).Par la suite, on apprit qu’elle frôlait les 10 kilos.Vous l’imaginez bien, on ne peut alors construire des bombes A démesurément puissantes.36 LE JEUNE SCIENTIFIQUE, NOVEMBRE 1966 Le cratère SEDAN a été créé au moyen de l’explosion d'un engin thermonucléaire de 100 kilotonnes enfoui à 635 pieds, le 6 juillet 1962.Son diamètre est de 1 280 pieds et sa profondeur de 320 pieds.Environ 12 millions de tonnes de terre ont été éjectées.La hauteur de la saillie en bordure du cratère géant varie entre 20 et 100 pieds.La bombe H en relève D’autre part, la bombe à hydrogène ou thermonucléaire tire son principe de la FUSION nucléaire : 2 éléments légers s’unissent pour en former un plus lourd en libérant une forte quantité d’énergie.De plus, elle ne souffre pas du problème de la « masse critique »; aussi peut-elle croître indéfiniment en puissance.Seules les conditions de transport et d’économie lui posent des limites.Il y a théoriquement moyen d’obtenir une bombe H aussi grosse que le Soleil; d’ailleurs toutes les étoiles (le Soleil inclus) brillent et émettent leur énergie grâce à la fusion thermonucléaire.Voici la réaction principale qui provoque l’explosion de la bombe H : (tritium) (deuterium) ,H3 + ,H2 _> (deux isotopes d’hydrogène lourd) 2He4 + 0n‘ + 17.6 MeV (helium) (neutron) énergie en million d’électron-volts i ¦k i S 17.6 MeV d’énergie en regard des 200 MeV de la fission de l’uranium?Pas grand avantage! Un instant : la masse atomique de l’uranium est de 235 alors que celle des isotopes lourds d’hydrogène est de 3 et 2; ainsi, à masse égale, la réaction tritium-deutérium produit 3 fois plus d’énergie que le gros atome d’uranium.Mais la fusion thermonucléaire exige pour sa réalisation des conditions draconiennes de température; il ne se produit aucune réaction à moins de plusieurs millions de degrés.J’aurai beau t’asseoir sur 25 tonnes d’un mélange de tritium et de deutérium liquide.ce n’est pas avec une chandelle comme détonateur que je t’enverrai dans la stratosphère! Alors, comment produire une température de plusieurs millions de degrés, c’est-à-dire, aussi chaude que celle qui règne au cosur du Soleil, afin de provoquer la fusion thermonucléaire de nos 25 tonnes de deutérium et de tritium?Notre allumette est toute trouvée : ce sera la bombe atomique, qui à l’instant de son explosion atteint une température de l’ordre de 20 000 000 de degrés.Elle servira de détonateur pour transformer les 25 tonnes de tritium-deutérium en une super-bombe de 100 mégatonnes.Pourquoi une telle température ?Les noyaux d’atomes sont de charge électrique positive; or vous savez que des charges de même signe se repoussent.Ainsi, dans la fusion thermonucléaire il faut vaincre cette répulsion qu’on appelle barrière de potentiel, afin d’approcher deux noyaux d’atomes (dans notre cas: deutérium et tritium) à une distance assez rapprochée pour que les forces d’attraction nucléaires annihilent la répulsion électrique.Les hautes températures fournissent ainsi aux noyaux l’énergie qui leur permettra de franchir la barrière de potentiel.L’énergie dégagée provient de la dématérialisation, c’est-à-dire de la transformation en énergie d’une partie de la masse des éléments réactifs.La célèbre formule d’Einstein, E = me2, indique la quantité (E) d’énergie en ergs produite par la dématérialisation d’une quantité (m), en grammes, multipliée par le carré de la vitesse (c2) de la lumière (c2 = 9 x 1020).TNT à la tonne Kilotonnes, mégatonnes; sous-entendu :.de TNT (dynamite) ou plus scientifiquement de trinitrotoluene.Kilo veut dire mille, et méga, million.Une bombe de 100 kilotonnes (kt) équivaut donc à l’explosion de 100,000 tonnes de TNT et une bombe de 100 mégatonnes (mt) supposerait la détonation de 100 millions de tonnes de TNT.Les premières bombes, larguées sur les cités nipponnes en août 1945, avaient une puissance d’un peu moins de 20 kt.Le 31 octobre 1961, les Soviétiques faisaient exploser leur super-bombe H de 57 mt, la plus puissante jamais explosée.L’énergie déployée par 1 000 tonnes (1 kt) de TNT — ou une bombe nucléaire de 1 kt — équivaut à la fission complète de 56 grammes (2 onces) de matière fissible (uranium 233 et 235 ou plutonium 239), c’est-à-dire, à la fission d’environ 1.45 x 1023 noyaux, à 1012 calories, ou 4.2 x 1019 ergs, ou 1.15 x 106 kilowatts-heure ou encore 1.8 x 109 BTU.L'ère des bombes pacifiques Nous voilà en 1965, avec en main, un engin de puissance formidable.Ne pourrait-il pas servir à autre chose qu’à rôtir l’humanité ou dévaster la planète?Plusieurs ingénieurs et savants en ont pris conscience et ont décidé d’utiliser les bombes H dans LE JEUNE SCIENTIFIQUE, NOVEMBRE 1966 37 Coupe schématique d’un cratère formé par une explosion nucléaire souterraine.des travaux de grande envergure : creusement de ports de mer, de canaux de navigation et d’irrigation, percement de tranchées à travers les chaînes de montagnes pour y faire passer autoroutes et voies ferrées, mines à ciel ouvert, exploitation de gisements miniers, construction de réservoirs géants, production d’isotopes rares, etc.Nous concentrerons notre intérêt sur l’excavation nucléaire.Une nouvelle science : la « cratérologie » On peut faire exploser une bombe thermonucléaire un peu partout: dans l’espace, l’atmosphère, la mer ou sous terre.Depuis le Traité de Moscou (1963), seules les détonations souterraines sont permises et, à condition que les retombées radioactives se produisent à l’intérieur des limites du territoire national où on a procédé à l’expérience.Pour produire un cratère, vous le soupçonnez, il faudra faire sauter l’engin en surface ou à une certaine profondeur sous terre.A la suite de nombreuses expériences, il a été observé que la grandeur (D) du diamètre et la profondeur (P) d’un cratère produit à l’aide d’un engin nucléaire, varie selon la puissance 0.3 de la charge nucléaire (W) exprimée en mégatonnes : D ou P = K W0-3.Entre autres, les expériences au moyen de fortes charges d’explosifs chimiques et d’engins nucléaires ont montré que pour obtenir un cratère de volume maximum, il fallait placer 1 explosif à une profondeur optimum, qui peut être déterminée connaissant la puissance de la bombe et la nature du sol.Au fur et à mesure que la profondeur du point d’explosion croît, les dimensions du cratère augmentent jusqu’à un point maximum pour ensuite décroître jusqu’au moment où aucun cratère n’est formé en surface; on a alors une explosion dite contenue.La pioche thermonucléaire Quand on perce un canal ou une tranchée au sein du roc, il y a, en gros, deux opérations : d’abord dynamiter le roc, ce qui se fait, disons, assez rapidement; ensuite débarrasser les lieux des débris de la détonation pour ouvrir le passage, ce qui nécessite une main-d’oeuvre et une machinerie fort coûteuse et dévore un temps souvent précieux.Dans une explosion nucléaire, en plus de fracasser le roc, la seule violence de l’explosion déblaie instantanément le terrain; d’où emploi minimum de bulldozers, de pelles mécaniques, de déca-peuses pour le nettoyage.Lors de la détonation d’un explosif à profondeur optimum, une bonne partie de la terre et du roc éjectés retombe dans le cratère formé, tandis que le reste est projeté autour pour former une sorte de léger rebord ou saillie.Une très faible portion est enfin emportée dans un énorme nuage de poussières qui se déposera graduellement dans le voisinage du cratère.L'opération Sedan Le 6 juillet 1962 avait lieu l’explosion Sedan, partie de l’opération Plowshare.Un engin thermonucléaire de 100 kilotonnes (dont 30% de l’énergie provenait de l’explosion de la bombe A interne et 70% de la fusion thermonucléaire) enfoui à une profondeur de 635 pieds a créé en explosant un cratère de 1 280 pieds de diamètre et de 320 pieds de profondeur; la saillie formée en bordure du cratère avait une hauteur variant entre 20 et 100 pieds.En quelques secondes, un cratère éant de 7 500 000 verges cubes a été formé, ce qui représente l’éjection brusque de plus de 12 000 000 de tonnes de terre.Une bombe de 1 mégatonne ouvre un cratère large en moyenne de 2 500 pieds et profond de 500.Le 1er novembre 1952, dans l’atoll d’Eniwetok, l’explosion d’un engin thermonucléaire de 14 mt a produit un cratère de 8 000 pieds de diamètre.Une bombe de 50 mt creuserait un cratère de 3 milles de diamètre et de 3/5 de mille de profondeur.Explosions en ligne L’explosion de lourdes charges d’explosifs chimiques placées sur une même ligne a des distances variant entre 1 et 1.5 fois le diamètre du cratère obtenu par la détonation d’une charge unique a montré qu’on pouvait aisément creuser un fossé ou un canal.De plus, un détail fort surprenant — et très encourageant au point de vue génie — la matière éjectée retombe sur les côtés des cratères et non aux extrémités du fossé.Il sera donc facile d’opérer la jonction de deux tronçons.Il en est mieux ainsi; ce ne serait pas rose, si à chaque explosion, on emplissait le canal creusé la veille.Enfin, autre détail intéressant, le volume de l’ensemble des cratères (le fossé complet) est plus grand que la somme totale des volumes des cratères que l’on obtiendrait avec des explosions dispersées.L’union fait la force! Bombes au nettoyage Toute explosion nucléaire produit de la radioactivité.La bombe A en produit énormément plus que la bombe H; aussi considère-t-on la bombe à fission comme « sale » et la bombe H dont le taux de radioactivité est beaucoup moindre en raison de la plus faible émission de neutrons, comme une bombe « propre ».Or c’est justement cette dernière qui sera utilisée dans les travaux de génie, pour une plus grande garantie de sécurité et un emploi plus universel.38 LE JEUNE SCIENTIFIQUE, NOVEMBRE 1966 Il s’agit donc pour les atomistes de développer une bombe thermonucléaire de puissance convenable dans laquelle l’énergie libérée par la fission (la bombe A servant de détonateur dans la bombe H) sera relativement faible.Mais est-il possible de réaliser des progrès dans ce domaine ?Lors de l’explosion Sedan en 1962, on enregistra à 100 milles du lieu de l’explosion (dans le sens du vent) un taux de radioactivité de 0.1 roentgen.Aujourd’hui en 1966, avec un engin perfectionné de 100 kt, c’est à 50 milles seulement qu’on enregistrerait un tel taux de radioactivité.D’ici au moins 2 ans.les bombes disponibles seront 100 fois moins radioactives que la bombe expérimentale Sedan.Vingt à trente millions de dollars seront consacrés dans l’unique but de produire un type de bombe ultra-propre.La radioactivité produite dans une explosion souterraine se répartit sensiblement comme suit : environ 90% de la radioactivité émise est emprisonnée dans la roche fondue lors de l’explosion, qui se resolidifie en quelques secondes, environ 10% se diffuse dans l’atmosphère et ne retombe pas sur terre, et enfin environ 3% est emportée sous forme de particules radioactives (90% de cette dernière partie retombe dans un rayon de 5 milles autour du cratère, si les vents ne sont pas trop violents).Faut-il vraiment craindre les retombées radioactives?D’ailleurs, tous les techniciens et les hommes de sciences impliqués dans le projet Plowshare sont d’avis que la radioactivité émise lors des grands travaux accomplis avec des engins thermonucléaires ne présentera aucun danger pour les Terriens.Il est intéressant de remarquer par exemple, que lors de l’explosion Sedan, des observateurs se rendirent sur le bord du cratère 5 jours seulement après l’explosion; 7 mois plus tard des équipes travaillaient au fond du cratère, tout danger de contamination écarté.Onde de choc : précautions à prendre Etant donné que l’emploi d’engins nucléaires sera souterrain, les effets de l’onde de choc atmosphérique se restreindront au voisinage immédiat du cratère pour ce qui concerne l’onde directe.Mais Tonde indirecte, réfractée et focalisée sur la couche d’ozone de l’atmosphère peut se propager à de grandes distances.Cependant, il s’agira au moment de l’explosion de bien connaître les conditions de la haute atmosphère et de procéder au moment propice; la menace de danger sera alors à peu près inexistante.L’onde de choc souterraine, causée par la pression fantastique créée dans la croûte terrestre au moment de l’explosion est constituée par une zone de surpression se propageant à travers l’écorce terrestre (tout comme un tremblement de terre localisé).La transmission de cette onde dépend de la puissance de l’engin et de la conformation géologique de la région.Il s’agira donc de procéder à une évaluation de la constitution du sol avant la détonation pour prévoir et protéger les structures environnantes.Economie sans précédent En 1958, le coût des bombes s’échelonnait ainsi : $500 000.pour un engin de quelques kilotonnes, $750 000.pour une dizaine de kilotonnes et $1 000 000.pour une bombe de un mégatonne.Au début de 1965, une bombe de 10 kt coûtait seulement $350 000.tandis que $600 000.suffisaient pour se procurer une bombe de 2 mégatonnes.Dans les prochaines années, on prévoit une nouvelle baisse du prix, ce qui favorisera grandement l’engin thermonucléaire aux dépens de l’explosif chimique dans les travaux d’envergure.L’excavation au moyen des techniques traditionnelles revient à des prix s’étalant entre $0.50 et $5.00 par verge cube.Or, une bombe de 1 mégatonne capable d’arracher instantanément plus de 100 millions de verges cubes de roc et de terre, accomplira le même travail pour le prix ridicule d’environ $0.005 la verge cube; un demi cent par rapport à $0.50 - £5.00 ; les chiffres parlent avec éloquence.Nouveau Panama Janvier 1964 : révolte à Panama, « Go home, VS ».Le fameux canal trans-isthmique creusé au début du siècle, sur l’initiative du grand ingénieur français, Ferdinand Lesseps, également bâtisseur du canal de Suez, pose des problèmes aux USA et au petit état de Panama.La question du percement d’une nouvelle voie interocéanique saute sur le tapis pour la x-ième fois.Mais, cette fois-ci l’exécution du projet est imminente et il est à peu près assuré que le « bulldozer » thermonucléaire sera utilisé pour mener à bonne fin l’entreprise colossale.En 1947, les premières études au sujet du percement d’un nouveau canal avec les moyens conventionnels débutaient.En 1958.le Lawrence Radiation Laboratory de l’université Carte montrant les projets d’une route trans-isthmique appelée à remplacer le canal actuel de Panama.On étudie la possibilité de percer une nouvelle voie interocéanique au moyen de bombes nucléaires.Cette nouvelle voie aurait une largeur de 1 000 pieds et une profondeur de 250 pieds et son coût serait dix fois moins élevé qu’avec les moyens conventionnels.ROUIE I TEHUANTEPEC MEXICO ¦ BRITISH ROUTE IT CALEDONIA BAT (SASABOI-MORTI) PANAMA SUATEMALA HONDURAS ROUTE 16 .SALVADOR NICARAGUA SAN BLAS PANAMA ROUTE 6 NICARAGUA ROUTE 25 ATRATO-TRUANOO COLOMBIA TRANS-ISTHMIAN CANAL ROUTES CARIBBEAN EXISTING PANAMA CANAL^ PACIFIC OCEAN LE JEUNE SCIENTIFIQUE, NOVEMBRE 1966 39 't0&k üü asjf^w .sS^ %i§s &S9 msi* ^tz:'-&m • .'rJj'**K-'i iâSÈ*' :.r-Æ ÉBB&8&59 ’ürïfrjjr.'S:*.-'^4f-*5isS' ùvÇ r?^?£r> '- ,^A-*‘ Cette photographie nous présente, vue de Test, une reconstitution à petite échelle du percement, avec engins nucléaires, de la voie interocéanique qui va de Sasardi à Morti.Plusieurs sections du canal ont été creusées et on aperçoit même à mi-chemin, une section en train d’exploser.(L’échelle verticale a été exagérée par rapport à l’échelle horizontale dans un rapport de 3 à 1).Berkeley (Californie) publiait son rapport sur la possibilité de percer au moyen de bombes nucléaires les 6 voies transocéaniques citées dans le rapport de la Panama Canal Company de 1947-49.Assez récemment, le Président Johnson désignait une commission de 5 membres chargée de déterminer la meilleure voie à emprunter, les moyens à mettre en oeuvre et le coût de l’opération; la commission devait remettre son rapport au Président et au Congrès le 21 juillet 1965.Trois voies apparaissent intéressantes : la première, dans la république de Panama, va de Sasardi à Morti; le canal aurai 45 milles de longueur, nécessiterait l’explosion d’environ 300 engins nucléaires et coûterait 500 millions de dollars; percé avec les moyens traditionnels, le coût atteindrait les 5 milliards.Une autre voie, située en Colombie, irait de Atrado à Truando (95 milies) et requerrait environ 275 bombes; elle serait percée au prix d’environ 800 millions de dollars comparativement à 4 milliards 600 millions par les moyens conventionnels.Enfin, la troisième, celle de San Bias, pas très éloignée de l’actuel canal de Panama, mesurerait 37 milles et est évaluée à 400 millions de dollars par rapport à 6 milliards 200 millions au moyen des méthodes ordinaires.Mais il est douteux qu’on puisse percer cette dernière voie avec engins nucléaires en raison de la proximité d’une population assez dense.Le « bulldozer » nucléaire mettrait environ 5 ans à percer une voie comme celle de Sasardi-Morti.Les caractéristiques du canal percé avec les explosifs chimiques et la machinerie de déblaiement s’établissent comme suit : 600 pieds de largeur et 60 de profondeur.Son rival nucléaire propose la soumission suivante : un canal au niveau de la mer de 1000 pieds de largeur et de 250 pieds de profondeur (même les sous-marins pourront l’emprunter sous l’eau!) et cela à un prix 10 fois moindre.C’est presque incroyable ! De plus, le nouveau canal nucléaire n’ayant pas d’écluses, au lieu d’employer 14 000 hommes comme l’actuelle voie de Panama pour l’entretien et la bonne marche de la navigation, ne requerra que 1 000 employés.L'avant-première de notre « bulldozer » Mais avant même le percement du canal, on aura probablement procédé en Californie, dans les monts Bristols, à l’avant-première du « bulldozer » nucléaire.En effet, selon toute évidence, au cours de 1966-1967 aura lieu à 200 milles à l’est de Los Angeles le percement d’une tranchée de 2 milles de longueur dans laquelle seront construites une autoroute à 4 voies (extension ultérieure à 8 voies) et une double voie ferrée.Le percement de cette tranchée nécessitera l’explosion de 22 engins nucléaires totalisant 1 730 kilotonnes; les charges individuelles s’étaleront entre 20 et 200 kt.L’opération menée en deux phases à 6 mois d’intervalle soufflera 68 000 000 de verges cubes de terre et de roc.Longue de plus de 10 000 pieds, la tranchée aura une profondeur variant entre 100 et 350 pieds et une largeur de fond de 325 pieds.Le coût de l’opération s’élèvera à environ $14 000 000.L’inauguration de cette voie est prévue pour 1969.Autres perspectives Au cours de cet article, nous avons étudié l’utilisation de l’engin nucléaire dans les travaux d’excavation.Mais, il aurait été aussi intéressant d’étudier l’apport scientifique, tech- nique et économique des explosions contenues qui ne produisent pas de cratère en surface : production d’huile grâce à l’intense chaleur et à l’onde de choc, dégagement du gaz naturel, production d’isotopes et de nouveaux éléments, expériences sur les neutrons ultra-énergétiques dégagés par une explosion nucléaire ainsi que de nombreux apports scientifiques.Récemment, les savants du Los Alamos Scientific Laboratory (LASL) du Nouveau-Mexique aux Etats-Unis ont mené une expérience sensationnelle sur les neutrons grâce à l’explosion d’une bombe contenue.Lors de l’explosion d’un engin nucléaire, une quantité littéralement foudroyante de neutrons hautement énergétiques est émise.Dans leur expérience, les savants du LASL ont installé un long cylindre partant de la bombe à quelques centaines de pieds sous terre et menant droit à la surface.Au moment de l’explosion, les neutrons 40 LE JEUNE SCIENTIFIQUE, NOVEMBRE 1966 empruntaient le canal pour aboutir dans les détecteurs disposés à l’extrémité du cylindre en surface.Un groupe de chercheurs a alors procédé à une expérience qui aurait requis plus de 25 000 années d’expérimentation auprès des plus grands accélérateurs de particules actuellement en service.Ordinairement, on obtient des neutrons en bombardant des cibles au moyen de protons accélérés dans ces accélérateurs; le flux de neutrons est extrêmement faible par rapport à celui émis lors de l’explosion d’un engin nucléaire.Si l’homme remplace son goût des explosions par un acharnement à travailler et à modifier la face de la Terre, la terrible bombe H deviendra l’outil par excellence pour promouvoir la paix et le bien-être de toutes les nations.Bibliographie BARNIER, L.(AFP).Demain l’explosion nucléaire servira à creuser des canaux, « La Presse », Montréal, 10 février 1965.DUCROCQ, A.Les raisons scientifi que s de la reprise des explosions nucléaires soviétiques, « Science et Avenir », décembre 1961.DERY, M.Eléments de science nucléaire, Beauchemin éd., Montréal.GLASSTONE, S.Sourcebook on Atomic Energy, Van Nostrand Co., 1958, 640 p.VORESS, H.E., W.F.KING, C.R.GERBER.Peaceful Uses for Nuclear Explosives, A Selected Annotated Bibliography, U.S.Atomic Energy Commission, TID-5322, janvier 1964.Vient de paraître : par Victorin LAVOI E GRANDTNER, Miroslav M., 1966 La végétation forestière du Québec méridional.Les Presses de l’Université Laval, Québec, XXV + 216 pp.& 108 tableaux et figures.La « phytosociologie » est cette partie de l’écologie végétale qui étudie les collectivites végétales et leurs relations avec le milieu.Cette conception de sociologie chez les végétaux est loin d’être universellement reconnue par les adeptes des sciences de la Nature.D’une part, l’on croit que la sociologie a été créée pour exprimer l’étude des relations humaines et que celles qui existent entre les plantes ne sont pas suffisamment positives pour justifier une telle philosophie.D’autre part, l’on doute que les arrangements végétaux naturels soient suffisamment évidents pour permettre de les désigner, de les dénombrer, de les délimiter, de les cartographier.Depuis les oeuvres de Flahault et Schrôter et de Braun-Blanquet, la plupart des biologistes ont cependant compris que la sociologie végétale reposait sur le mutualisme et le commensalisme, qu’une telle société pouvait être floristique-ment définie et que ses relations avec le milieu n’avaient rien de statique.Malgré certains courants divergents en apparence entre quelques écoles européennes, particulièrement entre l’école de Montpellier et celle de Toulouse, on a pu admirer les abondantes publications sur la classification de la végétation du bassin méditerranéen et d’autres régions de l’Europe, ainsi que de l’Afrique du Nord, du bassin du Congo, etc.La distance aidant, et peut-être aussi la différence dans les courants de la pensée scientifique, on peut affirmer que la phytosociologie avec sa systématique n’a que peu pénétré en Amérique.C’est pourquoi, l’on doit se réjouir grandement de la publication de la these doctorale de Miroslav M.Grandtner sur la végétation forestière du Québec méridional.Cette oeuvre est sans contredit une démons- tration de ce que peut être l’application des principes et des méthodes phytosociologiques dans le milieu québécois; de plus, le Dr Grandtner intègre les communautés végétales dans leur cadre physique, et met en évidence d’une manière plus spéciale leurs relations avec le climat et le sol.L’ouvrage du Dr Grandtner est une synthèse magnifique; le Dr Louis-Z.Rousseau, sous-ministre des Forêts, le fait ressortir dans la préface.Il y fait aussi remarquer, comme le souligne d’ailleurs le Dr Grandtner lui-même dans l’avant-propos, que cet ouvrage répond à la fois à une préoccupation scientifique et à un souci d’être utile à l’aménagiste forestier.Dans une première partie, l’auteur traite des conditions du milieu physique où se trouve la forêt du Québec.Au chapitre premier, il situe son étude dans le cadre géographique et spécifie qu’elle comprend la forêt décidue et la forêt mixte.Le deuxième chapitre porte sur la géologie et la géomorphologie du Québec méridional, soit à partir du 50° degré de latitude nord jusqu’à la frontière américaine au sud.Le Dr Grandtner consacre le troisième chapitre de son volume au climat.Il met en évidence les facteurs climatiques qui influencent directement les végétaux tels que la durée quotidienne d’éclairement, la temperature moyenne annuelle, la durée de la saison de végétation, le bilan thermique, la nature des précipitations, etc.Ce qui donne cependant le plus de valeur à ce chapitre est la synthèse des données climatiques du Québec en indices om-brothermiques, en bilan d’eau, en indice d’écoulement d’eau et en indice de productivité.Le chapitre sur le climat est enrichi de onze cartes et de cinq tableaux permettant une vue d’ensemble des phénomènes relevés par l’auteur.Le quatrième chapitre nous donne un aperçu pédologique du territoire étudié; l’auteur fait ressortir les cinq zones pédologiques que l’on reconnaît généralement dans la province de Québec.La deuxième partie du volume est consacrée à la flore forestière de la province.Au chapitre premier, l’auteur présente un aperçu de l’origine et de l’histoire de notre flore forestière préglaciaire et postglaciaire, des souches génétiques et des influences anthropiques récentes.Au chapitre deuxième, on trouve une analyse floristique de la forêt méridionale du Québec.L’auteur y fait une rapide revue des travaux antérieurs, il fait ressortir la richesse relative de la flore du territoire étudié, il met en relief le quotient des Ptéridophytes de Raunkiaer établissant ainsi un parallèle entre notre flore forestière et celle de d’autres régions du globe.Le troisième chapitre est consacré aux éléments phytogéographiques généraux, et le quatrième aux formes biologiques.Le cinquième chapitre mérite une mention particulière; l’auteur traite de la détermination de groupes écologiques en regard de certaines caractéristiques du sol.Ces caractéristiques sont la profondeur du sol, son état physique, son humidité, son degré d’acidité et le type d’humus.A propos de ce dernier caractère édaphique, l’auteur établit le rapport entre le nombre d’espèces préférentielles à un type d’humus et les cinq domaines climaciques du Québec méridional.Malgré l’intérêt que présentent les tableaux synthétiques de cette partie, peut-être aurait-il été intéressant d’ajouter, en LE JEUNE SCIENTIFIQUE, NOVEMBRE 1966 41 appendice, la liste des espèces propres aux types d’humus que l’auteur a relevés.Quoiqu’il en soit, ce chapitre est d’un grand intérêt et ne manquera pas d’être remarqué.Au sixième chapitre, l’auteur mentionne l’adaptation des espèces à la lumière et il les classe suivant la nature de leurs diaspores.La troisième partie du volume du Dr Grandtner intéressera encore davantage le lecteur puisqu’elle traite de la végétation forestière proprement dite.L’auteur donne dans cette partie le résultat d’un travail de quelques années sur le terrain.C’est une très bonne synthèse de l’ensemble, considérable en superficie, des forêts décidues climax du Québec; c’est également une étude analytique des diverses associations et sous-associa-tions que l’auteur identifie floristi-quement, intègre dans le milieu et dont il fait ressortir le caractère dynamique et la valeur forestière.Le Dr Grandtner applique dans cette partie les principes et les méthodes phytosociologiques, il propose une hiérarchie des communautés végétales et donne une liste d’espèces caractérisant chacune de ces communautés.Il traite donc les communautés végétales aux points de vue physionomie, composition floristique, structure, dynamisme, caractères édaphiques, distribution et valeur forestière.La bibliographie est abondante; elle est soigneusement choisie et divisée par disciplines.Toutefois les références ne dépassent pas l’année 1962 sauf quelques rares exceptions (Vé-zina, 1964; Jurdant et Roberge, 1965; Vézina et Grandtner, 1965).Les dernières pages du travail comprennent un index des noms latins des plantes et des groupements végétaux.L’ensemble du volume contient quatre-vingt-cinq tableaux très bien montés dont six sont contenus dans une pochette à l’intérieur de la dernière page couverture; il comprend, en outre, vingt-trois figures et quelques photos de grande qualité.Les astronomes à la recherche de l'automation par Edward ASHPOLE Les nouveaux télescopes jumelés et leur système de commande électronique maintenant installés à l’Observatoire Royal d’Edimbourg constituent l’une des manifestations do l’effort entrepris par le personnel de cet observatoire pour faire bénéficier l’astronomie des progrès de l’automation.Cinq spécialistes de l’électronique travaillent maintenant à l’observatoire, avec les quinze astronomes et les neuf personnes chargées de l’appareillage mécanique.A l’heure actuelle, il est nécessaire qu’un astronome se trouve dans le dôme pour commander le mouvement des télescopes, mais bientôt il n’y aura plus besoin de personne durant les observations.Les télescopes seront guidés par un ordinateur, qui enregistrera également leurs observations sur une bande de papier perforé.Les recherches de l’observatoire portent sur l’évolution des étoiles et les vastes nuages de matière raréfiée qui existent entre elles.L’une des principales techniques employée est la photométrie, qui consiste à mesurer la quantité et la qualité de la lumière provenant des étoiles.Il s’agit là d’un travail de routine important, que le personnel de l’observatoire cherche à effectuer avec autant de rapidité et de précision que possible avec ce matériel nouveau qu’il vient de mettre au point.A l’oeil nu, les étoiles se ressemblent beaucoup, certaines semblant plus visibles que d’autres.Mais les astronomes ont découvert de grandes disparités dans leur éclat, leur couleur et leur taille.L’éclat de certaines d’entre elles n’équivaut qu’à un dix-millième de celui du soleil, étoile dont nous dépendons tous.Mais beaucoup sont dix mille fois plus brillantes que lui.La présentation est bonne quoique certaines pages soient mal utilisées.Le style est simple et précis; l’auteur accorde une large place aux noms vernaculaires même dans la dénomination des communautés végétales.Bref, le volume du Dr Grandtner est une source de renseignements de grande importance non seulement pour l’ingénieur forestier, mais aussi pour le biologiste, l’agronome, l’amé-nagiste du territoire, le botaniste; il ne faut pas oublier que la végétation forestière climax vit en harmonie avec les éléments du climat et du sol et de ce fait offre offre un grand intérêt pour diverses disciplines.Ce livre trouvera donc sa place, malgré son prix élevé ($12.00) dans tous les centres où l’on enseigne les sciences naturelles; même s’il s’adresse particulièrement aux spécialistes en écologie et aménagement forestier, l’étudiant qui possède quelques notions sur la vie en commun des plantes y trouvera un grand intérêt.La luminosité de certaines d’entre elles varie suivant des cycles réguliers; d’autres présentent une espèce de pulsation, ou leur lumière semble périodiquement cachée par des étoiles satellites orbitant autour d’elles.La lumière provenant de certaines autres varie de manière irrégulière et inexpliquées.Leur couleur varie également, du rouge au bleu en passant par l’orange, le jaune et le blanc.La couleur est l’élément qui permet aux astronomes de calculer la température de surface: plus la lumière est bleue, plus la température est élevée.La température d’une étoile permet aux astronomes de calculer sa taille, car pour rayonner une énergie donnée à la température mesurée, elle doit posséder une certaine superficie.Quelques-unes des étoiles connues sous le nom de naines blanches sont plus petites que la Terre, mais à l’autre bout de l’échelle, on trouve les géantes rouges qui sont si grosses que si le centre d’une d’entre elles se trouvait là où est le Soleil, l’orbite actuelle de la Terre serait située à l’intérieur même du corps de l’étoile.La plupart des étoiles, cependant, ont une taille qui va d’un dixième à dix fois celle du Soleil.Ces renseignements, recueillis en partie grâce à la photométrie, permettent aux astronomes d’étudier l’évolution des étoiles, et les phases que toutes, y compris le Soleil, doivent traverser.La méthode la plus commode pour les astronomes d’effectuer des me- 42 LE JEUNE SCIENTIFIQUE, NOVEMBRE 1966 sures photométriques est d’utiliser la photographie.Ils mesurent simplement le noircissement provoqué par une étoile sur un négatif photographique mais pour éviter des erreurs, les résultats obtenus par cette méthode doivent être comparés à ceux d’une méthode photométrique plus précise.Pour obtenir des valeurs parfaitement exactes de la luminosité d’une étoile, les astronomes emploient des cellules photoélectriques ; celles-ci contiennent des matières sensibles à la lumière, comme les métaux alcalins, qui possèdent la propriété de produire de l’électricité lorsqu’ils absorbent de la lumière.La mesure de la luminosité des étoiles par cette méthode est un travail extrêmement long que les nouveaux télescopes jumelés et leur système de guidage vont grandement accélérer.Sur chacune des plaques obtenues avec le télescope photographique Schmidt de 60 cm, les savants peuvent mesurer 10 000 étoiles, mais pour contrôler la réaction de l’émulsion photographique à la lumière stellaire, il leur faut effectuer un choix d’images d’étoiles sur la plaque et classer celles-ci par rapport à un étalon de luminosité obtenu de manière photoélectrique.S’il y a 10 000 étoiles sur la plaque, ils cherchent à obtenir environ une centaine d’étalons photoélectriques connus de manière précise, en les prenant dans toute la gamme des luminosités présentées par la plaque.Les difficultés viennent de ce que lorsqu’ils prennent une photographie avec le télescope Schmidt, ils obtiennent 10 000 ou 100 000 étoiles d’un seul coup, une exposition de dix minutes suffit pour elles toutes, alors que lorsqu’ils emploient des techniques photoélectriques, pour mesurer la luminosité des étoiles, il faut qu’ils le fassent pour une étoile à la fois.Le système des télescopes îumelés a été conçu pour permettre aux astronomes d’effectuer ce travail rapidement.L’un des deux télescopes, le télescope de référence, est braqué sur une étoile relativement brillante, de luminosité stable.Celle-ci sert de point de référence à la fois pour ce qui est de la position et de la luminosité.L’autre télescope est alors mis au point sur l’étoile étudiée, et toute l’installation est conçue de manière à pouvoir fonctionner suivant les ordres donnés par une bande perforée introduite dans un ordinateur.A la base de chaque télescope se trouve un « multiplicateur photoélectrique » dispositif qui comprend une surface photoélectrique transformant la lumière reçue en courant électrique, multiplié ensuite un million de fois dans le tube photomultiplicateur.Même avec ce dispositif, la mesure d’une seule étoile peut prendre jusqu’à dix minutes pour les plus faibles.Un astronome est assis devant le photomètre Becker de l’Observatoire Royal d’Edimbourg, Angleterre.Un microscope (en haut) explore les plaques photographiques prises avec le télescope Schmidt de 60 cm et l’image qu’il étudie est projetée sur un écran.L’instrument trouve l’image des étoiles et donne leur position sur la plaque.Il mesure ensuite automatiquement le degré de noircissement de la plaque qui est fonction de la luminosité de l’étoile.Les renseignements sont fournis sous forme de bande perforée par l’équipement électronique qui est placé à gauche, sur la photographie.En utilisant cet appareil, un astronome peut arriver à mesurer de 250 à 350 étoiles à l’heure.Le grand avantage du système est qu’il permet à l’astronome d’étudier deux étoiles très proches l’une de l’autre en même temps, ce qui fait que les variations de transparence de l’atmosphère ont tendance à être nul-les.L’exactitude déjà obtenue est considérablement plus grande qu’on ne l’espérait.En fait, les premières mesures montrent qu’elles sont environ deux fois meilleures que les meilleures données de photométrie photoélectrique obtenues jusqu’alors.Un photomètre Becker fournit tous les renseignements nécessaires à la programmation de l’ordinateur.Ce photomètre Becker (voir la photo) est installé dans une pièce du bâtiment principal de l’observatoire.C’est le plus perfectionné de son espèce.Un microscope placé au sommet de l’instrument explore les plaques photographiques prises avec le télescope Schmidt de 60 cm, et l’image qu’il étudie est projetée sur un écran.L’instrument trouve l’image des étoiles et donne leur position sur la plaque.Il mesure ensuite automatiquement le degré de noircissement de la plaque, qui est fonction de la luminosité de l’étoile.Les renseignements sont fournis sous forme de bande perforée.En se servant de cet instrument, un astronome peut arriver à mesurer de 250 à 350 étoiles à l’heure.Les données fournies par la bande perforée de l’instrument Becker sont utilisées pour commander les télescopes du système jumelé dans les observations que l’on veut faire de manière photoélectrique.Ultérieurement, les astronomes espèrent disposer d’un ordinateur Elliott.Il suffira d’introduire les programmes sur bande perforée dans l’ordinateur; celui-ci décidera alors tout seul des moments où le ciel est assez clair pour permettre les observations; il ouvrira le dôme, choisira un programme et se mettra au travail.Après une nuit d’observations dirigées par l’ordinateur, les astronomes pourront venir chercher les données dont ils ont besoin enregistrées sur bande perforée et prêtes à être exploitées.Ce système constitue une méthode entièrement nouvelle de pratiquer la photométrie.Jusqu’à présent l’électronique n’avait jamais été utilisée sur une grande échelle pour l’astronomie optique.LE JEUNE SCIENTIFIQUE, NOVEMBRE 1966 43 Sans fiction.ni prédiction approximative, voici les éclipses solaires de 1970 à l’an 2500! Prochaine éclipse de Soleil, le 10 juillet 1972 par Paul-H.NADEAU Ceux qui se sont plaints du mauvais sort que leur ont fait subir les conditions atmosphériques, lors de l’éclipse du 20 juillet 1963, savent-ils qu’ils auront une occasion de se reprendre dans six ans à peine?C’est pourtant ce qui se produira en fin d’après-midi, le lundi 10 juillet 1972, dans des circonstances très semblables à celles de 1963.La bande de totalité passera seulement à 300 milles plus à l’Est.Après avoir pris naissance dans la mer d’Okhotsk, en URSS, et longé le cercle polaire, elle ne parviendra à la civilisation qu’au Saint-Laurent.Si les régions qu’elle traverse en terre québécoise sont moins peuplées que lors de l’éclipse de 1963, par contre elles sont plus pittoresques et des hauteurs du parc de la Gaspésie, le spectacle devrait être grandiose.Remarquons encore que la durée de la phase totale — ce qui fait la valeur d’une éclipse — sera deux fois plus longue et l’étendue de la surface terrestre obscurcie deux fois plus grande.En bref, une répétition de l’éclipse de 1963, mais en mieux à certains égards.A son arrivée au Saint-Laurent, la bande de totalité s’étendra de Hau-terive à Sept-Iles, sur la rive nord, et de Mont-Joli à Gaspé, sur la rive sud.L’île du Prince-Edouard sera située en son milieu, de même que l’île au Sable, à une centaine de milles des côtes de la Nouvelle-Ecosse.Ces détails sont tirés d’un ouvrage récemment paru, Canon of Solar Eclipses (1), oeuvre de l’astronome belge J.Meeus et d’une équipe de calculateurs de l’université de Ghent.Les auteurs ont repris en partie et continué le travail d’Oppolzer, Canon der Finsternisse (1887), comportant les données de 8 000 éclipses de Soleil et de 5 200 éclipses de lune, de 1207 A.C.à 2161 A.D.Grâce à des tables de la Lune et du Soleil plus modernes et surtout au complexe de calculatrices IBM 1620, ils ont pu obtenir un produit fini beaucoup plus précis.Leur ouvrage contient les 600 dernières éclipses de la série d’Oppolzer, depuis 1898, et les 848 suivantes, jusqu’à l’année 2510.Les points donnés dans le Canon of Solar Eclipses sont espacés de 400 milles environ.Néanmoins, ils permettent de tracer avec une précision raisonnable les limites d’une phase de totalité sur une carte à grande échelle.C’est ce que nous avons fait — voir le dessin ci-joint — pour les éclipses qui intéressent particulièrement le Québec au cours du prochain demi-millénaire.Après l’éclipse de 1972, déjà mentionnée, il faudra attendre 134 ans pour la suivante, qui aura lieu le mercredi 3 mai 2106.Les endroits touchés par cette éclipse seront Rouyn-Noranda, Val d’Or, La Tuque, (1) « Canon of Solar Eclipses » (Meeus, Grosjean et Vanderleen), Pergamon of Canada, Ltd., 6 Adelaide Street East, Toronto.Prix : $35.Chicoutimi, les îles de la Madeleine, etc.La bande de totalité, large de 100 milles, passera juste au nord de Québec et juste au sud de Rimouski.La durée de la phase totale sera de 3 minutes.Cent ans après, soit le mercredi 17 juillet 2205, ce sera vraiment le grand événement de tout le millénaire pour la région des Grands Lacs et la vallée du Saint-Laurent, en ce qui a trait aux éclipses de Soleil.La bande de totalité large encore une fois de plus de 100 milles englobera des villes importantes comme Chicago, Détroit, Toronto, Ottawa, Montréal, Trois-Rivières, Sherbrooke, (Québec juste à la limite nord), St-Jean, T.N., etc.Elle aura lieu dans la matinée et durera 3 minutes et demie.Enfin, l’éclipse du lundi 1er mars 2500, sera un phénomène tout à fait particulier.D’abord annulaire, l’éclipse deviendra totale aux environs de La Tuque, où elle durera à peine quelques secondes.La région de totalité de cette éclipse n’aura jamais plus de 14 milles de largeur et sa durée maximale ne dépassera pas 12 secondes, le cône d’ombre de la Lune touchant à peine la Terre.Nous n’avons pas fait mention dans cette série des sept éclipses suivantes, parce qu’elle passeront en réalité dans des régions désertiques de l’Ungava : 26 février 1979 11 janvier 2048 44 LE JEUNE SCIENTIFIQUE, NOVEMBRE 1966 26 mai 2245 17 mai 2254 (2) 25 février 2343 20 novembre 2406 1er mai 2451 (2) Curieuse encore une fois cette répétition d’éclipses visibles au Québec à 9 ans d’intervalle.Nous avons déjà celles du 9 juillet 1945, 30 juin 1954, 20 juillet 1963 et 10 juillet 1972.Mais que sera l’Ungava dans 300 ou 400 ans, si les progrès techniques du Québec se continuent au rythme actuel?D’autre part, on peut se demander quels sont ceux qui se déplaceront vers ces endroits pour être témoins du phénomène.Les éclipses intéresseront-elles les astronomes à cette époque lointaine?On peut présumer qu’ils auront depuis longtemps installé sur la Lune un observatoire solaire qui reproduira à volonté le phénomène de l’éclipse totale.Mais que fera le profane, lui, éternel terrien?Il est probable qu’il s’intéressera davantage aux éclipses qu’il ne le fait aujourd’hui.L’homme de demain, blasé des sensations factices que lui procureront des loisirs trop nombreux, se tournera-t-il de plus en plus vers la nature, source de spectacles grandioses sans cesse renouvelés?O U E B E C ST-JEAN O N TA R I O IL|E OU CAP BRETON LA TUQVC L«' MARS QUEBEC THAU'M ET MONTRÉ 3 MAI 2A06 ECLIPSES TOTALES DE SOLEIL OETROl V m Aiom 23/9/66 \ LE JEUNE SCIENTIFIQUE, NOVEMBRE 1966 Quelques jalons dans l’histoire des mathématiques T?A l'ombre des pyramides Les plus anciens systèmes d’écriture de chiffres que nous connaissions sont ceux d’Egypte et de Mésopotamie.Ils remontent à 5 000 ans environ.Très visiblement, ils ont une origine commune qui n’est autre que le système préhistorique des encoches sur un bâton.La forme de leurs signes diffère, mais tous deux indiquent les unités par un simple trait (les dizaines et les chiffres supérieurs par des signes plus compliqués).Pour écrire un nombre quelconque, 43 par exemple, les scribes alignaient 4 signes représentant une dizaine et 3 simples barres.Le souvenir des encoches survivait toujoui’s à l’époque romaine : les Romains écrivaient encore les 4 premiers chiffres en alignant des traits.Encore aujourd’hui, les Chinois indiquent les trois premiers chiffres par des barres superposées.La construction des pyramides obligea les Egyptiens à résoudre une foule de problèmes pratiques, surtout dans l’art des mesures (nous dirions aujourd’hui «géométrie»).Les savants contemporains hésitent encore souvent sur la façon exacte dont ils s’y prirent.Les Egyptiens traçaient probablement d’abord une maquette de leur projet sur une tablette d’argile, dessinant ainsi les premiers plans d’architecte de l’histoire.Il s’agissait ensuite de reproduire cette maquette à une échelle colossale.D’énormes blocs de granit étaient amenés de Haute-Egypte sur de longues barques plates.Une première couche carrée de ces blocs formait la base de la pyramide.Par un plan incliné de terre amoncelée, on hissait sur cette assise d’autres blocs, en les roulant sur des troncs d’arbres.Les esclaves construisaient alors une seconde couche, de diamètre légèrement inférieur.Et ainsi de suite jusqu’au sommet.Un détail extrêmement important était de donner à la base de la pyramide des angles parfaitement droits.La moindre erreur risquait de fausser tout l’édifice.Les architectes des Pha- raons découvrirent très tôt qu’un moyen infaillible de tracer un angle droit parfait, était de tracer sur le sable, avec des cordes attachées à des piquets, deux arcs de cercles égaux qui se coupent.Plus tard, ils se servirent de l’équerre pour tracer leurs angles droits.L’homme qui fabriqua le premier cet instrument avait sans doute remarqué qu’on pouvait construire un triangle possédant un angle droit au moyen d’une corde à noeuds régulièrement espacés, pourvu que les côtés mesurent respectivement 3, 4 et 5 noeuds, ou 5, 12 et 13 noeuds.Il lui suffit ensuite de reproduire ce triangle en lattes de bois.Jusqu’à l’époque des grands travaux des Pharaons, l’homme s’était contenté d’évaluer très grossièrement les mesures : « Mon champ est large de 50 pas; cette pièce de bois est longue comme trois fois ma main ».Mais les nuées d’esclaves qui construisaient les pyramides ne pouvaient se baser sur des mesures aussi imprécises et variables.La création de mesures standard s’imposait.Il y eut donc la coudée, qui était la mesure d’un avant-bras d’homme, du coude à la pointe du médius; la palme, soit un septième de coudée; le doigt ou un quart de palme.Pour les prêtres égyptiens qui étaient aussi les receveurs de contributions de l’époque, il était important de savoir calculer la surface d’un champ; l’impôt était en effet calculé d’après l’étendue de la propriété.Le nouveau système de mesure allait considérablement leur fa- ciliter la tâche.Les problèmes de superficie n’étaient pas nouveaux pour eux.Ils avaient déjà dû calculer, par exemple, le nombre de dalles nécessaires pour paver un temple, et savaient que s’il en fallait 9 d’un côté et 7 de l’autre, le total serait de 63 dalles.Des dessins leur firent comprendre que la surface d’un triangle rectangle est égale à la moitié de celle d’un rectangle construit sur les mêmes mesures.Enfin, ils trouvèrent la méthode de calcul de la surface d’un champ de forme irrégulière : ils la divisèrent tout simplement en triangles rectangles.Le mot même de «géométrie » indique que cette science servit au début à « mesurer la terre ».A _^-t La machine à calculer de Babylone La Mésopotamie était un pays aux terres pauvres.Force fut aux habitants des villes de seller leurs chameaux et d’aller chez les peuples voisins chercher le bois, la soie, la pourpre et les aliments précieux.Ces marchands avaient besoin de précision dans leurs calculs; ils utilisaient journellement les poids (un « talent » de 12 kg et un « side » de 8 grammes) et la balance.La monnaie leur posa un autre problème.Ils commencèrent par se servir d’orge comme matière d’échange.Mais il en fallait de pleins sacs et, l’orge trop encombrante fit que peu à peu on y substitua l’argent.Utilisé d’abord en vrac, quel- 46 LE JEUNE SCIENTIFIQUE, NOVEMBRE 1966 qu’un eut l’idée de le faire fondre en petites barres; une marque gravée en indiquait le poids.Ce furent les premières monnaies.Les marchands se servaient d’une machine à calculer rudimentaire, l’abaque (une sorte de boulier).Elle consistait tout simplement en séries superposées de sillons tracés dans le sable, le sillon inférieur représentant les unités, puis venaient les dizaines, les centaines, etc.Des cailloux (« calculus », d’où le mot « calcul ») indiquaient les chiffres dans chaque rangée.Une convention voulait que chaque rangée remplie était équivalente à un caillou de la rangée immédiatement supérieure.Presque tous les peuples anciens utilisèrent plus tard l’abaque, et presque toujours aussi le chiffre maximum de chaque caillou était fixé à 10 (ce chiffre rappelle clairement que l’homme commença par calculer sur les doigts de ses deux mains).Les Méso-potamiens toutefois avaient une méthode différente, et chacune de leurs rangées comprenait 60 galets.Notre façon de mesurer le temps où l’heure vaut 60 minutes et la minute 60 secondes, est un vestige de cette numération.Faire des additions ou des soustractions sur l’abaque était un jeu d’enfant.Nous n’en rappellerons pas la méthode : elle est encore employée, sur le boulier, dans toutes les écoles primaires.Par contre, la multiplication et la division n’avaient pas encore livré tous leurs secrets aux Babyloniens.A leurs yeux, ces opérations étaient extrêmement compliquées; leur seule transcription couvrait tout une tablette d’argile.Il y a environ 6 000 ans, un citoyen anonyme de Babylone fit une des inventions les plus importantes de l’histoire humaine : il fabriqua une roue.Au début, ce ne fut qu’une simple pièce de bois trouée en son milieu.Elle s’allégea avec les siècles, se perfectionna, eut un moyeu, des rayons, une jante.Elle équipa les premiers véhicules, paisibles chariots ou chars de guerre.Elle s’étendit à une foule d’applications ingénieuses : le tour du potier, la poulie du maçon, etc.Un mage de Chaldée reprit un problème qui avait déjà intrigué les Egyptiens; il s’efforça de calculer le rapport de la circonférence de la roue ou du cercle et de son rayon.Il fit ses calculs, comme l’indique un bas-relief, en enfermant un cercle entre deux carrés, intérieur et extérieur.Et il parvint au chiffre extraordinairement approchant de 3,1416.Les passe-temps de l'Acropole Les Grecs d’Athènes étaient des gens fort civilisés.Tout le travail manuel étant fait par les esclaves, ils disposaient de beaucoup de temps libre.Leurs marins leur rapportaient des nouvelles du monde entier.Leur plaisir favori était de se réunir sur l’Acropole et de se livrer aux joies de la discussion.Les curiosités mathématiques qui venaient d’Egypte ou de Mésopotamie, ces règles pratiques de calcul qui tombaient toujours juste sans qu’on sache pourquoi, les intriguaient particulièrement.Jour après jour, les mêmes groupes se reformaient et l’on discutait ferme.Des maîtres y établissaient leur autorité.Ils s’appelaient Pythagore, Platon, Euclide .Ces Grecs avaient un esprit très critique et méticuleux.Ils n’acceptaient de tenir une affirmation pour vraie qu’après l’avoir vue démontrée jusque dans ses fondements.Les maîtres de mathématiques furent obligés de construire, à l’intention de leurs auditeurs, une science sans faille.Une première chose indispensable était de donner à cette science la base solide de définitions inattaquables.A la suite de longues discussions, la ligne droite, le cei'cle, l’angle droit furent ainsi définis à la satisfaction de tous.On fixa ensuite les instruments nécessaires au tracé de ces figures : la règle et le compas.Sur ces bases, furent échafaudés une série de raisonnements s’appuyant les uns sur les autres à la manière d’un château de cartes.Ce furent les théorèmes.Vers l’an 500 av.J.-C., Euclide écrivit un des meilleurs « bestsellers » de tous les temps, sa « Géométrie », que les étudiants ont apprise, de génération en génération, jusqu’à notre époque.Les brillants jeux de l’esprit que sont les théorèmes d’Euclide ouvraient la porte à une foule d’applications pratiques.Les célèbres démonstrations du triangle rectangle permettaient, par exemple, de calculer la hauteur d’une colonne en se basant sur la longueur de son ombre à midi; ou la distance d’un navire à la côte, par un observateur se trouvant sur la plage.Archimède découvrit des machines géniales basées sur la géométrie : comme sa fameuse «.vis .» qui, tournant dans un cylindre creux, permettait de soulever l’eau et servait ainsi à pomper les infiltrations des navires ou à irriguer les champs.k Un des aspects les plus curieux des mathématiques de cette époque touche aux « divertissements » que les Grecs inventèrent sur leur thème.« Arithmétique » signifie d’ailleurs « passe-temps avec les ombres ».Pythagore étudia les longueurs de cordes destinées à produire certaines notes de musique.Ses disciples s’amusaient à construire des « nombre figurés », par exemple en disposant des cailloux en forme de triangle rectangle, suivant le schéma 1 + 2 + 3 + 4, puis à se poser des « colles » sur ce schéma.Ils inventaient aussi des cas bizarres comme le problème d’Achille et de la tortue qui prouve, contre toute logi- LE JEUNE SCIENTIFIQUE, NOVEMBRE 1966 47 que, que le véloce Achille, courant derrière une tortue, n’arrivera jamais à la dépasser.Un sage Indien imagine le zéro Grâce à l’abaque ou boulier, les peuples anciens avaient trouvé une méthode facile de calcul.Par contre, dès qu’il s’agissait de transcrire ces calculs sur un parchemin ou des tablettes d’argile les complications commençaient.Les divers systèmes d’écriture qu’ils étaient parvenus à imaginer indiquaient chaque ligne de l’abaque par un symbole différent.Pour écrire un chiffre, il fallait répéter chaque symbole autant de fois qu’il aurait fallu aligner de cailloux dans chaque rangée de l’abaque pour le représenter.Avec ce système, écrire un nombre comme 8 769 prenait environ une ligne d’écriture; quant aux opérations, elles étaient quasi impossibles.Mais au même moment, dans la vallée de l’Indus, des sages orientaux s’attaquaient au même problème de façon toute différente.Ils écrivaient leurs chiffres sur des feuilles de palme sèche, en petits traits horizontaux.Puis ils se mirent à unir leurs traits pour aller plus vite.Ainsi = devint Z, z devint 3, ce qui fit 2 et 3.L’ennui, c’est que lorsqu’ils écrivaient par exemple ZZ, cela pouvait signifier n’importe quel chiffre contenant deux fois le signe Z; aussi bien 22 que 2020.Il fallait trouver le moyen d’indiquer la rangée de l’abaque à laquelle appartenaient les chiffres.L’un de ces Indiens eut alors une idée géniale, il imagina d’indiquer par un point les rangées vides de l’abaque.ZZ signifia dès lors 22, et Z.Z.fut 2020.C’était un pas immense dans l’histoire des chiffres.Il allait être enfin possible de calculer sans abaque.Les progrès des mathématiques allaient être foudroyants.L’Inde produisit des calculateurs extraordinaires.Dès 600 av.J.-C., un certain Vahamihara calculait la position des planètes, et un autre savant, Aryabhara extrayait des racines carrées.La science indienne pénétra à Bagdad, le grand centre de culture du monde arabe.Et lors de l’invasion des Arabes en Europe, un moine nommé Abélard, déguisé en musulman fit des copies secrètes d’Euclide à Cordoue, et les emporta dans le Nord.De premiers livres, fort curieux, sur la façon d’effectuer les opérations, virent le jour.On y voit apparaître pour la première fois les signes + et — (qui, à l’origine, étaient probablement employés comme marques sur des sacs dépassant ou n’atteignant pas un certain poids standard).GALILEE COPYRIGHT INTERNATIONAL PRESS « Mathématicien et inventeur, le Génois Galilée est l’auteur d’intéressantes applications pratiques de la nouvelle science.En regardant osciller les lampadaires de la cathédrale de Pise, il en déduisit la remarquable propriété du pendule, dont les oscillations sont égales en durée.De là inventer l’horloge à balancier il n’y avait qu’un pas.Enfin un moyen précis de mesurer le temps remplaçait les cadrans solaires, les chandelles à divisions, les clepsydres ou horloges à eau.En faisant tomber des poids du haut de la Tour penchée, Galilée remarqua que la vitesse de chute des objets accélère à mesure qu’ils se rapprochent du sol.Cela lui permit de tracer la trajectoire parabolique des projectiles de canon, découverte des plus importantes sur le plan militaire, dont s’empressèrent de profiter les généraux et les constructeurs de fortifications.Vers l'âge des robots .Le XVIIe siècle fourmille de découvertes mathématiques.Le philosophe Descartes commença à écrire les équations au moyen de lettres et de chiffres, établissant ainsi des rapports entre l’algèbre et la géométrie.Il s’attaqua à l’étude d’une nouvelle ligne courbe, l’ellipse, figure singulière que trace un crayon passé dans un anneau de corde qui tourne autour de deux centres.L’ellipse était alors un sujet d’actualité: on venait de découvrir, non seulement que les planètes tournaient autour du soleil, mais encore que la ligne de leur course figurait une ellipse.Newton, cependant, découvrait le grand prin- cipe de l’attraction universelle, et le vérifiait dans l’univers céleste.On construisit les premiers télescopes.L’astronomie avança à grands pas.Presque au même moment, à des milliers de kilomètres de distance, deux savants qui ne se connaissaient pas, Leibnitz en Allemagne et Newton en Angleterre, découvraient le calcul infinitésimal qui révolutionnerait encore une fois les mathématiques.Vers 1750, Denis Papin, dans sa cuisine, en regardant la vapeur soulever le couvercle d’une bouilloire y entrevit une nouvelle source d’énergie.L’utilisation de la vapeur allait modifier bientôt la physionomie des pays européens.Des locomotives se mirent à cracher leur fumée dans les campagnes; des villes industrielles élevèrent leurs maisons noires et leurs cheminées; des bateaux sans voiles commencèrent à sillonner les mers.A partir de cette invention, d’innombrables découvertes techniques envahirent tous les domaines.Il ne fallut Que 250 ans aux mathématiciens, aux ingénieurs et aux techniciens vour créer de toute pièce la civilisation confortable d’aujourd’hui.Actuellement, la complexité des calculs va croissant, mais les machines à calculer deviennent aussi de plus en plus perfectionnées.En 1621, l’Anglais Oughtred avait déjà inventé la règle à calculer, qui permet de trouver en quelques instants la superficie d’une sphère ou la racine cubique d’un chiffre.Les physiciens d’aujourd’hui, à l’aide du micromètre arrivent à mesurer l’épaisseur d’une lame de métal au 1/5000 de mm près.Le goniomètre permet de construire n’importe quel angle aussi facilement que l’équerre l’angle droit.Un compas de proportion sert à agrandir les dessins de façon mécanique.Il existe des tables de logarithmes grâce auxquelles les divisions et les multiplications les plus compliquées deviennent de simples additions ou soustractions.Il y a une dizaine d’années, les machines à calculer électroniques ont fait leur apparition.On ne sait s’il faut éprouver de l’effroi ou de l’enthousiasme devant ces monstres d’acier doués de mémoire qui effectuent en quelques minutes des opérations qui prendraient des mois à un savant, et sont même capables de corriger les erreurs de l’être humain qui leur fournit la matière de leurs calculs.On se surprend alors de songer à l’homme des cavernes qui, il n’y a pas si longtemps, n’arrivait à compter que jusqu’à trois .48 LE JEUNE SCIENTIFIQUE, NOVEMBRE 1966 Les auteurs de ce numéro Rédacteurs, photographes et dessinateurs : 25 Le « Programme biologique international », PBI, et le Québec, par Gaston Moisan, D.Sc., professeur au Département de Biologie, Université Laval, Québec.Article déjà publié dans Les Carnets de Zoologie, Québec, vol.XXVI, no 1, 1966, mais modifié par l’auteur pour notre revue.Pages 26, 27, photos de l’Office national du Film, O.N.F., Ottawa.29 Les progrès des sciences et des techniques, nouvelles sélectionnées par la rédaction du Jeune Scientifique.30 Le fonctionnement de la pile solaire, par Gilbert Laçasse, rédacteur, Service des Relations publiques de la Compagnie Bell, Montréal, d’après l’ouvrage du Dr D.M.Chapin, des Laboratoires de la même compagnie.Pages 31, 33, 35, photo et graphiques gracieusement fournis par la Compagnie Bell Canada, Montréal.36 Le « bulldozer » thermonucléaire sera bientôt utilisé, par Jean-René Roy, B.Péd., Montréal; p.38, dessin de l’auteur et de Claude Forest, Joliette; pp.37, 39, 40, photos Lawrence Radiation Laboratory, Livermore, E.-U.41 Un ouvrage récent en « phytosociologie », par Victorin Lavoie, agronome-botaniste, D.Sc., professeur à la Faculté d’Âgriculture, Université Laval, Québec.42 Les astronomes à la recherche de l’automation, par Edward Ashpole; texte et photo fournis par le British Information Services, C.O.I., Londres, Angleterre.44 Prochaine éclipse de Soleil, 10 juillet 1972, par Paul-H.Nadeau, directeur de l’Oserva-toire de Québec, Division de l’Astronomie, ministère des Terres et Forêts, Québec; p.45, dessin de M.Alain, Québec, préparé par l’auteur.46 Quelques jalons dans l’histoire des mathématiques, texte et dessins fournis par YInternational Press (IP), tous droits réservés par Le Jeune Scientifique.Tarif des abonnements Canada Autres pays Abonnement individuel : $3.00 $3.50 Abonnement de groupe : $2.00 $2.25 Un abonnement de groupe (ou groupe-étudiants), comprend 15 abonnements ou plus s une même adresse.Le responsable de ces abonnements bénéficie d’un escompte de 5% sur chaque abonnement.Les chèques ou mandats doivent être faits en argent canadien, au nom du JEUNE SCIENTIFIQUE, case postale 6060, Montréal 3, Qué., Canada.Le Jeune Scientifique Le Jeune Scientifique est une revue de vulgarisation des sciences destinée aux étudiants d’expression française.Elle a besoin de la collaboration de tous les éducateurs, de tous les enseignants pour atteindre la population étudiante des écoles secondaires et des collèges.Son avenir repose en grande partie sur cet accueil, sur cette participation du milieu étudiant.Le Jeune Scientifique doit obtenir 10,000 abonnements pour maintenir son programme actuel, pour continuer à servir les étudiants intéressés aux sciences.L’an dernier, pour le 4e volume, le nombre d’abonnements atteignait 7,000.Il faudrait donc intensifier les efforts, présenter la revue dans toutes les écoles, assurer sa diffusion dans tous les collèges et dans un plus grand nombre de foyers. LE JEUNE SCIENTIFIQUE est-il connu de vos étudiants ?Au début de cette année scolaire 1966-67, avez-vous l’intention de présenter votre revue dans votre milieu étudiant ?Avez-vous songé à organiser une campagne d’abonnements au 5e volume du JEUNE SCIENTIFIQUE ?Participez activement à la diffusion d’une revue qui se propose uniquement de propager l’information scientifique dans les écoles et collèges d’expression française.Avec ses quatre volumes complets déjà parus, Le Jeune Scientifique a déjà publié 32 numéros ou brochures, abondamment illustrées, contenant plus de 200 articles traitant des sciences naturelles et exactes.profitez de l’abonnement de “groupe-étudiants” Vos étudiants et étudiantes ont-ils été informés de l’existence du Jeune Scientifique ?Si vous réunissez une quinzaine d’abonnements parmi vos élèves, parmi vos compagnons, vous bénéficiez d’un tarif réduit.L’abonnement de « groupe-étudiants » comprend 15 abonnements ou plus à une même adresse et chaque abonnement coûte alors $2.00 ; le responsable bénéficie d’un escompte de 5% sur chaque abonnement.Notre bureau d’abonnements pourra vous fournir une affiche présentant la revue pour vous permettre d’organiser une campagne dans votre collège ou école.Ecrivez dès maintenant et devenez propagandiste du Jeune Scientifique, collaborez à l’oeuvre de la vulgarisation des sciences dans les milieux scolaires d’expression française.LE JEUNE SCIENTIFIQUE, case postale 6060, MONTRÉAL 3
Ce document ne peut être affiché par le visualiseur. Vous devez le télécharger pour le voir.
Document disponible pour consultation sur les postes informatiques sécurisés dans les édifices de BAnQ. À la Grande Bibliothèque, présentez-vous dans l'espace de la Bibliothèque nationale, au niveau 1.