Voir les informations

Détails du document

Informations détaillées

Conditions générales d'utilisation :
Protégé par droit d'auteur

Consulter cette déclaration

Titre :
Québec science
Principal magazine d'information scientifique généraliste québécois. [...]

Le mensuel d'information scientifique Québec Science est publié à partir de 1970. Il est le résultat de l'acquisition par l'Université du Québec de la revue Jeune scientifique, qui était publiée par l'Acfas. C'est Jocelyne Dugas, auparavant responsable de la revue Techniques, publiée par le ministère de l'Éducation, qui préside à cette mutation.

Québec Science opte pour une formule plus journalistique que pédagogique. La revue sera un terreau de développement de la profession de journaliste scientifique. Michel Boudoux, Yannick Villedieu, Christian Coutlée, Daniel Choquette, Solange Lapierre-Czerniecki, Pierre Sormany, Michel Gauquelin, Madeleine Harbour, Fabien Gruhier, Lise Laberge, Gilles Provost, Gilles Paquette, François Picard y participent.

La revue vise à intéresser les jeunes à la science et aux carrières scientifiques en leur offrant une information scientifique à jour présentée par des articles rigoureux et approfondis. Un accent est mis sur l'attractivité visuelle; une première couverture signée par le graphiste Jean-Pierre Langlois apparaît ainsi en septembre 1973. Pierre Parent et Richard Hodgson poursuivront le travail de ce dernier. Diane Dontigny, Benoit Drolet et André Delisle se joignent à l'équipe au milieu des années 1970, alors que Jean-Pierre Rogel en dirige la rédaction à partir de l'automne 1978.

Les premières années sont celles de l'apprentissage du journalisme scientifique, de la recherche de l'équilibre entre la vulgarisation, ou plutôt la communication, et la rigueur scientifique. Les journalistes adoptent styles et perspectives propres à leur métier, ce qui leur permet de proposer une critique, souvent liée à l'écologie ou à la santé. Plus avant dans les années 1970, le magazine connaît un grand succès, dont témoignent l'augmentation de ses ventes et la résonance de ses dossiers.

Québec Science passe sous la responsabilité des Presses de l'Université du Québec en 1979. La revue est alors prospère; en 1980, le magazine est vendu à plus de 25 000 exemplaires, dont 20 000 par abonnement. Les années 1980 sont plus difficiles à cause de la crise économique. Luc Chartrand pratique le journalisme d'enquête pour la revue, dont l'équipe de rédacteurs se renouvelle. On assiste ainsi à l'arrivée de Gilles Drouin, Bernard Giansetto, Claude Forand, Louise Desautels, François Goulet et Vonik Tanneau. Québec Science produit des articles sur les sujets de l'heure : pluies acides, sida, biotechnologies.

Au tournant des années 1990, le magazine fait davantage appel à des collaborateurs externes - journalistes, professeurs et scientifiques. Le cégep de Jonquière devient l'éditeur de la revue. Il en gardera la charge jusqu'au transfert de Québec Science à Vélo Québec en 2008.

Au moment de l'arrivée, en 1994, du rédacteur en chef actuel, Raymond Lemieux, le magazine est encore en difficulté financière. Il connaîtra cependant une relance, fort de la visibilité engendrée par la publication, depuis février 1993, d'un numéro spécial sur les découvertes scientifiques de l'année au Québec. Québec Science devient le premier média québécois à se trouver sur Internet, ce qui lui offre un rayonnement international. Le magazine surfe sur cette vague, avec davantage de contenus et de grands reportages qui franchissent les frontières du Québec; il obtient un soutien accru du gouvernement québécois, ce qui lui permet de recomposer une équipe de journalistes : Catherine Dubé, Vincent Sicotte, Marie-Pierre Élie, Joël Leblanc viennent travailler pour la revue.

Québec science profite ensuite de l'engouement pour les avancées technologiques et s'attire de nombreux collaborateurs qui maintiennent le dynamisme de la revue.

Source :

LEMIEUX, Raymond, Il était une fois¿ Québec Science - Cinquante ans d'information scientifique au Québec, Québec / Montréal, MultiMondes / Québec Science, 2012, 165 p.

Éditeurs :
  • Québec :Les Presses de l'Université du Québec,1970-,
  • Montréal :Vélo Québec éditions inc.
Contenu spécifique :
Janvier
Genre spécifique :
  • Revues
Fréquence :
chaque mois
Notice détaillée :
Titre porté avant ou après :
    Prédécesseur :
  • Jeune scientifique
Lien :

Calendrier

Sélectionnez une date pour naviguer d'un numéro à l'autre.

Fichiers (8)

Références

Québec science, 1972, Collections de BAnQ.

RIS ou Zotero

Enregistrer
A VOLUME 10/NUMÉRO 4/JANVIER 1972/$0.50 L'ORIGINE DE LA VIE p.17 LA MARGARINE p.12 LA TÉLÉINFORMATIQUE p.5 TRAGÉDIE PLANÉTAIRE p.14 CHRONIQUE ENVIRONNEMENT p.22 COMMENT ON DEVIENT OCÉANOGRAPHE p.20 LES VAGABONDS DE NOTRE GALAXIE, P.8 pn les presses de l'université du québec LES VAGABONDS DE NOTRE GALAXIE, P.8 L'ORIGINE DE ! ,VIEp.17 LA MARGARINE p.12 LA TÉLÉINFORMATIQUE p.6 TRAGÉDIE PLANÉTAIRE p.CHRONIQUE ENVIRONNEMENT p.22 COMMENT ON DEVIENT /HUUIH0 4/jAMVifR nn/SOSO OCEANOGRAPHE p.20 Cette photographie représente NGC 4594, une galaxie (type spiral Sb) distante de 37 millions d'années-lumière de la nôtre et vue sous un angle presque parallèle au pian du système.Magazine d'information scientifique publié par les Presses de l'Université du Québec en collaboration avec le ministère de l'Éducation et l'Association canadienne-française pour l'avancement des sciences (ACFAS).Les articles de QUÉBEC SCIENCE sont répertoriés dans l’Index analytique, publication conjointe du Centre de documentation de l’Université Laval et du Service des bibliothèques du ministère de l'Éducation, Tout écrit reproduit dans le magazine n’engage que la responsabilité du signataire.Rédaction Directrice et rédactrice en chef Jocelyne Dugas Secrétaire de rédaction Jean-Marc Gagnon Promotion et publicité Daniel Choquette Diffusion Patricia Larouche Secrétariat Diane Guay Réalisation graphique couthuran et amis, québec Impression l'éclaireur itée, beauceville Diffusion dans les kiosques les messageries dynamiques inc.Administration QUÉBEC SCIENCE, case postale 250, Sillery Québec 6, Tél.: 657-2435 Abonnements 8 numéros: octobre à mai Tarif individuel: $3 (Canada) $3.50 (étranger) $10 (soutien) Tarif groupe-étudiants: 15 abonnements et plus livrés à la même adresse: $2 Vente à l’unité: $0.50 Membres du comité d'orientation Claude Arseneau, Association des jeunes scientifiques Armand Bastien, coordonnateur de chimie-physique.Commission des écoles catholiques de Montréal André Beaudoin, Éducation et affaires étudiantes, ministère de l'Éducation Paul Bélec, professeur, Centre de recherches urbaines et régionales (INRS), Université du Québec Louis Berlinguet, vice-président à la recherche.Université du Québec Roger Blais, professeur de physique, CEGEP de Sainte-Foy Maurice Brassard, doyen aux études graduées et à la recherche.Université du Québec à Montréal Yvan Chassé, professeur.Département de physique.Université Laval Pierre Dansereau, directeur, centre de recherche écologique de Montréal (CREM) Jacques Desnoyers, professeur de chimie, Université de Sherbrooke Guy Dufresne, directeur des projets spéciaux, Consolidated Bathurst Pierre Dumas, recherchiste, Société Radio-Canada André Fournier, responsable de l'enseignement des sciences au secondaire, ministère de l'Éducation Photo: Mount Wilson and Palomar Observatories.SOMMAIRE 5 Par la téléinformatique, UN DIALOGUE S'AMORCE, par Louis Brunei La téléinformatique introduit une nouvelle forme de dialogue entre l’homme et la machine permettant un accès instantané aux renseignements stockés dans les banques de données.8 LES VAGABONDS DE NOTRE GALAXIE, par Jean-René Roy Dans l'espace cosmique, le vide n'existe pas.Gaz et poussières cosmiques forment de gigantesques amoncellements de matière dont la masse peut atteindre 100 000 fois et plus celle du soleil.12 LA MARGARINE OUI.MAIS., par Antoine Gattereau Au Canada, deux marques seulement de margarine sont préparées de façon à réduire la quantité de gras, contribuant ainsi à prévenir l'artériosclérose.14 VERS UNE TRAGÉDIE PLANÉTAIRE, par Gilles Provost Plusieurs écologistes éminents constatent que l’humanité court à sa perte parce qu'elle ne respecte pas les règles qui régissent l'équilibre de la vie sur terre.17 L'ORIGINE DE LA VIE, par Mohamed Ather Ali Comment la vie est-elle apparue sur terre?A que! stade particulier de l’évolution de notre planète ce phénomène s'est-il produit?RUBRIQUES 3 Éditorial: PERSPECTIVES-JEUNESSE: LA PERSPECTIVE EST-ELLE JUSTE?par Jocelyne Dugas 19 Échec et maths: FAUSSE MONNAIE, par Claude Boucher 19 A vous de jouer: DES SOUR IS DIGNES DE BATMAN, par Jean-Marc Fleury et Laurent Bilodeau 20 Comment on devient — OCÉANOGRAPFIE Michel Khalil interviewé par Gaétan Beaulieu 22 24 26 29 31 34 35 Environnement, par Dominique Mascolo Le labo: LE MOTEUR LINÉAIRE, par Michel Bourdages L'expérience du mois: L'ÉCFIANTILLONNAGE STATISTIQUE, par Michel Boudoux FLASH.FLASH.FLASH.Qu'est-ce que c'est?Voulez-vous lire?Vous dites?Serge Fradette, étudiant, Université de Montréal Jean-Claude Gauthier, étudiant, Collège Bourget, Rigaud Gordin Kaplan, professeur de biologie, Université d’Ottawa Paul Laurent, Service d'information, relations publiques, Hydro-Québec Gilles Papineau-Couture, directeur du contrôle de la qualité.Laboratoires Ayerst Tous droits réservés 1972 — LES PRESSES DE L'UNIVERSITÉ DU QUÉBEC — Courrier de Guy Rocher, professeur de sociologie.Université deuxième classe, enregistrement no 1052 — Dépôt légal premier trimestre 1972 — Bibliothèque de Montréal nationale du Québec — Imprimé au Canada Jacques Sicotte, étudiant, CEGEP Bois de Boulogne perspectives* jeunesse: la perspective est-éile juste par Jocelyne Dugas Perspectives-Jeunesse: un nom bien frappé, plein de promesses.Ont-elles été tenues?Étudions le bilan 1971 : dans tout le pays, 2 400 projets qui ont donné du travail à quelque 27 000 jeunes Canadiens et coûté à l'État environ 23 millions de dollars.Au Québec, 785 projets ont été acceptés dont plus de 160 en sciences pures, appliquées, humaines et en écologie.Pour la somme de 9 millions de dollars, quelque 10 400 étudiants québécois (dont environ 1 500 en sciences et en écologie) ont accompli dans un domaine relié en général à leurs intérêts un travail marqué au coin des préoccupations sociales de l'heure.Voilà le beau côté de la médaille.D'autres sons de cloche nous parviennent.A l'heure où nous écrivons ces lignes, la réédition 1972 du programme Perspectives-Jeunesse semble assurée.QUÉBEC SCIENCE par conséquent veut s'interroger avec vous sur la valeur et la validité d'une telle initiative gouvernementale.Certains milieux qui possèdent une vue plus globale de la question considèrent en effet Perspectives-Jeunesse comme une opération de sécurité sociale déguisée, une manoeuvre de diversion pour apprivoiser la contestation étudiante, une intrusion fédérale dans une sphère de juridiction provinciale, l'éducation.Les critiques que nous avons entendues en provenance de scientifiques, d'éducateurs et d'étudiants portent surtout sur le fond du problème, qui en est un de contenu encore plus que de contenant, de qualité plus que de quantité.On déplore avant tout l'absence de coordination du programme, initiative du Secrétariat d'État canadien, avec les grandes priorités à l'échelle provinciale, telles que pour le Québec l'éducation et le travail.Ainsi, le Québec tente actuellement de mettre sur pied une politique jeunesse valable; il possède déjà une tradition éducative, inexistante à Ottawa, et pour cause; il connaît mieux, non seulement ses besoins de main-d'oeuvre, mais aussi ses ressources au plan des individus et des institutions ainsi que les actions en cours sur lesquelles pourraient s'appuyer les étudiants dans leurs travaux d'organisation et de recherches.Voilà pourquoi le respect d'un protocole d'entente entre Ottawa et Québec semble primordial.Car de nos jours, aucun pays ne peut se payer le luxe d'offrir des emplois qui coûtent des millions de dollars aux citoyens sans que ces travaux servent tout d'abord la collectivité qui les encadre.Ces considérations de nature politique se fondent avant tout sur les principales lacunes relevées dans le programme Perspectives-Jeunesse de l'an dernier.Les remarques enregistrées, particulièrement au sujet des projets scientifiques, convergent toutes vers des problèmes de sélection des projets, de consultation, d'animation des participants et d'évaluation de leurs résultats.Ainsi, vous, les étudiants, vous êtes plaints de la brièveté du programme d'été de trois mois.Nombre de projets de recherche scientifique ou écologique, pour être menés à bien, exigent en effet beaucoup plus de temps et d'équipement.Combien d'étudiants se sont sentis frustrés parce qu'ils ne pouvaient poursuivre le travail commencé! Il est clair que la sélection des projets devra dorénavant être plus rigoureuse et judicieuse, surtout dans les branches à caractère scientifique ou technique.Tout porte à croire que la période d'emploi sera prolongée de quelques mois en 1972.La présélection serait de nouveau confiée à des permanents du Secrétariat, au niveau régional cette fois; la sélection véritable continuerait à être centralisée 4 à Ottawa et assurée par une dizaine de spécialistes qui, comme l'an dernier, soumettraient ensuite les projets aux hauts fonctionnaires pour approbation définitive.Quant à la consultation et à l'animation, si à toutes fins pratiques elles étaient inexistantes, c'est que l'été dernier les règlements de Perspectives-Jeunesse excluaient la rémunération de tout professionnel à titre de consultant.Quelques-uns l'ont fait à titre bénévole.Cette année, cet obstacle sera vraisemblablement levé.Il va de soi que des jeunes peu formés à la méthode scientifique ont besoin de consulter des experts pour la préparation, le cheminement et l'évaluation de leur travail.La consultation et l'animation débouchent donc inévitablement sur l'évaluation des résultats.Perspectives-Jeunesse s'est borné à apprécier le fonctionnement (ou contenant comme nous le disions plus haut) de l'opération par rapport à ses critères et au plan proposé par les responsables des projets.Le rapport fourni par chaque groupe au Secrétariat d'État devait faire l'évaluation du travail accompli.Mais règle générale il n'était pas révisé par un spécialiste.D'où le risque, pour les jeunes, d'un mauvais aiguillage par suite de la difficulté qu'ils éprouvaient à apprécier objectivement la valeur technique de leurs recherches ou services.Aux dernières nouvelles, le Secrétariat d'État ne songerait pas à combler cette lacune au niveau de l'évaluation du contenu des projets.Comment le pourrait-il à partir d'Ottawa?Voilà pourquoi certains scientifiques québécois sont catégoriques: il faut fractionner le programme Perspectives-Jeunesse en deux sections, affirment-ils.La première se situerait franchement dans le cadre d'une opération de travail d'été qui accueillerait aussi les jeunes chômeurs (il est déjà question d'inclure cette catégorie dans le prochain programme).La seconde section, considérée avant tout comme une démarche éducative parce qu'elle viserait non seulement à donner aux étudiants un emploi qui leur plaît mais en même temps à enrichir leurs connaissances, devrait se plier à des normes plus précises.Un protocole d'entente autoriserait la création au Québec d'un mécanisme de sélection et d'évaluation seul capable de garantir la valeur des projets, particulièrement des recherches scientifiques ou écologiques exécutées par les étudiants.Ce mécanisme, sorte de comité de coordination, ferait appel à la compétence de scientifiques et éducateurs répartis à travers le Québec, pour élaborer un programme sur lequel ils auraient droit de regard quant à la nature et à la qualité des travaux entrepris et terminés.N'allez pas penser qu'il s'agit là d'une proposition révolutionnaire.Elle s'appuie sur au moins un précédent.Ainsi, depuis 1962, une entente conclue entre le ministère de la Santé du Québec et les universités québécoises assure aux étudiants en médecine un travail d'été dans des laboratoires de recherche universitaires.Des budgets sont accordés à cette fin moyennant un rapport scientifique et administratif.Cette initiative québécoise, qui n'a plus à faire la preuve de sa valeur pédagogique, a servi de modèle à d'autres organismes canadiens.L'essentiel demeure: le travail d'été de l'étudiant — véritable expérience pédagogique — lorsqu'il est cautionné par un comité d'experts permet à ces derniers de découvrir les vocations scientifiques dont le Québec a un besoin vital pour assurer son expansion.D'où l'importance pour vous, étudiants québécois, d'aligner vos travaux sur les priorités du développement collectif.En conclusion, les considérations énoncées ici pourraient, il nous semble, ouvrir à Perspectives-Jeunesse des horizons plus vastes, grâce à une meilleure coordination des objectifs et une plus grande participation des différents milieux.Autrement, Perspectives-Jeunesse, qu'est-ce que ça change?Vous, étudiants, cobayes des initiatives nouvelles, qu'en pensez-vous?¦ PAR LATÉLÉINFORMATIQUE un dialogue Pru ! r ati irliar ! ! n n/an /-I'm i/-li+/~\rii i m lac* Pour étudier un plan d'auditorium, les ingénieurs des laboratoires de recherche Bell aux États-Unis ont fourni à J'ordina-teur deux sortes de données: architecturales s>anwrce\ par Louis Brunei d'abord (dimensions de la salle, de la scène, du bâtiment, nature des matériaux, etc.) et musicales ensuite (une symphonie de Mozart).Ils ont ajouté tous les éléments acoustiques nécessaires (coefficients d'absorption, de réflexion, etc).L'ordinateur, après avoir convenablement trituré tout cela, a produit une bande magnétique reproduisant la symphonie de Mozart exactement comme l'entendrait un auditeur assis au douzième rang, six fauteuils à droite de l'allée centrale, un jour où la salle serait aux deux tiers pleine.U semble même qu'on ait dû introduire un coefficient spécial de correction pour tenir compte de la diminution d'absorption occasionnée par les minijupes! Cet exemple, un peu farfelu en apparence mais très sérieux tout de même, n'illustre qu'un des mille et un usages de l'ordinateur.Car il devient de plus en plus évident que ce fantastique collaborateur de l'homme étendra bientôt son rayon d'action jusque dans nos foyers parla téléinformatique.Qu'est-ce que la téléinformatique?Une nouvelle forme de dialogue entre l'homme et la machine permettant un accès instantané aux connaissances stockées dans les banques de données.L'auteur, Louis Brunei, est bien placé pour en parler puisqu'il contribue depuis la première heure à la mise sur pied de l'un des premiers réseaux intégrant à la fois l'emploi à distance de terminaux rapides, lents et d'ordinateurs de moyenne puissance: celui de l'Université du Québec.L'apparition des réseaux de communication, au sens de la télétransmission de l'information, constitue un phénomène contemporain de la plus haute importance pour la structure de la société de demain.Bientôt, les réseaux de communication formeront une immense toile d'araignée sur notre continent.Phénomènes de plus en plus répandus, ils n'en demeurent pas moins une réalité difficile à cerner tant par leur composition d'éléments très différents que par leurs effets multiformes.La combinaison de l'ordinateur et du réseau téléphonique a donné naissance à une nouvelle dimension des réseaux de communication: la téléinformatique, élément fort important des changements amorcés dans les administrations tant publiques que privées.Elle permet, en effet, de concevoir l'entreprise de façon globale en rendant possibles la centralisation et l'accessibilité immédiate à l'information nécessaire à la décision, quelle que soit l'étendue géographique des opérations.Anatomie de l'ordinateur O Pour bien saisir la signification de la téléinformatique, soit la transmission et le traitement de l'information à distance, il importe de connaître de façon élémentaire le fonctionnement d'un ordinateur et de ses organes périphériques.Considérons le schéma suivant: Au niveau de la flexibilité, il faut distinguer trois classes d'organes périphériques: 7.les unités d'entrée telles que les lecteurs de cartes perforées, les lecteurs de bandes perforées, les lecteurs de caractères magnétiques ou les lecteurs optiques.Quoique de types différents, ces unités ont une fonction commune qui est de présenter à l'ordinateur (l'unité centrale de traitement) les informations désirées sous une forme qu'il peut reconnaître, dans un «langage» qu'il comprend.2.les unités de sortie telles que les perforateurs de cartes, les perforateurs de bandes ou les imprimantes.Elles ont pour fonction de transcrire des caractères exprimés en forme «machine» en une forme compréhensible à l'humain.3.les unités d'entrée/sortie telles que les dérouleurs de bandes magnétiques et les tourne-disques qui permettent de traiter les données dans les deux sens, soit de les lire, soit de les écrire.Ces unités sont appelées «mémoires auxiliaires».Car elles constituent des supports magnétiques importants pouvant contenir une grande quantité de données structurées en fichiers.D'autre part, au niveau des fichiers sur support magnétique, on distingue l'accessibilité séquentielle (dérouleurs de bandes magnétiques, par exemple) lorsque les enregistrements sont classés les uns à la suite des autres dans l'ordre de l'un de leurs paramètres et l'accessibilité directe ou sélective (par exemple, disques ou tambours magnétiques) lorsque les enregistrements sont repérés par une «adresse» correspondant à une position précise sur le support en question.Pour comprendre la différence entre les deux types d'accessibilité à l'information, songeons à la démarche nécessaire pour trouver un habitant dans une ville.Il faut d'abord repérer la rue sur le plan de la ville et se rendre à l'intersection la plus proche.C'est l'accès sélectif.La deuxième étape consiste à suivre la rue jusqu'au numéro civique recherché.C'est l'accès séquentiel.L'unité centrale de traitement, l'ordinateur au sens strict) gère l'ensemble de ces organes périphériques et s'occupe des calculs et du traitement à effectuer.Mais qu'advient-il de ce schéma lorsqu'on veut établir un réseau informatique axé sur un centre principal où & s'effectue le traitement de l'information?Lecteur de cartes Imprimante Perforateur de cartes Dérouleurs de bandes magnétiques Tourne-disques Unité centrale de traitement (calcul, traitement, mémoire) Schéma 1 - Organes périphériques et unité centrale de traitement. 6 LA TÉLÉINFORMATIQUE La transmission O On peut identifier trois types principaux de réseaux informatiques.Mais quel que soit le réseau considéré, la partie «transmission» est généralement constituée des éléments suivants illustrés dans le schéma 2.Les contrôles de transmission, comme leur nom l'indique, effectuent le contrôle et la gestion des données reçues et transmises par les ordinateurs.Ils accomplissent ainsi quatre fonctions principales: ils composent les messages en regroupant les caractères en blocs avant de les transmettre; ils assurent les modems de signaux qui leur soient acceptables; ils protègent le réseau contre les erreurs et enfin, ils gèrent la communication.Les modems (modulateur-démodulateur) rendent les messages binaires émis ou reçus par un ordinateur compatibles avec les messages transmis par les lignes téléphoniques.Ils servent «d'interprètes» informatique-téléphonie et téléphonie-informatique, permettant ainsi la communication.Il existe trois sortes de lignes de transmission: simplex, semi-duplex (half-duplex) et duplex (full-duplex).En Amérique du Nord, une ligne est dite simplex lorsqu'elle ne peut transmettre que dans une direction; elle est semi-duplex si elle peut transmettre dans les deux directions mais de façon non simultanée; enfin, une ligne duplex peut transmettre dans les deux directions en même temps.Lorsqu'on envisage la vitesse des lignes, on les regroupe en trois catégories: circuits télégraphiques, circuits de voix et circuits à bande large.La première catégorie correspond à des vitesses variant entre 45 et 400 bits par secondes, la deuxième regroupe les lignes dont les vitesses varient de 600 à 4 800 bits par seconde.Les plus courantes possèdent une capacité de 40 800 à 50 000 bits par seconde et ne servent que pour la transmission des données à très haute vitesse.partie «transmission» Modem Modem Modem Modem Modem Modem Contrôleur de transmis- Contrô-leur de Contrôleur de Contrôleur de Schéma 2 - Éléments de la transmission informatique \ Réseau de terminaux rapides: Quelles sont les caractéristiques d'un réseau de terminaux rapides?Le schéma no 3 en décrit les principales: Complexe central Lecteur de cartes contrô- leur transmis- dérouleurs de bandes lodem impri- Site 2 Lecteur de cartes trô- leur de trans- contrô- leur transmis- unrté centrale de traitement ?-?modemmodem impri- mante Site 3 contrô- leur transmis- lodem^* modem banque de données impri- partie «informatique» partie «transmission» partie «informatique» V Schéma 3 - Réseau de terminaux y On constate que les trois sites du réseau se trouvent reliés au complexe central à l'aide de terminaux rapides disposant d'un lecteur de cartes et d'une imprimante.Les données sont donc soumises à l'ordinateur central qui les accumule sur disques ou sur bandes.Pour mettre à jour l'information déjà emmagasinée, il suffit de transmettre les nouveaux renseignements au complexe central qui en effectue le traitement demandé.Les résultats sont ensuite acheminés par télécommunication aux imprimantes locales.Le processus s'accomplit exactement comme si l'unité centrale de traitement se trouvait juste à côté, alors qu'en fait, les sites ne disposent que de «terminaux-esclaves» de l'ordinateur central.Cependant, un réseau de téléinformatique peut relier non seulement des terminaux mais aussi des ordinateurs de moyenne puissance à une unité de traitement de plus grande capacité.Réseau d'ordinateurs: Pour prendre un cas concret, considérons la configuration du système informatique du site no 1 dans une telle hypothèse: 7 Imprimante contrôleur de transmission Dérouleurs de bandes.Traitement à distance Ordinateur local Traitement local vers l'ordinateur central Schéma 4 - Configuration du système informatique du site no 1.?La première distinction entre les deux '|j types de réseau réside dans le fait qu'une | telle disposition permet à la fois le I traitement local et à distance simultané-I ment.Les petits travaux sont absorbés I par l'ordinateur local, alors que les gros, || exigeant plus de capacité, sont soumis à l'ordinateur central.Techniquement, le traitement local est divisé en deux parties pour les périodes de travaux simultanés: la première partie || est affectée au traitement local et la i| deuxième, aux travaux à transmettre ou jj à recevoir de l'ordinateur central.Une || technique fort répandue consiste à utili-i ser une partie des disques pour emmagasi-| ner les informations e/7 transit', c'est-à-di-|| re les informations impliquées aux points , | 1, 2, 3, 4 et 5 qui suivent.Le cycle | | complet comprend alors jusqu'à cinq | j phases: ( 1 ) la lecture des cartes et le | | chargement sur disques en «traitement |j local» suivis (2) par la transmission des ||l informations enregistrées sur disques grâ-| | ce à la partie «traitement à distance», i| vers l'ordinateur central; (3) le traitement U) des données est effectué et les fichiers Imis à jour; si la demande était à cet effet, (4) le nouveau fichier ou une partie de jk celui-ci est retransmis sur disques au site I récepteur grâce à la partie «traitement à |l distance»; enfin (5), le contenu des dis-1 ques est imprimé sous le contrôle du I «traitement local».Il convient de reconnaître que ce ||| deuxième type de réseau est à la fois i l plus complexe et plus flexible.il utilise ||{ en général des vitesses de transmission i | plus élevées.tcflitril* .flOjflltlf* I Réseau de terminaux lents: Ce type de réseau est caractérisé par l'emploi de téléscripteurs et d'unités à affichage graphique.Ces diverses unités disposent de claviers et permettent d'interroger les banques de données et d'agir en interaction avec elles.Un exemple de réseau de ce genre est celui affecté aux réservations chez les transporteurs aériens.En général, il comprend un très grand nombre de terminaux.Notons que ces «types» de réseaux ne sont pas exclusifs les uns aux autres mais qu'au contraire, plusieurs réseaux représentent une intégration de ces possibilités.Le télétraitement O Comment utilise-t-on ces moyens pour effectuer le traitement des données à distance?Il importe de reconnaître deux types majeurs de télétraitement, le traitement en vrac (ou en lots) et le mode dialogué (ou mode conversationnel).La première catégorie constitue l'approche plutôt «traditionnelle» tandis que la deuxième promet beaucoup pour l'avenir.Le traitement en vrac O On peut distinguer deux catégories de traitement en vrac, le «Remote Batch» (ou la transmission à distance de lots de travaux) et le «Remote Job Entry» (ou l'entrée à distance des travaux).Dans le premier cas, des lots de travaux sont soumis à l'ordinateur central qui les enregistre sur un organe périphérique sans entreprendre aucun traitement.Le traitement s'effectue aux heures creuses et la retransmission, à une autre période.Par ce type de traitement le temps de réponse pour l'usager est très long, soit de l'ordre de la journée ou de la demi-journée.Les trois phases du processus sont séparées: la transmission des données, l'exécution du traitement et la transmission des résultats.Dans le cas de l'entrée des travaux à distance, le temps de réponse est beaucoup plus court.En effet, les travaux soumis ne sont pas laissés de côté pour traitement ultérieur, mais au contraire, ils sont placés dans la file d'attente des travaux à exécuter selon un ordre de priorité.Une fois le travail effectué, les résultats sont à leur tour placés dans la file d'attente pour être transmis.Dans ce processus, les trois phases ne sont plus séparées de façon aussi catégorique.Par contre, la gestion des files d'attente nécessitée par cette façon de procéder s'avère assez complexe.Le mode dialogué O Le mode dialogué se caractérise par le dialogue qu'il permet entre un humain (à l'aide d'un terminal lent) et une banque de données sur ordinateur.Deux types de dialogues sont possibles: le premier consiste à interroger la banque de données et à pouvoir être informé de leur contenu tandis que le deuxième permet en plus de modifier le contenu de la banque interrogée en y altérant certaines données.Cette différence fondamentale entre les deux types d'interactions serait très bien exprimée si l'on permettait à un étudiant d'avoir accès à deux banques de données qui l'intéressent, soit celle des cours offerts par son institution et celle de son dossier personnel.Il pourrait alors, à l'aide d'un terminal lent, se renseigner sur les cours offerts sans pour autant pouvoir changer les données qui le concernent.Par contre, dans le second cas, il pourrait faire connaître son changement d'adresse à l'ordinateur sans autre intermédiaire.Une application O La jeune Université du Québec a mis sur pied l'un des premiers réseaux d'informatique au Canada intégrant les trois types de réseaux dont nous avons parlé.Il est axé sur un ordinateur de grande puissance de type Control Data 6 400 situé au siège social de l'université à Québec.Les trois universités constituantes (Chicoutimi, Montréal et Trois-Rivières) s'y trouvent reliées par un ordinateur de moyenne taille permettant le traitement local en même temps qu'à distance.Le Centre d'Études Universitaires de Rimouski, l'Ecole Nationale d'Administra-tion Publique située à Québec et les principaux centres de recherches de l'Institut National de la Recherche Scientifique sont reliés au central par des terminaux rapides.Enfin, une quarantaine de terminaux lents répartis dans ces organismes viennent d'être mis en service pour permettre l'interrogation de banques de données administratives et de banques d'informations scientifiques et techniques ainsi que le développement et l'exploitation de cours assistés par ordinateur grâce au système TUTOR mis au point par l'Université du Québec.La téléinformatique constitue une réalité envahissante fort importante de la société contemporaine.Force nous est de constater que le Québec n'y échappe pas, puisque le fonctionnement même de sa plus jeune université repose sur cette réalité.¦ POUR EN SAVOIR PLUS LONG AUBOIN, Jacques, Téléinformatique, Coll, économie, Dunod, Paris, 1971.MARTIN, James, Telecommunications and the Computer, Prentice-Hall, New York, 1969.MARTIN, James, Teleprocessing Network Organisation, Prentice-Hall, New York, 1970.ROY et BÉGIN, Principes d'informatique, McGraw-Hill, Montréal, 1971 L'auteur est vice-président (par intérim) aux Communications de l'Université du Québec. vagabonds ! Même si une autre galaxie entrait en collision avec la nôtre, elle pourrait la traverser et en ressortir sans toucher à une seule étoile.Pourtant, dans l'espace cosmique, le vide n'existe pas.Gaz et poussières cosmiques peuplent les régions interstellaires.U a fallu de nombreuses années d'observation et la mise au point d'instruments de plus en plus perfectionnés pour que les astronomes y décèlent la présence de molécules complexes, et comprennent enfin que là aussi, le processus de développement de la vie peut s'accomplir.Ce n'est qu'une question d'années.De millions et de milliards d'années! De quoi sont faites les nébuleuses?L'auteur, astronome passionné, répond à ces questions et à bien d'autres encore tout en expliquant les principaux éléments de la chimie du cosmos.Il y a des étoiles dans le ciel; un seul coup d'oeil par une nuit claire suffit pour nous convaincre.Toutefois, la présence de gigantesques nuages de poussières et de gaz entre les étoiles est loin d'être aussi évidente.Ces amoncellements de matière, dont la masse peut atteindre 100 000 fois et plus celle du soleil, demeurent beaucoup plus difficiles à détecter.Certaines de ces accumulations apparaissent sous la forme de nuages interstellaires, appelés «nébuleuses».Jusqu'au début du 20e siècle, plusieurs astronomes croyaient que l’espace entre les étoiles constituait un vide parfait.A première vue en effet, l'espace interstellaire pourrait être considéré comme un vide extrêmement poussé.Tout d'abord, les distances entre les 100 milliards d'étoiles de notre galaxie sont si énormes qu'une autre galaxie pourrait entrer en collision avec la nôtre, la traverser et en ressortir sans toucher à une seule étoile.Néanmoins, une telle rencontre ne se ferait pas sans heurt: en plus de causer des perturbations majeures à toutes les orbites stellaires, les multiples chocs entre les nuages de poussières et de gaz, ainsi que la fusion et la destruction des champs magnétiques livreraient l'espace interstellaire à l'anarchie.Ce cataclysme parviendrait peut-être aux citoyens d'une galaxie lointaine sous la forme de sursauts dans les émissions radio- de notre gidaxîe par Jean René Roy s l/iltwltpl Ml KM Kim nu Min électriques émises par la Voie lactée.Cependant, les collisions entre galaxies demeurent fort improbables.Hordes nébuleuses O Les observations dans le domaine visible ont tout d'abord permis de détecter la présente de poussiè res interstellaires, nageant dans un gaz raréfié d'atomes de calcium, de sodium et d'hydrogène ionisé (ayant perdu son électron orbital).Ces importantes régions d'hydrogène ionisé, appelées «régions H II», apparaissent au voisinage d'étoiles supergéantes, très chaudes (type spectral O et B), qui par leur intense rayonnement ultraviolet, arrachent l'électron périphéri que de l'atome d'hydrogène.Une étoile de type 05, ayant une température de surface de 50 000°K, peut ainsi ioniser tout l'hydrogène dans un rayon de 300 années-lumière.(1 année-lumière = 9 461 000 000 000 kilomètres).Les «régions H II» ne sont que la visualisation des vastes réserves galactiques en hydrogène neutre, invisible dans la fenêtre optique du spectre électromagnétique.Comme pour les étoiles, l'hydrogène demeure le constituant majeur des matériaux interstellaires.Il fallut cependant patienter jusqu'aux années 50 pour que les radio-astronomes en décèlent la présence.Grâce à un équipement plus perfectionné, les chercheurs purent alors capter l'émission qu'effectue l'hydrogène neutre (H I) à une longueur d'onde caractéristique: 21 cm.Cette émission d'un photon de basse énergie provient d'une transition spontanée de l'électron de l'atome d'hydrogène qui ne se produit en moyenne qu'une fois par 11 millions d'années Le nombre prodigieux d'atomes d'hydrogène dans le cosmos compense pour cette hibernation prolongée de l'atome d'hydrogène neutre.«toute ptamfi ta jetai Ce sont les raies d'absorption du calcium ionisé striant les spectres d'étoiles lointaines qui permirent d'affirmer la présence de gaz interstellaires.Ces raies n'appartenaient pas au calcium de l'étoile mais à celui du milieu interstellaire.La densité de ces gaz est extrêmement fai ble: moins d'un atome par centimètre cube (cm3) dans le plan galactique En comparaison, l'air que nous respirons s'engouffre dans nos poumons en véritables torrents avec une densité de 2,7 x 1019 (27 000 000 000 000 000 000 000) molécules par cm3.Même les vides les plus poussés des laboratoires doivent affronter une concentration d'air d'au moins 1013 atomes (10 000 000 000 000) .3 plmpj «tadéfin lima (t'e par cm".Soulignons cependant que la répartition des gaz interstellaires est extrêmement élastique; les fluctuations dans la densité des atomes oscillent en réalité entre 1/100 et 10 000 par cm3, Par endroits, la densité des gaz et poussières suffit à obscurcir le fond étoilé: ce sont les «nébuleuses obscures».Ailleurs, les nuages réfléchissent la lumière des étoiles pour produire les «nébuleuses diffuses».Les gaz s'amoncellent en nuages d'environ 30 années-lumière de diamètre et la vie moyenne d'un tel amas est de 10 millions d'années.Ces hordes nébuleuses gravitent autour du centre de la galaxie en quelques centaines de millions d'an- kpamurj faite de yj Appliquer 'kiidynj, Itdisqu fcmitrj d| psîniii "m* inters l'eut ¦'«fiïipl ÜS «ares, N equ'wfài imluepiûè ta le toi- ' r ¦ : ' :' •r ; ,;il-^ • T: J v''" iel| .- :Er IlStflW® éèV*.s vite te iHt(Fa aiiei®11*' j£ï ),l; 1*118® j» St*11 nid'l11' Vieux de plusieurs milliards d'années, notre univers demeure relativement jeune.Car l'hydrogène et l'hélium, les deux éléments les plus légers, composent encore 98% de la matière cosmique.Cette photo d'une nébulosité dans Monoceros montre les gaz et poussières interstellaires à partir desquels se contractent les étoiles; cette contraction gravitationnelle élève rapidement la température jusqu'à plusieurs millions de degrés et la fusion thermonucléaire en brûlant l'hydrogène en hélium, génère l'énergie de l'étoile durant une dizaine de milliards d'années (pour une étoile de la masse du soleil).nées tout en s'effritant et se réformant plusieurs fois au cours d'une seule rotation galactique.Blancs-becs et vieilles barbes de l'univers O Un seul atome par cm3, et nous nous défendons de qualifier ce milieu de vide?Soyons plus rigoureux et voyons comment la physique définit le vide: c'est un système dans lequel le parcours libre moyen des atomes (c'est-à-dire la distance moyenne parcourue par les particules entre deux chocs consécutifs) dépasse les dimensions du système.Or, dans l'espace interstellaire, le parcours libre moyen des atomes est des centaines de fois inférieur à la distance entre les étoiles.Les scientifiques refusent donc de qualifier l'abîme entre les étoiles de vide: ainsi devient-il possible d'appliquer à ce milieu les lois familières de la dynamique des gaz.Le disque de notre galaxie possède un diamètre de 100 000 années-lumière et une épaisseur de 10 000 années-lumière.A peu près 2 milliards de masses solaires de matériaux interstellaires se trouvent entraînées dans ce tourbillon, soit environ 2% de la masse totale de la voie lactée.En fait, cette fraction varie énormément d'une galaxie à l'autre selon leur âge puisque les gaz constituent la matrice à partir de laquelle les étoiles se forment par condensation.Dans les galaxies de type elliptique, par exemple, qui comptent parmi les vieux citoyens de l'univers, la proportion de leur masse à l'état informe de gaz et de poussières n'est que de 1/10 000, soit 0,01%.A l'opposé, dans les jeunes galaxies de type irrégulier qui ont l'apparence échevelée de hippies cosmiques, le gaz interstellaire peut constituer de 20 à 50% de leur masse.Notre galaxie (type spiral Sc) se situe entre les blancs-becs et les vieilles barbes de l'univers: la formation d'étoiles nouvelles s'y produit à un rythme relativement modéré.Éléments mineurs majeurs O L'hydrogène, élément le plus simple, se taille la part du lion dans les constituants du gaz interstellaire avec 95% sous forme neutre, et 5% ionisé dans les «régions H II».Les autres éléments ne sont présents qu'en quantités infimes: sauf l'hélium dont l'abondance se chiffre à 15-20% de la masse de l'hydrogène, tous les autres éléments réunis n'atteignent pas plus de 3 à 5% de la masse de l'hydrogène.La densité de ces atomes dont le plus abondant est l'oxygène, s'échelonne entre 10 3 (-10 000) et 10"6 (-10 000 000) par cm3.Il ne faut toutefois pas conclure que ces éléments, même si l'on ne les retrouve qu'en faible proportion, jouent un rôle insignifiant dans les phénomènes et les propriétés physiques de l'espace interstellaire.Certes, on peut obtenir une image précise de la dynamique de notre galaxie en se contentant de l'hydrogène et de l'hélium.Mais lorsqu'il s'agit de l'équilibre thermique des gaz interstellaires en présence de radiation, il est impossible d'ignorer l'oxygène, l'azote, le carbone et le soufre.Les propriétés d'une étoile sont étroitement reliées au contenu initial en hélium mais les éléments «mineurs» semblent jouer un rôle majeur dans l'évolution ultérieure de toute étoile.Poussières absorbantes O Les poussières cosmiques dont la masse représente au plus 1% de celle des gaz interstellaires, possèdent néanmoins une importance essentielle.Ces poussières consistent en de fines particules de 5 x 10’5cm (—5 000 000) de diamètre, soit environ la dimension de la longueur d'onde de la lumière.La composition de ces particules demeure mal définie.On croit généralement qu'il s'agit de glace, de graphite et de certains silicates.Ces poussières disséminées à travers notre galaxie, absorbent la lumière dès étoiles.Comme un brouillard, elles nous empêchent de voir au-delà de 600 à 1 000 années-lumière, nous plaçant dans l'impossibilité d'apercevoir le noyau central de notre galaxie.Heureusement, cette poussière se trouve concentrée en une couche de 800 années-lumière d'épaisseur; ainsi, à un angle suffisamment élevé, peut-on observer l'extérieur de notre galaxie.Chacun d'entre nous s'est déjà demandé en contemplant un coucher de soleil, à quoi attribuer le rougeoiement de l'astre L'explication en est simple: les poussières et particules atmosphériques absorbent la partie bleue et violette des rayons solaires.Le même phénomène se produit pour les étoiles.Celles-ci, vues à travers les poussières cosmiques, apparaissent plus rouges qu'elles ne le sont en réalité.Plus l'étoile est éloignée, plus son rougeoiement est important et plus grande doit être la correction à-effectuer pour retrouver la couleur intrinsèque (ou la température) de l'étoile. 10 y" LES NOUVEAUX VENUS EN COSR/iOCHIMIE1 MOLÉCULE SYMBOLE Â(cmP ATOMES CONSTITUANTS formaldéhyde H2CO 6,21 2 hydrogènes, 1 carbone, 1 oxygène ammoniac nh3 1,26 1 azote, 3 hydrogènes hydroxyle OH 18 1 oxygène, 1 hydrogène vapeur d'eau H20 1,35 2 hydrogènes, 1 oxygène 1 Ces molécules ont été détectées dans l'espace interstellaire par l'absorption ou l’émission d'ondes radioélectriques.2 A: longueur d'onde de l'émission ou de l'absorption.L'hydrogène neutre est détecté depuis 1950 à 21 cm; plus récemment, on lui a découvert une autre absorption (ou émission) à 5,99 crm Explosion démographique O Depuis assez longtemps, la spectroscopie avait révélé la présence dans le cosmos de certaines structures moléculaires simples (par exemple CH, CN).Au cours des années 60, des observations radioastronomiques dévoilaient successivement la présence interstellaire de l'intringant radical OH (hydro-xyle) à 18 cm (1963), de molécules plus complexes comme celles de l'ammoniac (NH3) à 1,2652 cm (1968), de la vapeur d'eau (H20) à 1,35 cm (1969) et enfin, de la première structure polyatomique interstellaire, le formaldéhyde (H2CO) à 6,21 cm (1969).Une véritable explosion démographique allait suivre.En avril 1970, on détectait la présence de monoxyde de carbone (CO) en émission à la longueur d'onde de 2,600 mm.En juin 70, l'acide cyanhydrique (HCN) à 3,38 mm se plaçait au second rang des molécules organiques polyatomiques dans les «nuages» de notre galaxie; au cours du même mois, la molécule diatomique de l'hydrogène (H2) trahissait sa présence par son rayonnement ultraviolet entre 1 000 et 1 120 angstroms.Puis, le cyanoacétylène cosmique (HC3N) (juillet 70) portait à trois le total des molécules polyatomiques découvertes et s'enregistrait comme le plus lourd, avec un poids moléculaire de 51.Octobre 70 amenait la découverte de l'acide formique (HCOOH).Enfin, élément encore plus complexe «l'alcool de bois» (CH3OH) interstellaire faisait acte de présence en novembre 1970.Comme vous vous en doutez, ce n'est pas fini.A quand le whisky galactique?La molécule la plus populaire O S'il fallait décerner une mention à l'élément où à la molécule la plus populaire de la décennie en astrophysique, le radical univalent hydroxyle OH raflerait incontestablement les honneurs.Cette attention particulière est due à plusieurs faits: a) le radical apparaît concentré dans certaines régions proches du centre galactique; b) sa présence est observée en absorption et en émission de radiations très intenses, parfois à 18 cm; c) dans ces «régions OH», l'hydro-xyle est 1 000 fois plus abondant qu'ail-leurs dans la galaxie.Même si la proportion de OH par rapport à l'hydrogène demeure de 1 à 10 000, il semble que tout l'oxygène au voisinage des régions OH soit lié sous forme d'hydroxyle amoncelé en nuages.La distribution de l'hydroxyle dans l'espace diffère de celle de l'hydrogène.Les astrophysiciens cherchent à déterminer plus à fond les différences de répartition entre l'hydrogène et l'oxygène interstellaire.En effet, l'oxygène étant le produit des réactions de fusion thermonucléaire qui se déroulent dans les étoiles très chaudes, il apparaît possible de déceler des indices importants quant aux endroits où la galaxie procrée ses nouveaux citoyens.Les «régions OH» ont aussi des fréquentations très sélectes; elles s'associent de façon notable aux «régions H II» dont nous avons parlé plus haut.L'émission OH présente des caractéristiques étonnantes.D'abord, son intensité peut varier au cours d'une période de quelques mois.Ensuite, les émissions provenant des sources OH sont beaucoup plus intenses que l'abondance naturelle du radical OH le laisserait croire.De récents procédés interférométriques ont permis d'établir que l'énergie est émise à partir de «nuages» ayant seulement 900 millions de kilomètres de diamètre (dimension bien inférieure au système solaire).Cette situation confère aux sources OH une brillance (luminosité par unité de surface) extrêmement élevée.En fait, si leur rayonnement obéit aux lois conventionnelles du «corps noir», leur température serait de l'ordre de 1 trillion (1012 ) de degrés Kelvin! Située dans ia région d'Orion, riche en nébulosités obscures et diffuses, ia nébuleuse «Tête de Cheval» constitue Tun des objets les plus saisissants dans le ciel.Cet immense nimbus cosmique est le résultat de l'amoncellement de nuages de poussières interstellaires aperçues en projection sur le fond brillant d'étoiles et de nébuleuses diffuses lointaines.Ce nuage se trouve à 300 années-lumière de notre soleil.Lasers cosmiques O Une telle température ne peut pas être de nature thermique; elle indique que les «régions OH» ne sont pas en équilibre thermodynamique.Les «régions OH» fonctionneraient sous l'action d'émissions stimulées au même type que celles produites dans les masers ou les lasers.Dans un maser, le signal micro-onde provenant d'une transition moléculaire est amplifié de façon sélective et son intensité se trouve catapultée bien au-delà des valeurs prévues pour une source thermique.Pour qu'un maser fonctionne continuellement, il faut un mécanisme de pompage; le rôle de ce dernier est de porter les molécules à un niveau d'énergie plus élevé à partir duquel elles retombent en trombe vers leur niveau fondamental en déversant leur flot de radiation.Des étoiles ayant une très forte émission en ultraviolet ou en infrarouge, de même que des ondes de choc dues à des proto-étoiles en contraction pourraient actionner cet indispensable mécanisme de pompage. Coups de soleil O C'est sous la direction du professeur C.H.Townes (Prix Nobel de physique en 1964) qu’une équipe de l'Université de Californie, décelait à la fin de 1968, la présence de l'ammoniac interstellaire dans la direction du centre galactique.L'ammoniac émetteur se situe sans doute dans un nuage de poussières relativement dense ayant un diamètre apparent de 3 minutes d'arc et l'on a observé une forte absorption due à l'action du radical OH.Il est possible qu'au moins 1% de l'azote interstellaire disponible dans cette région soit sous forme de molécules de NH3.Précisons que l'hydrogène demeure un million de fois plus abondant que l'ammoniac.La formation de ce dernier serait attribuable au phénomène d'adsorp-tion des atomes d'azote et d'hydrogène à la surface des grains de poussières interstellaires d'où se dégageraient, par la suite, les molécules NH3.L'ammoniac est sujet aux coups de soleil: ses molécules s'effritent sous les rayons ultraviolets.Sa vie moyenne est d’environ 100 ans, période extrêmement courte à l'échelle cosmique.Toutefois, à l'ombre d'une nébuleuse, une survie plus considérable est assurée.Mars 69 fut marqué par la découverte du formaldéhyde (H2CO) dans l'espace interstellaire, par une équipe de l'Observatoire national de radioastronomie à Green Bank en Virginie occidentale.Suivant la règle, la raie d'absorption (6,21 cm) de la première molécule interstellaire polyatomique est associée aux «régions OH».De vastes zones de notre galaxie se trouvent ainsi remplies de nuages de formaldéhyde possédant des densités comparables à celles des «régions OH».Un château de cartes dans un ouragan O Les molécules organiques polyatomiques ont la particularité de combiner au moins deux atomes qui ne sont pas de l'hydrogène.Certes, la présence de molécules complexes au sein des gigantesques masses d'hydrogène et d'hélium concentrées dans les étoiles ou répandues dans les nuages interstellaires, peut sembler dérisoire à première vue.Mais leur découverte en nombre beaucoup plus grand que prévu produisit l'effet d'une bombe.Du coup, le concept classique voulant qu'il valait mieux tenter d'édifier un château de cartes dans un ouragan que d'assembler des molécules complexes dans l'espace interstellaire, fut balayé impitoyablement.Le tableau de la génération des matériaux de l'univers s'en trouve modifié.Au sein des étoiles, la nucléosynthèse des atomes se poursuit dans le noyau central soumis à des températures s'échelonnant entre dix millions et plusieurs milliards de degrés Kelvin.Cet échafaudage des structures élémentaires de la matière semble maintenant se poursuivre de façon complémentaire dans des espèces «d'oasis galactiques» où des molécules de plus en plus complexes s'érigent à l'abri du bombardement des radiations cosmiques.Il faut désormais admettre que les processus chimiques opèrent plus généreusement dans l'espace interstellaire qu'on ne l'avait d'abord cru.Il apparaît maintenant concevable que des molécules nécessaires à la formation de la vie, comme les acides aminés, existent dans l'espace sidéral.La vie pourrait jaillir dans les gaz à partir desquels une planète se forme.Ailleurs dans la galaxie, les probabilités d'éclosion de formes organiques similaires à celles qui nous sont familières augmentent d'autant.Aujourd’hui, bien sûr, tout ceci reste pure spéculation.Cependant, quelques mois ou quelques années pourraient apporter les premières observations de la «vie» hors du système solaire.Ce serait le couronnement de ce que nous avons appelé plus tôt l'avalanche des molécules interstellaires.Pour l'univers, la complexité de plus en plus grande des molécules ne constitue qu'une phase dans le processus qui part de l'atome d'hydrogène pour aboutir à la vie «intelligente», à condition qu'on lui laisse beaucoup de temps.¦ Cerfe photographie ne montre qu'une partie de ia nébuleuse fluorescente NGC 2337 dans la constellation de Monoceros.Les filaments brillants manifestent la présence des gaz interstellaires devenus brillants par réfection ou fluorescence, sous l'excitation des radiations d'étoiles chaudes environnantes.En projection, apparaissent de petits nuages obscurs appelés «globules», peut-être au premier stade de leur contraction qui aboutira à la formation d'étoiles dans plusieurs millions d'années.POUR EN SAVOIR PLUS LONG BARRETT, A.H., Radio Signa! from Hydroxy! Radicals, Scientific American, décembre 1968, pp.36^4.DAUVILLIER, A., La physique cosmique, Flammarion, Paris, 1957.DICKINSON, D.F., LITVAK, M.M., ZUCKERMAN, B.M., Interstellar Masers, Sky and Telescope, Janvier 1970, pp.4-7.GAUZIT, J., La vie et la mort des étoiles, P.U.F., Paris, 1963.LITVAK, M.M., Hydroxy! and Water Masers in Protostars, Science, 29 août, 1969.ROY, J.R., Voyage aux confins de notre galaxie, Le Jeune Scientifique, avril 1967, pp.156-161.SCHATZMAN, E., Structure de l'univers.Hachette, Paris, 1968, 253 p.SNYDER, L.E., BUHL, D., Molecules in the Interstellar Medium, I.Sky and Telescope, novembre 1970, p.267; II’ Sky and Telescope, décembre 1970, p.345.SKY AND TELESCOPE, Detection of Ammonia in Interstellar Space, Mars 69, p.150.SKY AND TELESCOPE, Interstellar Water and Formaldehyde, Mai 1969, pp.271 et 286.L’auteur est étudiant au doctorat au Département d’astronomie de l'Université Western, en Ontario. la margarine par Antoine Gattereau otit ••• mats Iliiililiiliiji ¦ ^ Certes, le remplacement du beurre par la margarine peut contribuer à prévenir les maladies cardiovasculaires.U ne faudrait pas cependant croire qu'une telle substitution y apporte un remède universel sans tenir compte de la complexité de ces maux dont le régime alimentaire ne constitue qu'un facteur.De plus, la composition des margarines varie sensiblement et, bien souvent, certaines d'entre elles ne diffèrent que très peu du beurre et n'offrent pas d'autre avantage que leur bas prix.L'augmentation notable de la consomma tion des margarines durant la dernière décade pour des raisons économiques d'une part, et en réponse aux prescriptions médicales d'autre part, justifie une réévaluation de la place de la margarine dans l'alimentation humaine par opposition à celle du beurre, en vue de la prévention de l'artériosclérose.La composition des différentes sortes de margarines offertes aux consommateurs reste peu connue.En général, on ignore aussi leur teneur en acides gras polyinsaturés et leurs valeurs comparatives.Il est cependant incontestable que les margarines varient, tant dans leur composition que dans leurs propriétés, en fonction de l'utilisation d'une ou de plusieurs sortes d'huile végétale et selon le procédé de fabrication employé.L'hydrogène et le goût O La plupart des margarines présentent la composition suivante: • graisses: 80% • lait écrémé en poudre • eau • un colorant (facultatif) • suppléments de vitamines A et D (facultatifs) Il s'agit essentiellement d'huiles végétales soumises à une hydrogénation plus ou moins poussée.Le but primordial de cette opération est d'améliorer les qualités organoleptiques (la saveur) des huiles naturelles et de produire ainsi une matière comparable au beurre.En effet, l'hydrogénation transforme une huile liquide en une matière grasse plastique à la température ambiante; elle améliore le goût du produit et le rend plus résistant à la dégradation oxydante.L'hydrogénation industrielle effectue l'addition d'atomes d'hydrogène à la molécule d'acides gras insaturés, en présence de chaleur et d'un catalyseur, ordinairement le nickel.Plusieurs doubles liaisons se trouvent ainsi réduites, ce qui explique pourquoi le point de fusion des margarines est plus élevé que celui de l'huile originale.Par contre, l'hydrogénation des huiles affecte leur valeur nutritive en transformant des acides gras polyinsaturés en acides monoinsaturés ou saturés.De plus, ce même processus donne lieu à quelques isomères positionnels et conjugués d'acides gras et convertit partiellement les isomères (agencements différents des atomes dans une molécule) «cis» naturels en acides gras insaturés «trans»; l'utilisation physiologique de ces composés diffère de celle des acides gras naturels.Le degré de saturation (représenté par l'indice d'iode), le rapport P/S (acides gras polyinsaturés/acides gras saturés) et enfin le nombre d'isomères «trans» des margarines dépendent de l'huile végétale originale ainsi que du degré d'hydrogénation intervenant au cours de la fabrication industrielle.La fabrication industrielle O II existe plusieurs méthodes d'hydrogénation des huiles végétales dans le processus de préparation industrielle des margarines.Le procédé le plus courant, parce que le moins coûteux, consiste en une hydrogénation partielle de l'huile originale in toto.Cette méthode entraîne une modification considérable des propriétés nutritives de l'huile.La plupart des margarines vendues au Canada se classent dans cette catégorie.Un autre procédé consiste à mélanger 10 à 25% d'huile complètement hydrogénée et 90 à 75% d'huile non hydrogénée.Pour le produit ainsi obtenu, le point de fusion est très élevé mais la saveur, médiocre.Afin d'améliorer la qualité de telles margarines, on peut provoquer par la suite, des réactions d'estérification (résultat de l'action d'un acide sur un alcool avec élimination de l'eau) entre le composé hydrogéné et l'huile initiale.Ce procédé améliore le goût mais ne modifie pas la composition en acides gras.Enfin, la méthode qui s'avère incontestablement la meilleure, tant au point de vue nutritif que gustatif, consiste à mélanger 40-60% de l'huile originale avec 60-40% d'une fraction de cette même huile partiellement hydrogénée.C'est d'ailleurs le procédé recommandé par le «Food and Nutrition Board of the National Academy of Sciences».Aux États-Unis, la plupart des margarines végétales sont préparées de cette façon. ¦ 1 'jîIiü'ïiSH^è] .m, ;;iiiiiain' L»,î?.:»7* i ii ¦ frVMimiui;;; l'in ¦ ¦ • • , ¦; I Les margarines canadiennes O Au Canada, selon les renseignements disponibles, il n'existerait à notre connaissance que deux types de margarine préparés selon ces recommandations («Fleishmann» et «Monarch»).Tous les acides gras polyinsatures de la fraction hydrogénée sont réduits en acides gras monoinsaturés.On ne trouve pas d'isomères anormaux dans les margarines et les «shortenings» préparés selon le procédé en vigueur aux États-Unis; notons cependant la présence d'isomères positionnels et de quelques isomères «trans» de l'acide oléique qui d'ailleurs, se métabolisent très facilement.La proportion des acides gras polyinsa-turés est nettement supérieure dans les produits fabriqués selon cette dernière méthode.Le rapport P/S (acides gras po-lyinsaturés/acides gras saturés) de la margarine d'huile de maïs préparée selon ces recommandations se situe à 1,7 comparé à 0,8 pour les margarines préparées selon d'autres procédés.L'indice d'iode (inversement proportionnel au degré de saturation) de la margarine «Fleischmann», par exemple, est de 90 à 95 comparé à 72-85 pour d'autres margarines ordinaires, de 30-40 pour le beurre et 125 pour l'huile de maïs naturelle.En plus du degré de saturation, la teneur en acides gras «trans» varie beaucoup selon les divers types de margarines et dépend également du degré d'hydrogénation.Alors que les margarines ordinaires résultant d'une hydrogénation partielle de l'huile in toto peuvent contenir jusqu'à 42% d'acides gras «trans», une quantité minime de ces isomères non naturels peut être décelée dans la margarine fabriquée selon les recommandations mentionnées ci-haut.Ces isomères non naturels n'entrent pas en ligne de compte dans le calcul du rapport P/S étant donné qu'ils semblent avoir perdu quelques-unes des propriétés biologiques de l'acide linoléique «cis 9, 12» qui constitue un excellent point de référence.Pas une panacée O A l'heure actuelle, on admet que la réduction dans l'alimentation des produits riches en graisse animale (saturés) constitue l'une des mesures valables visant à la réduction des lipides sanguins.Pour cette raison et aussi à cause d'une certaine incidence économique, la consommation de margarine augmente constamment aux dépens de celle du beurre.Est-on vraiment justifié de substituer la margarine au beurre dans le cadre des mesures préventives et/ou curatives de l'hypercholestérolémie?A la lumière des connaissances actuelles, il est logique de conclure que les margarines riches en acide linoléique peuvent remplacer le beurre de façon avantageuse, tandis que les margarines conventionnelles, beaucoup plus saturées que les huiles originales, n'offrent que peu d'avantage quand on les compare au beurre.Cependant, la seule substitution du beurre par la margarine ne peut influencer de façon notable les problèmes complexes de l'artériosclérose.Il est évident que sur le plan nutritionnel seulement, d'autres mesures tout aussi importantes contribueront à obtenir le rapport P/S généralement recommandé.Ainsi, la réduction des graisses animales (produits laitiers, oeufs, lard, viandes grasses, etc.) et leur substitution par d'autres produits pauvres en graisses (poulet, poisson, viande grillée, etc.) constitue indubitablement la base obligatoire de toute approche diététique de la question.En outre, l'apport total en graisses du régime alimentaire ne devrait pas dépasser 40% des calories et la quantité de calories ingérées, ajustée de façon à maintenir un poids idéal.Le régime alimentaire ne constitue qu'un des facteurs multiples dans la pathogénèse des maladies cardiovasculaires.La sélection des graisses alimentaires, la réduction des lipides d'origine animale et leur substitution par des huiles végétales ou leurs dérivés ne représentent pas une panacée susceptible de résoudre le problème complexe de l'artériosclérose.Cependant, un régime alimentaire modifié de façon rationnelle joue un rôle important et incontestable dans le cadre général de la prévention des maladies cardiovasculaires.¦ ^‘****!;$«¦ juiâiiî POUR EN SAVOIR PLUS LONG COUNCIL OF FOODS & NUTRITION, The Regulation of Dietary Fat, J.Amer.Med.A., 181: 411, 1962.BEVERIDGE, J.M.R.et CONNELL, W.F., The Effect of Commercial Margarines on Plasma Cholesterol Levels in Man, Amer, J.Clin.Nutr., 10: 391, 1962.MABROUK, A.F.et BROWN, J.B., The Trans Fatty Acids of Margarines and Shortenings, J.A-mer.Oil Chemists' Soc., 33: 98, 1956.SPRITZ, N.et MISHKEL, M.A., Effects of Dietary Fats on Plasma Lipids and Lipoproteins: an Hypothesis for the Lipid-lowering Effect of Unsaturated Fatty Acids, J.Clin.Invest., 48: 78, 1969.McOSKER, D.W., MATTSON, F.H.,SWERINGEN, H.B., KLINGMAN, A.M., The Influence of Partially Hydrogenated Dietary Fats on Serum Cholesterol Levels, J.Amer.Med.Ass., 180:380,1962.L'auteur est directeur du laboratoire de nutrition à l'Institut de recherches cliniques de Montréal, professeur adjoint à l'Université de Montréal et membre de la Section d'endocrinologie à l'Hôtel-Dieu de Montréal.1IÉÉ: 14 vers une tragédie planétaire ((Notre planète est menacée de stérilité.» — «L'humanité creuse sa tombe.» — «La société de consommation doit être acculée au pied du mur.» Ces phrases alarmistes n'ont pas été prononcées par quelque prédicateur emporté par sa fougue ou par un illuminé prédisant la fin du monde; ces propos proviennent de plusieurs écologistes éminents qui constatent que l'humanité court à sa perte parce qu'elle ne respecte pas les règles qui régissent l'équilibre de la vie sur terre.Prenant la parole avec d'autres écologistes éminents lors d'un colloque sur la pollution au CEGEP Ahuntsic en novembre dernier, M.Jean Dorst a invité ses auditeurs à voir ia situation à travers les lois écologiques.et à juger par eux-mêmes.C'est ce tableau angoissant que QUÉBEC SCIENCE vous présente maintenant, à ia suite de M.Dorst, directeur de ia Commission de sauvegarde de l'Union internationale pour ia conservation de ia nature et M.André Marsan du Centre de recherches écologiques de Montréal.Au rythme actuel, les besoins en énergie des pays industrialisés doublent à tous les dix ou quinze ans.Les experts estiment que l'exploitation de toutes les réserves de pétrole et de gaz naturel connues sera insuffisante pour répondre aux besoins économiques de 1985 même si les pays industrialisés drainent vers eux toutes les ressources pétrolières du monde.De même, le Québec utilise déjà la presque totalité de ses ressources hydroélectriques: le bassin de la Baie James est le dernier qui n'ait pas encore été harnaché.Pourtant, dans quinze ans, nos besoins auront doublé.A ce rythme, toutes les ressources minières et pétrolières s'épuiseront tôt ou tard, d'autant plus que l'industrie humaine, jusqu'à présent, a été fondamentalement différente de l'évolution naturelle.Dans la nature, en effet, tous les processus sont cycliques: par exemple, les matières organiques du sol font germer les plantes qui, après leur mort, se décomposent pour reformer les déchets organiques du départ.De même, l'eau de pluie, par divers chemins, retourne à la mer.De là, elle s'évapore jusqu'à ce qu'elle retombe en pluie.Rien ne se perd.Les produits naturels se trouvent toujours réutilisés.par Gilles Provost Fuite en avant O Par contre, l'industrie humaine cherche à produire des biens de consommation pour réaliser un profit ou pour atteindre des objectifs précis.Une fois l'objectif atteint, tout est fini, plus personne ne se préoccupe des objets fabriqués.On les détruit lorsqu'ils deviennent hors d'usage, sans se soucier aucunement de fermer le cycle, de regénérer les éléments de départ.A ce jeu, les matières premières ne peuvent que s'épuiser à plus ou moins long terme.Bien plus, comme le produit national brut (PNB) des pays (valeur des résultats du travail) augmente de 4 pour cent à 5 pour cent par an, la consommation et le gaspillage s'amplifient à mesure que le temps passe.Jusqu'à maintenant, l'attitude de l'homme devant ce phénomène a été une espèce de «fuite en avant»: quand les ressources d'un pays se révèlent insuffisantes, on utilise celles des autres pays; quand il ne reste plus de charbon, on passe au pétrole.Quand le pétrole ou l'énergie hydro-électrique manquent, on se tourne vers l'énergie nucléaire.Quand il ne reste plus de matériaux naturels, on en crée des synthétiques.Etc.Inévitablement, on aboutira à l'impasse.Dans l'immédiat, tout le monde semble satisfait.Les compagnies de pétrole réussissent même à obtenir des diminutions d'impôts sous prétexte que leurs gisements s'appauvrissent à mesure qu'ils sont exploités.L'État met ainsi sur un pied d'égalité une machine qui s'use et se déprécie et des ressources naturelles non renouvelables qui s'épuisent.La devise semble être de laisser nos héritiers se débrouiller avec les problèmes insolubles que nous leur aurons légués.Empoisonnement planétaire O L'insouciance de l'homme devant le recyclage de ses biens de consommation désuets crée un autre problème: la pollution.Peu à peu notre habitat se trouve envahi par nos déchets.Jusqu'à maintenant, c'est ce symptôme qui a le plus attiré l'attention du public et qui permet aussi aux écologistes, spécialistes des relations de l'homme avec son milieu, de faire entendre avec plus de force leurs conclusions troublantes.Déjà, plusieurs rivières du Québec atteignent un degré de pollution tel que les poissons ne peuvent y vivre.Les océans eux-mêmes sont gravement atteints: selon le professeur Piccard, spécialiste des fonds marins, le nombre des organismes vivants dans la mer a diminué de moitié depuis 25 ans.Le principal responsable serait le pétrole déversé dans la mer: il empêche la réoxygénation de l'eau.Le plancton dépérit de même que tous les animaux auxquels il servait d'aliments, directement ou non.On estime à trois millions de tonnes par année, la quantité de pétrole répandue dans les océans.Le tiers vient des pétroliers.Le reste provient des vapeurs qui émanent des automobiles et sont emportées vers les océans.Mais le plus important élément de pollution demeure les produits synthétiques: la nature n'est absolument pas équipée pour les réassimiler.Les bouteilles en plastique, par exemple, ou les cannettes en aluminium ne se dégradent à peu près pas, contrairement à tous les objets en bois ou en papier.Elles resteront pendant des siècles là où elles auront été jetées.Un morceau de plastique «bien propre» représente une menace beaucoup plus grande pour l'environnement qu'un fruit qui se décompose et qui paraît «sale».Beaucoup de produits humains sont aussi toxiques.Nous ne parlons pas ici des armes préparées pour une guerre chimique ou bactériologique, mais plutôt des déchets radioactifs, du DDT, des métaux, etc.Ces substances s'accumulent dans les chaînes alimentaires, réagissent avec des éléments organiques courants pour former des corps nouveaux, parfois hautement toxiques, et attaquent divers organismes biologiques.Le pire est qu'ils ne se dégradent pas: une fois dans le milieu, ils y restent longtemps. 15 Du Sahara au Parc Lafontaine O Avant la période contemporaine, la nature parvenait assez bien à assimiler les déchets humains.Les interventions de l'homme à l'intérieur des cycles naturels étaient relativement minimes.Pourtant certains hommes de science estiment que l'exploitation exagérée du Sahara, il y a de 2 000 à 4 000 ans, a fortement contribué à en faire le désert que nous connaissons.L'homme en effet, tient rarement compte de la nature dans son exploitation: de grandes étendues de terrain sont maintenant improductives et gravement érodées pour avoir été défrichées et exploitées outre mesure.De nos jours, la crise a atteint un autre niveau: l'homme transforme son milieu pour le rendre plus productif.Il le simplifie de façon à amplifier exclusivement les phénomènes utiles à court terme.C'est ainsi, par exemple, que des parcs comme le Parc Lafontaine à Montréal ou même le Mont Royal n'ont plus grand chose de commun avec la nature sauvage.Quant aux villes elles-mêmes, c'est tellement évident qu'il ne vaut pas la peine d'en parler.Peu à peu, l'homme détruit les milieux qu'il juge improductifs: on comble les marécages pour permettre de construire ou, simplement, pour supprimer les moustiques.On défriche les forêts pour les cultiver.Les villes dépendent de la campagne O Or, une des lois fondamentales de l'écologie enseigne que plus un système vital est simple, plus il est fragile et vulnérable.Sa complexité permet à la nature de se renouveler, de se recycler sans fin, de réassimiler tous les déchets produits et d'assurer la survivance des différentes espèces, chacune à leur niveau.Les villes humaines dépendent de la campagne bien plus qu'on ne l'imagine: trop simples, elles ne peuvent ni absorber leurs déchets polluants, ni nourrir leurs citoyens.Les cités actuelles ne survivent que grâce à la campagne autour.La pollution constitue justement un indice que nous dépassons les limites et détruisons les mécanismes qui assurent notre survie.L'homme oublie souvent que la vie forme une pyramide: à la base, il y a la grande quantité de produits organiques non vivants.Ces derniers assurent la survie des bactéries, des virus et d'une multitude d'organismes élémentaires qui, à leur tour, permettent la vie végétale.De leur côté, les plantes contribuent à la subsistance des petits animaux qui, eux-mêmes, servent d'aliment aux plus gros.L'homme constitue un élément de cette pyramide.En appauvrissant les étages situés sous lui, il compromet sa propre survivance.Ainsi, dans la mer, la disparition du plancton microscopique menace les baleines et tous les poissons.Dr Morris Katz, directeur du Environmental Studies, York University, Toronto.* Trop d'hommes O Signaler la croissance de plus en plus rapide de la population humaine est devenu un lieu commun.Alors qu'en deux millions d'années (jusque vers 1650), elle n'avait atteint que 500 millions d'individus, 150 ans plus tard, on pouvait dénombrer un milliard de personnes sur notre planète.Au début du siècle, la population mondiale se chiffrait à 1,6 milliard pour ensuite s'élever à 3,3 milliards, 65 ans plus tard.Dans 30 ans, elle aura encore doublé et frôlera les 7,5 milliards d'hommes.Cet explosion démographique apparaît catastrophique aux écologistes.Depuis des années, on enseigne que toute population animale ou végétale qui devient trop dense, ruine son milieu ou se détruit elle-même en devenant agressive.L'homme réalise tout à coup qu'il est aussi un animal: pourra-t-il contourner cette loi de la natu re?Le professeur Dorst signale que toute croissance exponentielle (de plus en plus rapide) dans un système fini aboutit inévitablement à un drame.On se trouve ici devant un phénomène similaire à la croissance de la consommation humaine: le produit national brut d'un pays ne peut continuer indéfiniment à croître de 4 ou 5 pour cent chaque année.Même si l'homme arrive à nourrir toute la population, ses problèmes ne seront pas réglés pour autant.La population asiatique représente plus de la moitié de la population mondiale actuelle.A long terme, les pays industrialisés deviendront minoritaires.De gré ou de force, ils devront accepter des immigrants avec tous les problèmes sociaux que cela implique.Déjà, les États-Unis et le Canada imposent des quotas sur l'immigration des asiatiques.Quand on pense aux difficultés que cause l'intégration des immigrants dans une ville comme Montréal ou New-York, l'avenir n'est pas rose.IV.B.Drowiey, P.Eng., Ministre ontarien de /'Environnement.Trop vite O Par contre, il serait utopique de vouloir conserver indéfiniment la situation actuelle comme si nous pouvions remettre à nos descendants le monde dans le même état que nous l'avons reçu.Il y a une évolution nécessaire.L'équilibre écologique est un équilibre dynamique qui se transforme sans cesse: on ne vit plus à l'époque des dinosaures! Les écologistes font pourtant remarquer que l'évolution passée du monde a été suffisamment lente pour que de nouveaux organismes puissent se développer avant que les anciens soient éliminés.Quand les dinosaures ont disparu, les mammifères étaient déjà solidement implantés.Or, aujourd'hui, des espèces s'éteignent.La vie s'appauvrit.Aucun organisme nouveau ne prend la relève et renouvelle les formes d'existence.L'homme est bien incapable d'en susciter.Il prend lui-même toute la place.Comment ne pas être inquiet devant les conséquences à long terme d'une telle occupation de l'espace vital?Le caractère insidieux de ce péril vient justement qu'il n'agit qu'à longue échéance.Les populations modernes, isolées dans leurs villes artificielles, ne savent même pas ce qui se passe.A plus forte raison, ne s'en inquiètent-elles pas.Quand les symptômes deviendront suffisamment visibles pour frapper l'imagination populaire, il sera trop tard, le point de non-retour sera dépassé.Pour le moment, la seule sonnette d'alarme qui semble produire des effets demeure la pollution croissante des cours d'eau et de l'atmosphère.Et pourtant, la pollution ne constitue qu'un indice d'un problème beaucoup plus grave.Audto-vl«uel, Collège Ahuntsic 16 Trop complexe O Devant ces problèmes, ^ les écologistes eux-mêmes se sentent impuissants et dépassés.Ils sont très conscients de l'insuffisance de leurs connaissances.Quelles sont les conséquences ï écologiques de l'érection d'un barrage < hydroélectrique?Personne ne le sait parce que personne ne l'a jamais étudié vraiment en profondeur.Quels dangers représente l'exploitation pétrolifère du Grand Nord?Très grands, sans doute, mais on manque de données précises à ce sujet.A plus forte raison ignore-t-on les moyens à prendre pour limiter les dégâts.Les études écologiques demandent beaucoup de temps à cause de la complexité des phénomènes étudiés et aussi parce que les conséquences ne sont visibles qu'après quelques années.Finalement, les homme se trouvent fort démunis pour faire face au péril qui les menace.Il est évidemment facile de proposer les grandes lignes des solutions à adopter: limiter la croissance démographique, se soucier du recyclage des déchets, réduire les foyers de pollution, porter attention aux conséquences écologiques des actions individuelles et collectives, limiter la croissance économique, assurer une meilleure information de la population.Très vite, l'écologiste sort de son domaine.Sa compétence lui permet d'établir un diagnostic mais pas de proposer un nouveau modèle social pour remplacer la société de consommation communiste ou capitaliste.On entre ici dans le domaine politique.Quoi qu'il en soit, toute personne réaliste ne peut que constater l'ampleur du défi à relever.Elle peut aussi proposer, à titre personnel, des pistes de recherche.C'est ce qu'ont été amenés à faire aussi bien M.Dorst que M.Marsan, lors de cette fameuse soirée sur l'écologie au collège Ahuntsic.œæçBaam Choisir son destin O Aux yeux de ces conférenciers, la première action à entreprendre est de faire l'éducation de la population par une utilisation intensive des moyens publicitaires.Tant que l'ensemble des citoyens ne ressentiront pas l'urgence de la situation, les efforts resteront vains.On peut toutefois se demander combien de temps il faudra pour amener une prise de conscience généralisée et des changements d'attitude concrets.L'action véritable doit pourtant se faire au niveau politique.A toutes fins pratiques, il s'agit, pour la population de notre planète, de choisir son destin, d'opter éventuellement pour une véritable révolution sociale et économique.Loin des manoeuvres de coulisse de la vie politique actuelle et des aspirations fort prosaïques des divers groupes d'intérêts.L'action véritable dépasse les compétences limitées d'un État particulier.La lutte à la pollution impose une coopération internationale qui commence à peine à germer.Sera-t-il possible de réaliser un consensus?Comment les pays riches pourront-ils convaincre les pays pauvres de limiter leur population?Comment les pays riches qui exploitent présentement à leur profit les richesses du globe pourront-elles convaincre les pays pauvres de renoncer à la société de consommation dont ils n'auront pas profité?M.Victor Goldbloom,Ministre d'État québécois de la qualité de l'environnement: Changer la société O En effet, si l'on suit jusqu'au bout le raisonnement des écologistes, c'est toute la société qu'il faudrait changer.Or, cesser de vouloir accroître de plus en plus vite le produit national brut, de produire toujours davantage, de consommer toujours plus, porte une atteinte grave aux valeurs occidentales reconnues.Concrètement, cela signifie une diminution des emplois ou, au moins, la création d'emplois nouveaux qui ne dépendent pas de la consommation.Les syndicats et l'industrie l'accepteront-ils?N'est-ce pas un peu comme l'industrie de guerre que les États-Unis et le Canada ne peuvent plus arrêter sans mettre des millions de travailleurs en chômage avec tout ce que cela implique.Ne sommes-nous pas condamnés à conserver le système le plus longtemps possible, à «fuir en avant» tant que tout ne s'effondrera pas?Plus concrètement, est-il possible de refuser, par exemple, un progrès technologique comme la construction d'avions de transport supersoniques parce que les dommages causés à l'environnement sont trop grands?Refusera-t-on d'exploiter le pétrole du Grand Nord parce que les dangers sont trop importants?Refusera-t-on d'acheter des produits non bio dégradables même s'ils nous sont utiles?C'est peu probable.Est-il possible de rejeter le modèle de «l'homo economicus» tout entier épris de rendement, d'efficacité, de profit, de gadgets, de produits nouveaux, de possessions nouvelles?Est-il réaliste de penser que, pour préserver son milieu de vie, l'homme va se tourner vers des valeurs plus humanistes, vers un type d'activité qui nécessitera moins de technique?Accédera-t-on à «une morale de l'environnement»?Après être passé d'une morale interpersonnelle à une morale surtout sociale, l'homme se sentira-t-il responsable de tout le milieu qui l'entoure?Au colloque «Éducation et problèmes d'environnement», les invités et participants se sont posés toutes ces questions.Pour leur part.Messieurs Dorst et Marsan se sont déclarés optimistes.mais en avouant peu après qu'ils ont bien peu de raisons de l'être.¦ Vortghte de la vie par Mohamed Ather Ali Comment la vie est-elle apparue sur terre?A quel stade particulier de l'évolution de notre planète ce phénomène s'est-il produit?Dans quelles conditions atmosphériques?L'auteur de cet article, le docteur Mohamed A ther AU, répond à toutes ces questions et à bien d'autres sur l'origine de la vie dans notre monde.L'origine de la vie constitue un problème scientifique fondamental, la vie devant être considérée comme un phénomène naturel dans l'histoire de l'univers.Selon des estimations scientifiques, l'univers existe depuis 5 milliards d'années, tandis que l'apparition de la vie ne remonte qu'à 2 milliards d'années environ.Le monde semble donc resté inanimé pendant 3 milliards d'années.Au cours de cette période, une longue et patiente évolution a entraîné la formation des éléments chimiques nécessaires à la vie par des mécanismes physico-chimiques.Le niveau le plus élevé d'organisation atteint au cours de cette évolution consiste en des molécules composées au plus d'une douzaine d'atomes.Les premières molécules organiques se sont formées à partir des atomes et molécules, produits de l'évolution chimique.L'évolution biologique n'est en somme qu'un rameau de l'évolution chimique.Infiniment complexe, la matière vivante comprend les molécules dans lesquelles on peut dénombrer des milliers d'atomes.La propriété du carbone de former des chaînes et des cycles constitue la base de la chimie organique.Cette complexité moléculaire mise à part, il n'existe aucun élément de la matière organique qui ne soit étudié en chimie inorganique.Le phénomène de la vie dépend donc de la complexité de l'organisation moléculaire qui mena à la formation des cellules, des tissus, des organes, des systèmes organiques qui représentent autant de niveaux d'organisation de plus en plus élevés.17 Les souris venant des déchets O Jusque vers 1828, alors que Wohler synthétisa l'urée, on pensait que la matière organique ne pouvait provenir que des êtres vivants.Il devint ensuite évident qu'elle pouvait être synthétisée à partir de matières inorganiques.Ce fait conduisit à de nombreuses spéculations quant à la possibilité de la génération spontanée de la vie: «Les germes venant des bouillons, les souris venant des déchets.» Ensuite Leeuwenhoeck, Redi et Pasteur prouvèrent que la vie n'est engendrée que par la vie.Cette découverte créa un remous chez les philosophes.Mais les chimistes ont persisté et Wohler poursuivit ses travaux en fonction de l'hypothèse du changement évolutif.Il fallait repenser à l'abiogenèse (théorie selon laquelle les êtres vivants naissent spontanément à partir de matière non vivante) mais en la situant au cours d'un stade physicochimique particulier du processus de refroidissement et de changement de la matière.Notre planète origine d'abord du soleil.Des changements géochimiques et atmosphériques se sont produits par la suite.Les progrès accomplis en physique et en chimie au cours des dernières décennies, surtout au cours des toutes dernières années, fournissent des bases scientifiques valables pour spéculer sur l'origine de la vie.Oparin aidé de scientifiques de plusieurs disciplines, accomplit un travail de pionnier dans ce domaine en tentant d'expérimenter les résultats de ses recherches.Le problème se résume ainsi: la synthèse de la matière organique peut-elle avoir été faite à partir de l'inorganique?La réponse tend maintenant vers l'affirmative.A partir des connaissances actuelles sur la composition de la terre et du soleil, on peut supposer les conditions physiques et chimiques existantes au moment de l'apparition de la matière vivante: une matière aussi complexe que les substances organi-quej, capable de se nourrir en transformant des substances provenant de l'extérieur, et apte à se reproduire.Comment la vie est-elle apparue?O La matière vivante est composée de protéines, elles-mêmes formées d'acides aminés.Comme il est maintenant établi que les acides nucléiques dirigent et régularisent la synthèse protéique, comment les acides aminés et nucléiques pouvaient-ils se former de façon naturelle par transformation physico-chimique?A quel stade particulier de l'évolution de notre planète ce phénomène s'est-il produit?Les conditions qui existaient alors différaient-elles de celles qui avaient précédé ou qui ont suivi?Quelles étaient les particularités de l'atmosphère qui entourait alors la terre?Selon l'opinion des scientifiques, les gaz qui enveloppaient la planète à ce moment, 18 consistaient en du méthane, de l'ammoniac, de la vapeur d'eau et de l'hydrogène (spéculations d'Oparin).Urey, qui a abordé le problème sous un autre angle, en est venu à la même conclusion: l'existence d'une atmosphère réductrice (susceptible d'enlever l'oxygène).La présence de l'oxygène à ce stade — on admet généralement aujourd'hui que l'oxygène de notre atmosphère est produit entièrement par photosynthèse — aurait oxydé la première substance organique et formé une couche d'ozone empêchant les rayons ultraviolets d'atteindre la terre, comme c'est maintenant le cas.Les rayons ultraviolets servent de catalyseurs dans les réactions inorganiques qui, d'après les études sur le sujet, constitueraient le premier stade de la production des molécules organiques.Selon Oparin et d'autres, dans l'atmosphère réductrice dont on a supposé l'existence, la matière organique se serait formée par des synthèses auxquelles les radiations ultraviolettes et cosmiques ainsi que les décharges électriques (éclairs) auraient apporté l'énergie nécessaire.Soupe organique O De récentes expériences viennent appuyer cette hypothèse.Avec les quantités croissantes de matière organique alors en formation, la mer constituait à cette époque une véritable soupe ou purée organique.A la lumière des nouvelles connaissances en génétique moléculaire, les premières substances organiques peuvent avoir été des acides nucléiques capables de se reproduire.Avec les acides aminés, également présents dans la mer, et peut-être aussi à l'aide des particules d'argile agissant comme catalyseurs, les protéines sont apparues.Les protéines forment dans l'eau des systèmes colloïdaux (en suspension) doués d'une grande activité physique et chimique.Même alors, à ce stade, il n'existait pas d'organismes, mais seulement de la matière organique.Cependant, un organisme primitif et minuscule a dû enfin s'individualiser, se distinguer du milieu et entrer en relation avec lui.Le phénomène s'est sans doute produit par coacervation: les particules colloïdales s'agrègent sans se fusionner (à cause de leurs charges électriques), chacune avec son enveloppe d'eau et l'agrégat possède une enveloppe d'eau commune à toutes les particules.Chaque coacervat devient ainsi une unité individualisée.Ainsi peut-on dire que des coacervats se formèrent dans la soupe organique sans se confondre avec elle, celle-ci constituant le milieu avec lequel ils établissent des échanges.Des molécules diverses pouvaient, suivant une certaine sélection, se lier aux coacervats ou s'en détacher.Il s'agissait donc alors d'organismes effectuant des échanges avec le milieu.Sélection naturelle O Les coacervats ne sont jamais parfaitement stables; ils ne peuvent donc être permanents et durent plus ou moins longtemps suivant leur degré de stabilité, les moins stables se désintégrant.Voici donc ce qui a dû se produire: certains se sont conservés en empruntant de la matière au milieu extérieur.En d'autres termes, certains sont devenus plus stables aux dépens des moins stables, par une sorte de sélection naturelle.Ce phénomène ne pouvait cependant se reproduire indéfiniment: très tôt, une pénurie de matériaux bruts possédant la complexité voulue se serait fait sentir.Dans cette situation, les coacervats qui pouvaient s'accommoder de matériaux bruts moins complexes, ont été avantagés et ont survécu plus longtemps.Ce processus devait profiter aux organismes capables de s'accommoder des matières inorganiques présentes en quantité illimitée, par exemple, le C02 qui se formait par fermentation anaérobie.Dans ces conditions, apparut une photosynthèse primitive.Les précurseurs de la chlorophyle (à partir desquels on peut maintenant synthétiser cette substance) ont sans doute servi de catalyseurs.Ce processus se serait ensuite amélioré, étape par étape, pour aboutir à la molécule de chlorophylle avec toute sa complexité.L'accroissement et l'efficacité progressifs du processus auraient enrichi l'atmosphère d'oxygène pour ensuite aboutir à la formation de la couche d'ozone qui intercepte les radiations ultraviolettes intenses.Ces étapes (et d'autres) auraient modifié les conditions dans lesquelles la première forme de vie apparut.En même temps, l'activité des organismes devint de plus en plus efficace selon un phénomène de survie qui s'explique par celui de la sélection naturelle.Les processus synthétiques auraient alors eu pour effet d'épuiser des matériaux bruts par endroits de telle façon que les organismes en voie d'acquérir la propriété spéciale de synthétiser les produits finals à partir de précurseurs, ont survécu comme tels.D'après Horowitz, ceci engendra des phénomènes métaboliques, une sorte de processus à rebours marqué par l'aptitude des organismes à s'accommoder de matière organique simple.Ainsi apparurent les organismes autotrophes, ceux qui pouvaient former des substances organiques par la synthèse de substances minérales: des plantes ayant la propriété de former des sucres à partir du C02 et de l'eau.Même les choses improbables peuvent se produire O Parmi les nombreux organismes autotrophes ainsi formés, quelques-uns s'orientèrent vers une vie hétérotrophe et formèrent le règne animal dépendant des plantes pour sa subsistance.Ainsi, une fois au moins, la vie est apparue de façon spontanée.Mais cet événement ne se reproduira probablement plus, les conditions ayant changé.Même si la vie se reconstituait maintenant sous cette forme primitive, elle serait vite consumée par les autres organismes développés (comme les bactéries).Se demander si la vie existe sur d'autres planètes appartient au domaine de la spéculation.Les expéditions américaines à la lune n'ont trouvé rien d'organique sur ce satellite de la terre.Poursuivant leurs expériences, Stanley et Miller envoyèrent des décharges électriques dans une enceinte fermée contenant les gaz supposément présents dans l'atmosphère primitive: méthane, ammoniac, hydrogène (associé à la vapeur d'eau).Les produits analysés contenaient plusieurs acides aminés y compris certains dont on reconnaît la présence dans la matière vivante, en plus d'autres acides organiques, de monoxyde de carbone, de gaz carbonique et d'azote.Cette expérience constituait la première démonstration de l'origine des acide^ aminés et des autres molécules organiques à partir de processus inorganiques.Elle a été répétée avec encore plus de succès en URSS.Au Texas, des expériences ont montré que les acides aminés pouvaient aussi se recombiner en peptides dans des conditions de température appropriées.On y retrouve même de l'adénine, une des bases azotées des acides nucléiques.Si l'on n'a pas encore retracé les pyrimidines, on le pourra sans doute dans le milieu de réaction, à l'aide de métaux et d'autres catalyseurs.On peut maintenant démontrer que, comme le prétendaient les spéculations anciennes sur l'origine spontanée de la vie,-les molécules organiques peuvent s'édifier en l'absence de toute forme de vie.Dans une période de temps illimitée, des millions d'années, même les choses les plus improbables en apparence peuvent se produire.» POUR EN SAVOIR PLUS LONG ABELSON, Philip H., Paleobiochemistry, Scientific American, July, 1956.ADLER, Irving, How Life Began, New American Library, New York, 1959.ASIMOV, Isaac, Chemicals of Life, New American Library, New York, 1962.BROWN, Harrison, The Age of the Solar System, Scientific American, April, 1957.GAMOW, G., The Creation of the Universe, Compass Books, Viking Press, New York, 1960.HOYLE, F., The Nature of the Universe, Harper & Brothers, New York, 1960.OPARIN, A.L., L'origine de la vie sur la terre, Masson & Cie, Paris, 1965.RUSH, J.H., The Dawn of Life, Hanover Books, Doubleday & Company Inc., Garden City, N.Y., 1957.WALD, G., The Origin of Life, Scientific American, August 1954; Innovation in Biology, Scientific American, September, 1958.L'auteur est professeur titulaire au département de biologie de l’Université de Montréal. par Claude Boucher Après vous avoir fait compter des bananes indiennes un mois durant, voici que notre chroniqueur, Claude Boucher (qui est d'abord et avant tout professeur de mathématiques à l'Université de Sherbrooke), vous propose non seulement de peser de la monnaie, mais encore de la fausse monnaie.N'ayez crainte! Vous n'aurez pas à en fabriquer pour trouver la réponse.Un peu d'astuce suffira.Problème no 9: FAUSSE MONNAIE On a en main neuf pièces de monnaie dont l'une, qui est fausse, pèse moins que les autres et l'on dispose d'une balance à deux plateaux.Comment pourrait-on, en ne faisant que deux pesées, arriver à déterminer laquelle de ces deux pièces est là fausse?Postez votre réponse à: «Échec et Maths» QUÉBEC SCIENCE Case postale 250 Sillery, Québec 6 Solution du problème no 8: LES BANANES INDIENNES La réponse est 28.Soit x, le nombre des voyageurs et y, le nombre de bananes dans chaque tas.On doit trouver des valeurs entières de x et de y qui satisfont l'équation 23x = 63y + 7 ou l'équation équivalente 23x — 63y = 7.Ce type d'équation porte le nom d'équation diophantine en l'honneur du mathématicien grec du IVe siècle, Diophante.Une méthode très simple poirr résoudre ces équations procède comme suit: 63 divisé par 23 donne un reste de 17 23 divisé par 17 donne un reste de 6 17 divisé par 6 donne un reste de 5 6 divisé par 5 donne un reste de 1.On peut donc écrire les égalités suivantes: DES SOURIS DIGNES DE BATMAN (nouveau problème) Peut-être avez-vous déjà été surpris de voir tomber une souris ou un rat d'une grande hauteur sans être affecté le moins du monde.Poussez une fourmi en bas d'une table ou précipitez-la du toit de la maison.Elle reprend son chemin comme si de rien n'était.Quelles raisons biologiques pourraient bien expliquer un tel comportement.Vous risquez de faire sensation si vous en trouvez.La question, en fait, c'est comment se fait-il que, dans leur univers, les souris peuvent sauter en bas de l'Empire State Building et.recommencer.Postez votre réponse dès aujourd'hui à: «A vous de jouer» QUÉBEC SCIENCE Case postale 250 Sillery, Québec 6 par Laurent Bilodeau et Jean-Marc Fleury 6x(1 ) + 5x(-1) = 1 (1) 17x(1) + 6x(-2) = 5 (2) 23x(1) + 17x
de

Ce document ne peut être affiché par le visualiseur. Vous devez le télécharger pour le voir.

Lien de téléchargement:

Document disponible pour consultation sur les postes informatiques sécurisés dans les édifices de BAnQ. À la Grande Bibliothèque, présentez-vous dans l'espace de la Bibliothèque nationale, au niveau 1.