Voir les informations

Détails du document

Informations détaillées

Conditions générales d'utilisation :
Protégé par droit d'auteur

Consulter cette déclaration

Titre :
Interface : la revue de l'ACFAS
Éditeur :
  • Montréal (Québec) :Association canadienne-française pour l'avancement des sciences,1984-2000
Contenu spécifique :
Janvier
Genre spécifique :
  • Revues
Fréquence :
six fois par année
Notice détaillée :
Titre porté avant ou après :
    Prédécesseur :
  • Bulletin de l'ACFAS
  • Successeur :
  • Découvrir (Montréal, Québec)
Lien :

Calendrier

Sélectionnez une date pour naviguer d'un numéro à l'autre.

Fichier (1)

Références

Interface : la revue de l'ACFAS, 1989-01, Collections de BAnQ.

RIS ou Zotero

Enregistrer
COURRIER DE 2e CLASSE ENREGISTREMENT N° 6489 3,50 $ NUMERO 1 LA REVUE DE LA RECHERCHE JANVIER-FEVRIER 1989 A-522 EX.2 MTERFACE Du social au biologique : genèse d’une collectivité humaine du XVIIe au XXe siècle La simulation de l’environnement atmosphérique : de Tchernobyl aux pluies acides Le facteur d’agrégation des plaquettes : un médiateur de vie et de mort tun» Le Sommet québécois de la technologie : un consensus à traduire en réalité V A propos du « quotient scientifique » des jeunes Québécois et Québécoises Et une nouvelle chronique : SCIENCECLIPS Face à face Josée Hamel Une passion nommée immunologie ¦ JBiÜl C: \ > POUR INFORMATION 1-800-363-2252 / (514) 737-3340 System 3UGX NOTRE SCIENCE AU SERVICE DE LA VOTRE Processeur Mémoire : Vitesse : Système T E C H N 6 I E S 3 INTERFACE / JANVIER-FÉVRIER 1989 SOMMAIRE ENTREVUE Face à face JOSÉE HAMEL 7 Propos recueillis par Yanick Villedieu ARTICLES DU SOCIAL AU BIOLOGIQUE : GENÈSE D’UNE COLLECTIVITÉ HUMAINE DU XVIIe AU XXe SIÈCLE 11 Gérard Bouchard LA SIMULATION DE L’ENVIRONNEMENT ATMOSPHÉRIQUE.De Tchernobyl aux pluies acides 17 Janus Pudykiewicz LE FACTEUR D’AGRÉGATION DES PLAQUETTES.Un médiateur de vie et de mort 22 Gérard Plante, Marek Rola-Pleszczynski et Pierre Sirois CHRONIQUES Éditorial LE SOMMET QUÉBÉCOIS DE LA TECHNOLOGIE : UN CONSENSUS À TRADUIRE EN RÉALITÉ 4 Pierre Lortie Modem À PROPOS DU « QUOTIENT SCIENTIFIQUE »» DES JEUNES QUÉBÉCOIS ET QUÉBÉCOISES 26 Marie Larochelle et Jacques Désautels Scienceclii , L’ORIENTATION DES ÉCUREUILS, LES BROUILLARDS ACIDES, LA MALADIE DE PARKINSON, L’OTITE CHEZ L’INUIT, UNE NOUVELLE PROTHÈSE DE LA MAIN 30 Transferts Gilles Drouin 37 Science-inter Sophie Malavoy 39 Subventions, bourses et prix Jocelyne Thibault 43 A suivre Jocelyne Thibault 46 Sources Jocelyne Thibault 47 Chercheurs recherchés Jocelyne Thibault 49 NTERFACE Revue bimestrielle sans but lucratif, INTERFACE est publiée à l'intention de la communauté scientifique par l’Association canadienne-française pour l'avancement des sciences (Acfas), avec l'aide du ministère de l’Enseignement supérieur et de la Science ainsi que du Fonds FCAR.Note : le genre masculin est utilisé dans INTERFACE au sens neutre et désigne aussi bien les femmes que les hommes.Directrice générale de l’Acfas (intérim) : Françoise Braun Rédactrice en chef : Sophie Malavoy Adjointe administrative : Jocelyne Thibault Direction artistique : Mathilde Hébert, Annie Pencrech Typographie : Composition Solidaire inc.Révision linguistique : Hélène Lame Publicité : Yves Ouellette.SOCREP, 2730, chemin de la Côte- Sainte-Catherine, Montréal (Québec) H3T 1B7, (514) 342-1411 Photo de la page couverture : René De Carufel Comité de rédaction : Thérèse Bouffard-Bouchard, Jean Hamann, Claude Hamelin, Laurent Lewis, Denise Pelletier, Normand Séguin et Jean-Pascal Souque.Les articles d'INTERFACE peuvent être reproduits sans autorisation à condition que l’origine en soit mentionnée.Pour toute demande de renseignements, s’adresser à l'Acfas, 2730, chemin de la Côte-Sainte-Catherine, Montréal (Québec) H3T 1B7, (514) 342-1411, FAX : (514) 342-9552.La revue INTERFACE est répertoriée dans Point de repère.Courrier de deuxième classe, enregistrement n° 6489, 8 janvier 1989 Dépôt légal : Bibliothèque nationale du Québec, premier trimestre 1989, ISSN : 0826-4864 4 EDITORIAL INTERFACE/JANVIER-FÉVRIER 1989 Pierre Lortie est président du conseil d’administration de Provigo.Il a été l’instigateur et le président du comité organisateur du Sommet québécois de la science et de la technologie tenu du 12 au 14 octobre 1988.Le Sommet québécois de la technologie : un consensus à traduire en réalité PAR PIERRE LORTIE Le Sommet québécois de la technologie avait pour objectif de susciter au sein de la société québécoise une meilleure appréciation des défis de nature technologique et compétitive auxquels elle fait face.Le Sommet devait également constituer un forum exceptionnel où des représentants des entreprises, des universités et des gouvernements dégageraient un certain nombre d’idées directrices et des priorités qui baliseraient l’action ultérieure de chacun des partenaires.Le Sommet a regroupé quelque 420 personnes.Malgré la diversité des expériences des participants, il s’est dégagé un remarquable consensus sur la nature de nos défis technologiques et les axes qui devraient être privilégiés au Québec.Les participants ont énoncé un parti pris en faveur de l’action, mais pas n’importe quel type d’action.Une action qui porterait, qui mobiliserait, qui s’amorcerait sans délai ; une action qui serait soutenue et amplifiée au cours des années.Le Sommet a également permis que s’articulent les principales lignes directrices des programmes d’action qui devraient permettre au Québec de réussir son développement technologique.L'INNOVATION TECHNOLOGIQUE DOIT CONSTITUER L'ÉLÉMENT CENTRAL DE NOS STRATÉGIES Le caractère inéluctable du défi technologique est maintenant reconnu.Le développement technologique ne constitue pas une étape de notre évolution, mais une caractéristique permanente.Non pas une option, mais une nécessité.Le développement technologique ne doit pas être conçu dans une perspective étroite, qui le limiterait à la seule exploitation d’entreprises de haute technologie.Il recouvre aussi, et surtout, l’incorporation des découvertes technologiques aux produits et aux procédés existants.L’innovation procède d’activités comme l’achat de nouveaux équipements de production ou l’adaptation de technologies récentes.En fait, notre objectif doit être d’augmenter systématiquement la technicité de l’ensemble de l’appareil productif québécois.Cet objectif suppose, et cela fut souligné à maintes occasions durant le Sommet, un effort concerté pour améliorer de façon significative la qualité de l’enseignement, notamment en sciences, dans les classes du secondaire et du post-secondaire.Il faut aussi favoriser l’innovation technologique et accélérer le processus de diffusion des innovations dans tous les secteurs de notre économie.Une autre conclusion qui s’est dégagée clairement des discussions, c’est que nous avons beaucoup à apprendre des autres.Il fut noté que le processus de transfert technologique est souvent beaucoup moins risqué que les activités de R-D proprement dites, et conséquemment, plus facilement accessible aux entreprises québécoises.LES CONDITIONS D'UN DÉVELOPPEMENT TECHNOLOGIQUE RÉUSSI Le Sommet a permis d’établir que, en vue d’accélérer le processus de développement technologique, trois éléments sont nécessaires : d’abord, une concentration de l’action dans certains secteurs où nous possédons de véritables forces distinctes ; puis, un meilleur équilibre entre le développement technologique et la recherche fondamentale ; enfin, un accroissement substantiel de nos ressources affectées à la R-D.Examinons de plus près chacun de ces éléments.Le Québec suit déjà un modèle de développement technologique qui repose sur ses forces distinctes et il doit continuer dans ce sens.On a identifié au Sommet des secteurs où se retrouvent ces atouts particuliers : médecine et pharmacologie, télécommunications, aérospatiale et quelques autres.La mise au point d’une stratégie adaptée, concentrée sur ces créneaux, serait une voie privilégiée de développement.Les exemples étrangers, notamment Scandinaves, permettent de penser que de telles stratégies de concentration sur des créneaux porteurs seraient compatibles avec des économies de marché.Ces stratégies ne doivent entraver aucune initiative.Cependant, elles doivent favoriser les secteurs qui ont les meilleures chances de réussir sur les marchés mondiaux.PRINCIPALES CARACTÉRISTIQUES DES PROJETS MOBILISATEURS - Les projets mobilisateurs sont axés sur la diffusion des technologies à travers l'appareil productif québécois plutôt que sur les activités de recherche proprement dites.- Les initiatives émanent des secteurs où se réalisent les innovations.Plusieurs entreprises de divers secteurs devront donc s'engager à introduire dans leurs activités des innovations majeures, freinées jusqu'ici par des contraintes institutionnelles ou financières.- La coordination est assurée par des groupes de travail composés de représentants de l'industrie, des universités et des ministères concernés.Leur mandat : favoriser un engagement de tous les intervenants potentiels; accélérer le processus de diffusion de l'innovation, notamment par des communications plus larges et mieux ciblées; coordonner les initiatives privées et publiques; faire des recommandations au premier ministre en vue d'éliminer les blocages institutionnels qui retardent l'innovation.- Les réalisations découlant d'un projet mobilisateur, couplées à l'élimination des blocages institutionnels, donneront des rendements sociaux élevés en termes d'accroissement de notre compétitivité, de développement d'une compétence de calibre mondial exportable par des entreprises du Québec, d'amélioration de la qualité de vie au Québec.- Les projets mobilisateurs doivent inclure des programmes de formation et de recyclage des ressources humaines, et recevoir l'adhésion des milieux concernés.- Ils doivent provoquer un rapprochement entreprise-université et entreprise-cégep.- Les projets mobilisateurs retenus ont une vie limitée de cinq ans et leur contribution sera évaluée après cette période. INTERFACE / JANVIER-FÉVRIER 1989 I Un développement technologique équilibré doit reposer à la fois sur l’exploitation efficace de technologies développées ailleurs et sur la production autochtone de résultats de recherche.En d’autres termes, le fait d’opposer recherche fondamentale, d’une part, et innovation et transferts technologiques, d’autre part, traduit une méconnaissance de facteurs essentiels au processus de développement d’une économie de haute technicité.Les deux dimensions sont complémentaires et nécessaires pour assurer que les efforts aboutissent à des résultats concrets et productifs.L’augmentation de nos dépenses en matière de R-D constitue une autre condition importante.On a proposé des objectifs lors du Sommet : il faudrait consacrer à la R-D vers 1992 entre 2 % et 3 % du PEB.A cette fin, on a recommandé de revoir les modalités de financement des universités du Québec, de façon à reconnaître, sinon privilégier, les universités qui sont activement engagées dans des activités de recherche de qualité reconnue et qui offrent des programmes d’études bien implantés aux deuxième et troisième cycles.La nécessité de renouveler le parc d’équipements des laboratoires de nos universités, instituts et centres de recherche publics pour que ne soit plus freinée la recherche de pointe, constitue une autre recommandation du Sommet.UNE IDÉE NOVATRICE : LES GRANDS PROJETS MOBILISATEURS Un développement technologique réussi reposera sur une meilleure concertation entre les trois grands partenaires du développement technologique : les entreprises, les universités et les gouvernements.Il est nécessaire de développer davantage de liens et de mécanismes d’échanges entre eux.D’ailleurs, c’est la seule façon de réduire les risques d’erreurs associés à une stratégie d'identification de créneaux porteurs.Par exemple, il faudrait tisser des relations plus étroites entre entreprises et universités.Les entreprises du Québec pourraient sous-traiter davantage de recherches auprès des universités.Dans le secteur des sciences naturelles et du génie, par exemple, 3,5 % de la R-D effectuée par les universités québécoises est financée par les entreprises.Même si cette proportion est à peu près équivalente à celle qui prévaut aux États-Unis, il n’en demeure pas moins qu’elle est presque le double en Ontario, soit 6,48 %.Le premier ministre du Québec a lui-même reconnu au Sommet que l’accroissement de la participation des entreprises au développement et au soutien de la recherche universitaire constituait une préoccupation de son gouvernement.C’est dans cet esprit qu’il faut envisager la recommandation d’entreprendre quatre ou cinq grands projets mobilisateurs.Plusieurs possibilités ont été énoncées.Le premier ministre, M.Robert Bourassa, a indiqué l’intention de son gouvernement d’appuyer concrètement et financièrement de telles initiatives.L’impact de tels projets porteurs se fera sentir au-delà des secteurs directement concernés.Ces projets constitueront des paradigmes, des modèles.Leur succès servira d’inspiration dans d’autres sec- teurs, pour d’autres développements.On a d’ailleurs identifié, au Sommet, les principales caractéristiques que devraient présenter ces grands projets (voir encadré).Il faut espérer que des Québécois dynamiques sauront profiter des conditions favorables qui existent présentement pour préciser les objectifs et mettre au point un plan d’action concret pour quelques grands projets.Est-il trop optimiste de penser que la réalisation de tels projets mobilisateurs pourrait commencer dans six mois ?¦ Grandir au Québec.Nous y croyions en 1911.Nous y croyons aujourd’hui.Nous sommes ici depuis 1911.Aujourd’hui, notre équipe compte quelque 2 500 employés.A Montréal.A Bromont.Ailleurs au Québec.Et nous serons là demain.Ensemble.Au nom du progrès.IBM est une manpic dé|M>sé*c d'international Business Machines ( lorpnratinn.IBM Canada Liée, compagnie affiliée, est un usager inscrit.oTlannee Pourquoi les étudiants formés à l’INRS ont-ils choisi l’Institut national de la recherche scientifique pour leurs études de maîtrise et de doctorat?Leur réponse*: ?Champs d’études et de recherches intéressants en énergie, santé, sciences de l’eau, télécommunications, urbanisation ?Programmes exclusifs et multidisciplinaires ?Réputation des professeurs-chercheurs de l’INRS ?Milieu de recherche dynamique et liaison avec les entreprises ?Bourses alléchantes, ressources physiques excellentes ?Facilité de trouver un emploi intéressant * Selon une enquête réalisée par l’INRS auprès de ses anciens étudiants et stagiaires.Les études de pointe à l'INRS ?Maîtrise et doctorat en énergie ?Maîtrise et doctorat en sciences de l’eau ?Maîtrise et doctorat en télécommunications ?Maîtrise en analyses et gestions urbaines ?Accueil pour étude en océanologie et en géoressources ?Stages et études postdoctorales Renseignements: (514) 468-7700 (418) 654-2524 (514) 765-7844 (514) 499-4000 (418) 654-2606 (418) 654-2606 L’INRS LE SCEAU DE QUALITÉ EN RECHERCHE ORIENTÉE Université du Québec Institut national de la recherche scientifique HUHBOH INTERFACE / JANVIER-FEVRIER 1989 FACE A FACE Josée Hamel Une passion nommée immunologie PROPOS RECUEILLIS PAR YANICK VILLEDIEU Josée Hamel a reçu l’automne dernier le premier Prix d’excellence de l’Académie des Grands Montréalais pour la meilleure thèse de doctorat de l’année 1987.Diplômée du Département de microbiologie et d’immunologie de l’Université de Montréal, elle fait actuellement un postdoctorat au Laboratoire de lutte contre la maladie du ministère fédéral de la Santé et du Bien-être social.Elle a à peine 30 ans, un doctorat tout frais en poche et une insatiable passion pour la recherche.Mais aussi, un goût marqué pour la découverte : elle a déjà déposé une demande de brevet aux États-Unis et au Canada pour les résultats de certains de ses travaux ! Immunologiste, elle manie les techniques de pointe des anticorps monoclonaux et des vaccins anti-idiotypiques.Mais son obsession porte un nom latin un brin rétro : Haemophilus influenzae.Et de type B, s’il-vous-plaît.« Pourquoi Haemophilus influenzae de type B ?» C’est bien ce que je demande à Josée Hamel, qui me reçoit dans un coin du laboratoire tout neuf où elle fait un postdoctorat, à Ottawa.« Et pourquoi pas Haemophilus influenzae de type B1 », me renvoie-t-elle, en m’expliquant que cette bactérie pose un problème de santé publique important : elle est en effet responsable de la plupart des méningites qui frappent les jeunes enfants (une incidence d’un cas pour 200 à 500 enfants à Montréal, mais d’un pour 50 dans certains groupes comme les Inuit).Elle cause peu de mortalité, c’est vrai, mais une fois sur trois, elle laisse d’importantes séquelles neurologiques chez les petits malades (surdité, cécité, retard mental).Aussi, ce dont rêve Josée Hamel, c’est de trouver un vaccin vraiment efficace contre ce microbe.Rien de moins.« J'ai eu le coup de foudre pour la recherche.Pour la recherche en soi, à l'état pur.» Au départ, pourtant, notre future PhD était loin de penser à trouver des applications à ses travaux quand elle a décidé de faire carrière en recherche.Elle terminait un baccalauréat en biologie médicale à l’Université du Québec à Trois-Rivières (où elle ne savait même pas que ses professeurs faisaient autre chose que de l’enseignement) quand elle alla faire un stage au Centre hospitalier universitaire de Sherbrooke.« D’un coup, raconte-t-elle, je suis “tombée en amour" avec l’immunologie.Et j’ai eu le coup de foudre pour la recherche.Pour la recherche en soi, à l’état pur.» Maîtrise, donc, en biologie cellulaire à Sherbrooke.Elle joue dans les lymphokines et les fibriblastes.Elle découvre une nouvelle activité des lymphokines, une propriété susceptible de jouer un rôle dans la fibrose.« Petit à petit, se rappelle Josée Hamel, je découvrais les joies des applications de la recherche.» INTERFACE/JANVIER-FÉVRIER 1989 Des joies dans lesquelles elle plonge à fond dès le début de son doctorat, qu’elle commence à l’Université de Montréal sous la direction de Serge Montplaisir et de Bernard Brodeur, son actuel patron au Laboratoire de la lutte contre la maladie, au ministère fédéral de la Santé et du Bien-être social.C’est à ce moment-là qu’à la suggestion de ses directeurs de thèse, elle part à la rencontre du fameux Haemophilus influenzae de type B.Nous sommes en 1984.Un vaccin vient tout juste d’être mis sur le marché.Mais un vaccin imparfait, qui ne protège pas les tout-petits contre l’infection, alors que c’est justement vers l’âge de six mois que la plupart des enfants contractent la maladie.Faut-il donc essayer d’améliorer le vaccin en question ?Ou tenter d’en mettre au point un nouveau ?Josée Hamel choisit la seconde voie.Haemophilus influenzae, raconte-t-elle en substance, est une bactérie Gram négatif.Sur sa membrane externe se trouvent, entre autres, des protéines dont certaines sont les antigènes auxquels le système immunitaire réagit ou devrait réagir.L’idée est donc d’identifier une protéine de surface, ou un morceau de protéine de surface, qui ait de bonnes propriétés antigéniques.Et, bien sûr, qui soit constante d’une souche à l’autre de la bactérie, si l’on veut que le vaccin protège contre toutes les souches du microbe qui se baladent ici et là dans la nature.Comment trouver cette protéine ?Tout simplement en allant.à la pêche.Depuis à peine une dizaine d’années (nous sommes toujours en 1984), les scientifiques disposent d’hameçons ultra-précis pour ce faire : les anticorps monoclonaux.Chaque hameçon est si précis qu’il permet d’attraper telle espèce de poisson et pas telle autre, une fois évidemment qu’on l’a façonné pour lui donner la forme et la taille de la gueule du poisson qu’on veut attraper.Le problème, cependant, c’est qu’on ne sait pas au départ quel poisson on veut pêcher.Qu’importe, on fait des hameçons contre tous les poissons qu’on puisse trouver.Puis on sélectionne quelques hameçons parmi ceux qui rapportent des prises intéressantes.C’est par ce jeu fastidieux que Josée Hamel entame ses recherches.Elle fabrique des anticorps monoclonaux contre les protéines de surface d’Haemophilus influenzae — et on parle de centaines de milliers d’anticorps différents, reconnaissant chacun un bout de protéine (un poisson) différent.Puis elle choisit les quelques anticorps monoclonaux qui répondent aux besoins de sa « Je ne voudrais pas seulement travailler pour faire un vaccin.Je veux aussi travailler sur la bactérie elle-même, comprendre pourquoi elle est virulente, pourquoi elle donne cette maladie appelée méningite.» recherche, les cultive, les sélectionne encore et les teste sur une banque de souches de la bactérie.A force de persévérance, « et parfois un peu par hasard » note l’immunologiste, on trouve l’anticorps monoclonal qui reconnaît la même protéine à la surface de toutes les souches ou de pratiquement toutes les souches du microbe.Cette « chance », Josée Hamel Ta très vite, dès le début de ses études de doctorat.C’est d’ailleurs pour ces premiers anticorps monoclonaux dirigés contre des protéines communes à la plupart des souches d’Haemophilus influenzae qu’elle déposera, quelque temps après, sa demande de brevet (sept autres anticorps monoclonaux humains ont été ajoutés, deux ans plus tard, à la soumission).Reste donc à étudier cette protéine qui mord si bien à l’hameçon, à la caractériser, à en comprendre la fonction.Très vite, on s’aperçoit que ladite protéine est la plus importante des protéines de surface de la bactérie : c’est elle qui forme les canaux trans-membranaires, c’est-à-dire les pores qui traversent la membrane INTERFACE / JANVIER-FÉVRIER 1989 du microbe — d’où le nom de « porine » qu’on lui donne.Vérification est alors faite avec une équipe de l’Université McGill qui vient justement d’isoler la porine : les anticorps monoclonaux fabriqués par Josée Hamel reconnaissent bel et bien la porine pure fournie par McGill.Nouvelle question : ces anticorps sont-ils assez puissants pour neutraliser la porine ?Réponse : non.« C’est décevant, souligne Josée Hamel, mais au fond pas très surprenant, puisque les anticorps monoclonaux sont en général incapables de mobiliser le système immunitaire.Par contre, nous nous sommes rendu compte que la porine peut déclencher une réponse immunitaire lorsqu’on l’injecte à un animal : il y a alors formation d’anticorps anti-porine — ce qui ne se produit pas quand on injecte la bactérie entière, car il y a tellement d’autres choses sur sa membrane que le système immunitaire ne voit pas la porine.» À terme, ces recherches pourraient déboucher sur un tout nouveau genre de vaccin, dit « anti-idiotypique », un concept que Josée Hamel explique avec un rare enthousiasme.L’idée, à première vue surprenante, c’est qu’une fois formé, un anticorps agit dans l’organisme un peu à la manière d’un antigène : le système peut former contre lui des anti-anticorps ! Ces anti-anticorps sont dits « anti-idiotypiques » parce qu’ils sont dirigés contre le point de l’anticorps qui réagit avec l’antigène et qu’on appelle un idiotype.Compliqué ?Pour mieux saisir le phénomène, supposons que l’antigène (ici, la porine qui se trouve sur Haemophilus influenzae) est une statue, et qu’elle est énorme.Les anticorps sont des moulages de certaines parties de cette statue : le nez, un bout d’oreille, un doigt, le talon ; ils en ont la forme en négatif, en creux.Les anticorps anti-idiotypiques, eux, sont des moulages des moulages : s’ils sont bien faits, ils ressemblent exactement au nez, au bout d’oreille, au doigt ou au talon de la statut du début ; ils en sont l’image interne.Si donc un anticorps anti-idiotypique ressemble à un morceau d’antigène, on peut croire que le système immunitaire pourrait le prendre pour un antigène — et, par conséquent, se mettre à fabriquer des anticorps dirigés contre lui.L’anticorps anti-idiotypique aurait alors agi comme.un vaccin, sans présenter les inconvénients ni les risques d’une vaccination conventionnelle avec le microbe entier.Séduisant.« Mais encore lointain », dit en riant Josée Hamel, comme si elle savourait le défi scientifique qu’elle veut relever au cours des années à venir — puisque, poursuit-elle, « je ne me vois pas faire autre chose que de la recherche ».En attendant, et à beaucoup plus court terme, elle s’est lancée en janvier 1988 dans un autre projet, faisant appel cette fois à de grosses équipes et à de gros budgets.En collaboration avec l’équipe du Dr James Coulton de McGill (l’équipe de la porine), avec les Laboratoires Connaught de Toronto et éventuellement avec un chercheur américain de Saint-Louis, au Missouri, le Laboratoire de lutte contre la maladie d’Ottawa entreprendra un travail sur la génétique d'Haemophilus influenzae.Coût : trois millions de dollars en trois ans.Objectif : cloner les gènes des protéines de la bactérie, notamment le gène de la porine.D s’agira ensuite d’identifier la partie du gène qui code pour la partie intéressante de la protéine, c’est-à-dire celle qui déclenche la réaction immunitaire.Une fois ce bout de gène caractérisé, croit-on, il sera possible de fabriquer un vaccin synthétique contre Haemophilus influenzae.Josée Hamel, pourtant, ne pense pas que recherche appliquée.Elle pense aussi recherche fondamentale.« D’ailleurs, dit-elle, je ne voudrais pas seulement travailler pour faire un vaccin.Je veux aussi travailler sur la bactérie elle-même, comprendre pourquoi elle est virulente, pourquoi elle donne cette maladie appelée méningite.» Et d’ajouter la jeune chercheuse après un temps : « Je crois, au fond, que je voudrais .tout faire.» Passionnée par la recherche, Josée Hamel.Fascinée par son travail.« Pendant que je faisais mon doctorat, raconte-t-elle, j’avais l’impression que tout ce que je faisais à côté de mes études, c'était du temps perdu.Je ne voyais qu "Haemophilus influenzae.Je ne lisais que sur ce sujet.Qrnnd j’ai soutenu ma thèse, j’ai eu la sensation de vivre un des plus beaux jours de ma vie.Et aussi, le sentiment d’avoir accompli quelque chose.» « Il faut rester disponible complètement pour son métier, comme le sont les hommes.Ce qu'on nous dit, plus ou moins directement, c'est qu'à notre âge, ce n'est pas le temps de faire des bébés.» Faire des études et de la recherche, pour elle, n’a jamais été difficile.« Je n’ai jamais eu de difficulté à obtenir des bourses ni, plus tard, des fonds et des facilités de recherche.Par chance, mon programme de travail, pour mon doctorat, n’a jamais été menacé par des restrictions budgétaires, comme c’est arrivé à certains étudiants.Et puis, surtout, j’ai eu de bons directeurs de thèse, aussi bien à la maîtrise qu ’au doctorat, qui me laissaient prendre mes initiatives, mener mon travail de façon autonome.» Et comme femme, comment se sent-elle dans l’univers des laboratoires ?Très bien, affirme-t-elle sans ambages.C’est à peine si elle laisse échapper une remarque qui n’a peut-être même pas la forme d’un regret : « Il faut bien sûr rester disponible complètement pour son métier, comme le sont les hommes.Ce qu ’on nous dit, plus ou moins directement, c'est qu'à notre âge, ce n’est pas le temps de faire des bébés, c’est le temps défaire de la recherche.Ou qu’en tout cas, la famille ne doit pas prendre trop de place dans notre vie.» Mais c’est à peine, je l’ai dit, si Josée Hamel insiste sur cette dernière remarque.Son métier la captive.La recherche la fascine.Et puis, même sa mère fait pression sur elle : « Ton vaccin, tu ne l’as pas encore trouvé ?» ¦ Bourses Fernand Concours de journalisme scientifique Les bourses Fernand-Seguin de l'Association canadienne-française pour l'avancement des sciences ont pour but de reconnaître les nouveaux talents qui émergent dans le domaine du journalisme scientifique non professionnel.Pour participer à ce concours, les personnes intéressées doivent présenter un article portant sur un thème scientifique ou technologique et dont le contenu est vulgarisé.Le thème choisi peut relever aussi bien des sciences humaines que des sciences physiques ou des sciences de la nature.Admissibilité • Est admissible à ce concours toute personne qui réside au Québec et qui n'a jamais occupé d'emploi à temps plein dans un organe de presse, ni déjà tiré la majeure partie de ses revenus d'une activité de rédaction scientifique ou de journalisme à la pige.• Ne sont pas admissibles: les lauréats et les lauréates des concours précédents.Modalités de participation Le dossier soumis doit comprendre: • une description de l'ensemble de la recherche: lectures, entrevues et démarches préparatoires à la rédaction; • un article inédit de 5 à 10 feuillets, dactylographié à double interligne sur du papier blanc (215 mm sur 280 mm); • le curriculum vitae.Quatre copies du dossier devront parvenir à l'Acfas au plus tard le 10 mars 1989.Aucun dossier, ou pièce de dossier, ne sera retourné aux candidats et candidates.Critères d'évaluation Parmi les critères d'évaluation, on retiendra: • la qualité du français écrit; • le degré de vulgarisation; • le sens critique et l'esprit de synthèse; • la qualité de la recherche, la diversité des entrevues et de la documentation; • la portée sociale du sujet traité.Le jury tiendra compte de la polyvalence de la personne qui soumet un article, c’est-à-dire de son aptitude à traiter un sujet débordant du cadre de sa formation scolaire ou professionnelle.p\noto ey\A\aOS Résultats • On attribue un maximum de trois bourses.• Les décisions du jury sont finales et sans appel.• L'Acfas annoncera le nom des récipiendaires à la fin d'avril 1989.Stage de formation Chacune des personnes gagnantes choisira, dans l'ordre de son classement, celui des organes de presse participants où elle désire effectuer un stage d'une durée de trois mois, aux dates de son choix.Pour cette période, une allocation de 4 000 S lui sera versée.Les organes de presse participants pourront recevoir, sur présentation des pièces justificatives, un remboursement des frais d'encadrement des stagiaires pouvant aller jusqu'à 2 500 $.Envoyer le dossier à: Acfas 2730, chemin de la Côte-Sainte-Catherine Montréal (Québec) H3T 1B7 Pour plus d'information, téléphoner au (514) 342-1411 Date de dépôt: 10 mars 1989 Ce concours est commandité par le ministère de l'Enseignement supérieur et de la Science du Québec. INTERFACE / JANVIER-FÉVRIER 1989 DU SOCIAL AU BIOLOGIQUE : GENËSE D'UNE COLLECTIVITÉ HUMAINE DU XVIIe AU XXe SIÈCLE PAR GÉRARD BOUCHARD Les francophones du Québec constituent une collectivité distincte des autres communautés nord-américaines.Distincte par sa culture, son économie et les comportements sociaux de ses membres, mais aussi distincte sur le plan génétique.Gérard Bouchard nous présente les éléments sociaux et biologiques qui ont façonné cette collectivité au cours des derniers siècles.^ ‘A J*-i Chicoutimi vers 1856 ARCHIVES NATIONALES DU QUÉBEC A CHICOUTIMI, FONDS J.-E.IEMAY Gérard Bouchard est directeur du Centre interuniversitaire de recherches sur les populations (SOREP).LJ histoire de la population francophone du Québec représente un phénomène humain dont on ne trouve guère d’autres exemples sur la planète.Durant trois siècles et demi, en effet, on a assisté à une sorte de jaillissement démographique, une croissance naturelle effrénée qui, à elle seule, faisait doubler la population tous les 25 ans environ.Au départ : entre 8 000 et 9 000 fondateurs (sur une trentaine de milliers d’immigrants) ayant véritablement fait souche en Nouvelle-France1.A l’arrivée : 5 millions de descendants sur le territoire québécois, et peut-être autant à l’extérieur.Entre les deux : une histoire collective tourmentée, complexe, qui engendre la fierté et parfois le doute.Le tout, sur divers plans, éveille une immense curiosité scientifique et suscite nombre de questions auxquelles les techniques et les méthodes actuelles de l’enquête rétrospective permettent d’apporter des schémas de réponse de plus en plus précis.LÀ OÙ L'HISTORIEN RENCONTRE LE GÉNÉTICIEN Au milieu du XVIIe siècle, sur les rives du Saint-Laurent, coincée entre les Appalaches au sud et les Laurentides au nord, une société neuve s’élabore à partir de matériaux culturels, politiques, sociaux — génétiques aussi — très anciens empruntés à la France, surtout celle du nord-ouest et du centre.Une première question se pose alors : celle des continuités et des ruptures.Dans les pratiques coutumières et les rituels sociaux, dans la langue et l’architecture, dans les formes de gestion de la vie collective et les modes de reproduction du groupe familial, dans la technologie, les procédés de l’agriculture et de l’artisanat, dans les croyances, les mentalités et les représentations collectives, à quel degré, à quel rythme et selon quels cheminements la nouvelle société va-t-elle (vouloir) se constituer, en s’éloignant de l’ancienne? 12 INTERFACE /JANVIER-FÉVRIER 1989 FIGURE 1 HAUTE- CÔTE-NORD LAC-SAINT-JEAN SAGUENAY^BAS-^ / SAGUENAY jgpl BASSE- CÔTE-NORD CHIBOUGAMAU- CHAPAIS S fleuve SAINT-LAURENT GASPESIE LEGENDE ZONES PRIORITAIRES BAS-SAINT-LAURENT — i CHARLEVOIX _ _ FRONTIERE INTERNATIONALE -FRONTIÈRE INTERPROVINCIALE NOUVEAU- BRUNSWICK COTE-DE- BEAUPRÉ MO km \ COTE-DU-SUD QUÉBEC 'rS'" / ETATS-UNIS ETATS-UNIS l SOREP) Régions et sous-régions présentement visées par le projet de fichier BALSAC.Autres sujets d’interrogation : dans quelle mesure les traits qui résulteront de cette évolution plus ou moins affranchie composeront-ils une identité spécifique au sein des communautés nord-américaines ?Et, débordant sur le biologique, comment cette spécificité, à la fois comme fait et comme projet, va-t-elle inspirer des comportements collectifs qui, durant trois siècles, donneront au bassin génétique québécois ses traits originaux, positifs ou négatifs?Ce sont ces questions que nous abordons dans les paragraphes qui suivent.UNE NOUVELLE AVENTURE COLLECTIVE Le transfert démographique sur un territoire immense et peu peuplé, dans un environnement économique et social progressivement renouvelé, crée les conditions d’un démarrage, d’une nouvelle aventure collective que nous cherchons à reconstituer dans ses principaux aspects, biologiques aussi bien que sociaux.Si le cadre chronologique de nos travaux recouvre toute la trame du XVÜe au XXe siècle, l’aire géographique est toutefois circonscrite pour l’instant à l’est du Québec (figure 1), là où les traits sont les plus uniformes et les plus accusés parce qu’ils ont été moins qu’ailleurs touchés par les vagues d’immigration depuis le XIXe siècle.Quant à l’infrastructure scientifique de la recherche, elle consiste dans un fichier-réseau de population dont la construction a débuté en 1972 à l’Université du Québec à Chicoutimi (encadré 1).Enfin, le cadre institutionnel immédiat du travail est le Centre interuniversitaire de recherches sur les populations (SOREP), lequel relève simultanément de l’Université Laval, de l’Université McGill et de l’Université du Québec à Chicoutimi (encadré 2).OCCUPER LES « NOUVEAUX » ESPACES Bien avant le XVIIe siècle, les espaces laurentiens et pré-laurentiens étaient parcourus par l’Amérindien chasseur.Mais l’Européen eut vite fait de se les approprier et de les convertir à une nouvelle vocation, agricole, industrielle et commerciale.On vit donc sauter ici les verrous qui en Europe maintenaient les populations dans des équilibres malthusiens, caractérisés par une croissance INTERFACE/JANVIER-FÉVRIER 1989 très lente et un relatif équilibre entre les naissances et les décès.Jusqu’au XIXe siècle dans l’ensemble du Québec, et jusqu’au XXe siècle dans certaines régions, a prévalu une fécondité dite naturelle, aux confins des possibilités biologiques.On peut douter que les impératifs ou les visées de type nationaliste aient constitué ici une motivation déterminante.D'abord, parce que l’idée de « péril » collectif est apparue bien après que le nouveau régime démographique eut pris son élan.Ensuite, parce que la fécondité élevée était un trait quasi universel des sociétés de peuplement.Enfin, parce qu’il est aisé d’invoquer bien d’autres facteurs — économi- ques, culturels, sociaux — mettant en relief la rationalité des familles nombreuses.Ce qui semble davantage spécifique aux francophones, c’est peut-être moins le niveau de leur fécondité que le calendrier très étalé de sa réduction.Mais là encore, dans la recherche des causes, on doit éviter les conclusions hâtives et demeurer très attentif à ce qui, dans l’environnement économique et social, était particulier à la société québécoise et a peut-être commandé des conduites qui n’étaient qu’en apparence inadaptées.LES ÉTAPES DU PEUPLEMENT À la faveur de la croissance démographique, l’extension de l’espace habité allait bon train.Dans une large mesure, la géographie et le relief indiquaient la marche à suivre.Dans un premier temps, coincé entre les Appa-laches et les Laurentides, le Saint-Laurent livrait au peuplement un long corridor — légèrement ouvert vers le sud-ouest — qu’il allait recouvrir en moins de deux siècles.A partir de 1825-1835, le peuplement dut gagner peu à peu les plateaux moins hospitaliers puis, surtout au nord, enjamber les montagnes pour créer en périphérie des arrière-pays fragiles, caractérisés par une population instable et un développement incertain.Cette expansion, tournant le dos aux bonnes voies de communication et aux bonnes terres, a été l’objet d’une appropriation, en quelque sorte, par les élites des professions libérales et religieuses, qui y ont vu le sursaut triomphant et salvateur de la nation à la conquête du sol.Mais l’expérience, la pratique colonisatrice elle-même allait faire apparaître d’autres « propriétaires ».Car les nouveaux arpents de la francophonie catholique étaient en même temps ceux du capital étranger auquel le colon, devenu prolétaire, prêtait volontiers ses bras.1.LE FICHIER-RESEAU BALSAC Un fichier de population est une banque de données pouvant remplir les sept conditions suivantes : 1.Contenir des informations nominatives (individuelles, familiales, généalogiques et autres) relatives à une population donnée.2.Etre assortie d'un système de jumelage automatique des données nominatives.3.S'appuyer sur un système de gestion de type « base de données » (Data Base Management System).4.Pouvoir mettre en relation des informations relatives aux mêmes individus (structure de croisement des données).5.Etre assortie d'instruments d'évaluation critique des données et des opérations.6.Se prêter à des modes d'exploitation rapides, flexibles et simples.7.Se plier à des procédures et contrôles rigoureux de nature à protéger la confidentialité des données et les droits des personnes.Le fichier-réseau BALSAC est ainsi constitué.Sa construction a commencé en 1972 par une opération intensive de collecte de données dans les archives de l'état civil.Puis, le développement d'un système de jumelage automatique des dossiers a permis de regrouper les actes de baptême, de mariage et de sépulture autour des couples ou unités familiales auxquels ils appartenaient.Enfin, la mise au point d'un système de gestion informatique des données a donné vie au fichier en permettant d'accéder aux dossiers individuels et de construire instantanément les généalogies.Le fichier comprend présentement plus d'un million d'actes de baptême, de mariage et de sépulture.Il est complété pour la région du Saguenay et il est en cours d'extension à toute la région de l'est du Québec (du XVIIe au XXe siècle).Références BOUCHARD, G., ROY, R.etCASGRAIN, B.Reconstitution automatique des familles.Le système SOREP, dossier n° 2, 2 vol., Université du Québec à Chicoutimi, septembre 1985,745 p.BOUCHARD, G., ROY, R., CASGRAIN, B.et HUBERT, M.« Computer in Human Sciences : From Family Reconstruction to Population Reconstruction », Advances in Computing & The Humanities, 1988.CONSTRUCTION ET CONTENU DU FICHIER BALSAC I Source principale Il Reconstitution automatique des familles III Système de gestion de base de données IV Individus (Saguenay) V Fonctions - Actes de • baptême • mariage • sépulture - Système SOREP 1 (a) - INGRES (système relationnel) r i i i i N = 575 000 T 1 1 1 - Accès • Ponctuel • Multiple • Restrictif (confidentialité) - Requêtes (usagers) • Généalogies • Biographies «.(individus, familles) • Listes - Gestion • Mise à jour, corrections • Saisie de données • Création de fichiers • Protection des données i 1 - N= 1 million (macro-région BALSAC) - Période couverte : 1680-1986 - N= 125 000 familles (Saguenay seulement) - INGRID (progiciel de requêtes) (b) - Ordinateur : VAX-8200 i i i ¦?k i i Couples (mari et femme) N= 125 000 1 1 1 1 1 i 1 i i i i L.Evénements (données non nominatives) N= 2,2 millions 1 1 1 1 J 14 INTERFACE / JANVIER-FÉVRIER 1989 2.LE CENTRE INTERUNIVERSITAIRE SOREP SOREP est un centre interuniversitaire de recherches sur les populations créé en vertu d'une entente officielle de coopération entre l'Université Laval, l'Université McGill et l'Université du Québec à Chicoutimi.Il regroupe une quarantaine de chercheurs, professionnels, techniciens, assistants et étudiants appartenant à diverses disciplines : histoire, démographie, sociologie, ethnologie, droit, informatique, génétique, médecine et épidémiologie.L'objectif du centre est double : a) poursuivre le développement et l'extension du fichier-réseau BALSAC pour qu'il couvre tout l'est du Québec et, éventuellement, l'ensemble de la province ; b) exploiter le fichier à des fins d'analyse dans le domaine des sciences sociales en général et dans le domaine de la génétique humaine.Présentement, les principaux bailleurs de fonds de SOREP sont le Fonds FCAR (en particulier son volet Centre de recherche), le Conseil de recherches en sciences humaines du Canada (Programme des grandes subventions), le ministère de l'Enseignement supérieur et de la Science (Programme d'actions structurantes), de même que les trois universités participantes — auxquels s'ajoute la Fondation de l'Université du Québec à Chicoutimi.SOREP publie un rapport annuel (une version française et une version anglaise) offert à toute personne intéressée.Note Pour une présenlation plus détaillée de SOREP, voir : t.BOUCHARD, G.(sous la direction de).De la dynamique de la population à l'épidémiologie génétique.Actes du Symposium international SOREP/Proceedings of the SOREP International Symposium, Chicoutimi, 23-25 septembre 1987, Centre interuniversitaire de recherches sur les populations (SOREP), 391 p.2, BOUCHARD, G.et WATELET, H.« Un nouveau territoire pour l'historien ?Vers une rencontre de l'histoire sociale et delà génétique humaine », Histoire sociale.Social History, wl.XX, n° 39, mai 1987, p.145-175.Au gré de migrations successives d’une paroisse ou d’une région à l’autre, et d’autant de recommencements incertains, les Québécois ont mis trois cents ans à occuper le territoire actuel de la province.Amorcé autour de Québec dans la première moitié du XVIIe siècle, le mouvement de colonisation a connu ses derniers élans au Saguenay et en Abitibi peu avant la Seconde Guerre mondiale.Entre-temps, et à la faveur de cette longue expérience collective accumulée et transmise, une société s’est façonnée, une culture est née et peut-être, aussi, une identité.LA REPRODUCTION FAMILIALE Les premiers traits de cette société neuve se sont affirmés d’abord dans la reproduction sociale, et tout particulièrement dans la transmission des avoirs familiaux, des parents aux enfants.D’abord liée à un système coutumier hérité de la France, la famille québécoise s’en est affranchie rapidement pour s’adonner à des pratiques éclectiques qui conciliaient tant bien que mal l’individualisme du système égalitaire (chaque enfant reçoit une part), la sécurité de la famille souche (les parents âgés sont confiés à un fils qui reçoit le « vieux bien » en retour) et le mutualisme du système communautaire (les avoirs sont transmis en indivis aux enfants).A chaque génération, la famille paysanne se retrouvait dans une impasse puisqu’il lui fallait pourvoir à plusieurs établissements à partir d’un seul.En faisant abstraction des échecs qui, à partir du XIXe siècle, se traduisaient la plupart du temps par une émigration vers la ville (québécoise ou américaine), on voit que cette contradiction fut en définitive résolue grâce à l’abondance de terres disponibles.Souvent, au gré de déplacements, le groupe familial lui-même fournissait la main-d’œuvre nécessaire aux défrichements qui, ensuite, permettaient aux enfants de s’établir, à mesure qu’ils arrivaient à l’âge de se marier.A partir du bien initial qu’on essayait de ne pas briser, la propriété familiale s’étendait ainsi et se morcelait à chaque génération au gré des transmissions consenties aux enfants.Chaque fois, les possibilités d’une accumulation ou d’un démarrage agraire de type capitaliste étaient en quelque sorte sacrifiées à la solidarité et à la reproduction familiale étendue.Cette description est forcément simplifiée, pour les fins du présent article.Nous croyons cependant que cet aperçu du mode de reproduction familale dans un contexte de terroir vide et de croissance démographique rapide, livre certaines coordonnées essentielles du pays qui se faisait, mais du pays quotidien, populaire, par opposition à celui des élites et des pouvoirs.LES DEUX NATIONS Ce pays qui se fait à partir de la terre est d’abord un pays rude.C’est celui des défrichements, donc de l’isolement et des très dures privations que celui-ci impose.C’est un pays fruste sur le plan de la culture, des relations sociales, de la vie matérielle.C’est aussi un pays de mobilité que les individus et les familles parcourent soit dans le sens des mouvements colonisateurs, soit dans le sens de l’urbanisation et de l’industrialisation.Dans ce dernier cas, les migrations conduisent aussi bien en Nouvelle-Angleterre et dans l’Dlinois qu’à Montréal ou à Québec.Ces expériences de travail, qui sont aussi des apprentissages d’un espace largement ouvert sur les Etats-Unis et le Canada anglais, vont nourrir un ensemble de perceptions du monde, une culture populaire (une « territorialité », diraient certains géographes) largement réfractaire à la culture des élites ecclésiastiques et libérales.En effet, la culture des notables est largement importée, alimentée de références européennes, surtout françaises.Celles-ci se profilent dans un projet collectif qui exprime très imparfaitement l’expérience quotidienne et les représentations des ruraux aussi bien que des urbains.Cette ambiguïté dans les rapports entre les élites socio-culturelles et les classes populaires est parfaitement illustrée par leurs attitudes vis-à-vis des États-Unis, redoutés et méprisés par les élites, loués et fréquentés par les autres.Elle est sans doute à l’origine de nombreuses tensions et distorsions au sein de la culture québécoise : pensons ici au choc des parlers, aux vécus religieux parallèles et à diverses formes d’inhibition du discours populaire2.Encore aujourd’hui, les malentendus et les impasses nés de ces conflits n’ont pas été complètement dénoués.LES MUTATIONS DÉCISIVES Orientés d’abord vers le Saguenay et Charlevoix, puis peu à peu vers tout l’est du Québec, les travaux de SOREP visent à faire ressortir les caractéristiques des sociétés régionales, telles que celles-ci se sont déployées au gré d’une longue dérive temporelle et spatiale.L’un des traits les plus intrigants concerne le changement — ou le non- changement.À propos du Québec en son entier, de nombreux auteurs ont parlé de retard.Ce concept paraît inapproprié, pour ce qui concerne nos travaux.Le problème du changement dans les régions périphériques que nous étudions est complexe.Il faut tenir compte des évolutions locales : peuplement, établissement de voies de communication, urbanisation, modalités de l’industrialisation.Ainsi, tant que la colonisation n’est pas terminée, les sociétés rurales sont véritablement en expansion, en croissance ; on ne peut donc parler d’immobilisme.Et lorsque l’industrie y fait naître des villes, l’impact sur la société locale est très différent selon l’origine des capitaux, les structures de gestion et la nature des activités de production 3.L’éloignement fait obstacle à l’intégration au marché ; les villes-compagnies et le capital étranger créent des économies d’enclave qui tendent à cloisonner la ville et la campagne ; les gestionnaires du capital agissent de l’extérieur.Tout cela laisse vacant un espace social et culturel que vont occuper presque en exclusivité les élites locales du clergé et des professions libérales.On peut parler ici d’une désarticulation entre un système de production très moderne qui est géré de l’extérieur et un univers socio-culturel relativement autonome qui est dirigé de l’intérieur.On est même tenté d’appliquer le modèle à l’ensemble de la société québécoise pour rendre compte de son évolution spécifique dans le contexte nord-américain.À partir des années 1920-1940, cet équilibre est rompu sur trois fronts.Dans le premier quart du XXe siècle, il devient de plus en plus difficile d’émigrer aux États-Unis ; les campagnes québécoises perdent ainsi un exutoire important pour leurs surplus démographiques.Or, ceux-ci sont de plus en plus encombrants parce qu’à la même époque, le mouvement de colonisation atteint la limite des terres cultivables à la périphérie laurentienne ; c’est bientôt toute la reproduction et l’expansion familiales qui sont compromises.Enfin, la croissance accélérée de l’urbanisation à l’échelle du Québec de même que la révolution dans les moyens de communication, contribuent à diffuser très largement de nouveaux modèles culturels.C’est le point de départ de mutations en profondeur qui culmineront au cours de la période 1945-1980 et qui, sur le plan de la culture, de l’économie, des INTERFACE / JANVIER-FÉVRIER 1989 comportements sociaux, feront du Québec une société plus différenciée, plus ouverte aux modes de vie nord-américains.LE GÈNE À LA REMORQUE DU SOCIAL Différenciation : voilà le mot clé qui fait le pont entre l’évolution sociale et les phénomènes génétiques.Pour des raisons politiques et culturelles qui rejoignaient souvent les intérêts collectifs, nos élites laïques et religieuses se sont toujours entendues sur la nécessité de promouvoir le fait français et catholique par une politique sélective d’immigration, par la lutte contre l’émigration et les mariages mixtes, par la promotion vigoureuse de la vie rurale et de la fécondité, etc.Ces stratégies faisaient partie d’un projet d’identité collective qui s’est à coup sûr donné une sorte de versant biologique.L’obstination politique et culturelle à demeurer soi-même a créé durant trois siècles les conditions de ce qu’on pourrait appeler un macroisolat, dont le profil est particulièrement net dans l’est de la province.De diverses façons, le nationalisme québécois, soit par le biais de ce qu’il rejetait, soit par le biais de ce qu’il encourageait, a favorisé l’endogamie et l’homogénéisation génétique.Dans ce contexte, la population francophone s’est reproduite à une vitesse accélérée sur le modèle d’un entonnoir, à partir d’un nombre relativement restreint de fondateurs et avec un apport ultérieur relativement mince d’éléments de diversification.Plusieurs gènes présents au départ — sains ou délétères — ont pu se reproduire en grand nombre et se traduire aujourd’hui, notamment, par certaines maladies génétiques à prévalence ou incidence très élevée dans notre population, mais très rares ou carrément inexistantes ailleurs.En d’autres mots, les conditions démographiques et sociales ont été durant trois siècles un conduit génétique où le moindre « bruit » a pu se répercuter jusqu’à aujourd’hui en s’amplifiant.On voit par là que ce sont les comportements collectifs qui façonnent les patrimoines et les traits génétiques.Une fois la mutation survenue sur un gène, son sort dans la population dépend essentiellement des personnes qui le portent.Vont-elles se marier?Avec qui ?Combien d’enfants naîtront de ces unions?Combien survivront jusqu’à l’âge adulte?Combien se marieront à leur tour ?Combien émigreront ?Les réponses à toutes ces questions relèvent de facteurs sociaux, économiques, culturels.Le gène est bien le reflet, l’archive du social.Le hasard biologique est aveugle ; ce sont nos conduites qui le guident.DES EFFETS FONDATEURS RÉGIONAUX En génétique, l’effet fondateur consiste dans un transfert de population entre une région mère et une nouvelle aire de peuplement.Le mouvement migratoire effectue dans la vieille population un prélèvement de gènes qui, en se multipliant, vont constituer le nouveau bassin génétique.Mais comme ces « échantillonnages » sont la plupart du temps biaisés, le nouveau stock génique ne va représenter qu’une partie de l’ancien, d’où habituellement appauvrissement et homogénéisation.On peut dire que le bassin génétique québécois s’est constitué au gré d’une succession de trois effets fondateurs plus ou moins nets : de certaines régions de France vers la partie centrale (entre Québec et Montréal) de la vallée du Saint-Laurent, au XVffe siècle ; de là vers les plateaux et, surtout au nord-est, le long des côtes de plus en plus étroites ; puis, dans plusieurs directions, vers les arrière-pays — les actuelles régions périphériques.Dans une large mesure, ces enfilades d’effets fondateurs ont tracé des lignes de transmission génétiques qui se traduisent aujourd’hui par une stratifica- tion spatiale, une sorte de régionalisation des maladies génétiques.Encore une fois, la macro-région de l’est du Québec est caractéristique sous ce rapport, avec ses quatre ou cinq génopathies spécifiques (encadré 3).La fécondité élevée a joué ici un rôle déterminant, dans un contexte qui a favorisé l’apparentement et l’homogénéisation.Au Saguenay, par exemple, les couples établis entre 1838 et 1842 comptaient en moyenne plus d’un millier de descendants à la sixième génération (record absolu : un couple Côté/Girard, avec plus de 9 000 descendants à la sixième génération, soit près de 3 p.cent de la population régionale)4.A l’aide du fichier de population, qui permet de construire les généalogies par ordinateur, les chercheurs de SOREP visent à reconstituer ces lignes de transmission, à retracer les ancêtres qui ont introduit les gènes mutants au XVIIe siècle et, par inférence généalogique, à identifier les descendants probablement porteurs (figure 2).A moyen terme, cette démarche d’épidémiologie génétique devrait se conjuguer avec l’utilisation des marqueurs d’ADN, au moyen desquels il est maintenant possible de déceler des porteurs de gènes mutants — qu’il s’agisse par ailleurs de maladies mendéliennes au sens strict ou de maladies multi-factorielles comme les psychoses maniaco-dépressives, certaines formes de cancer, etc.5 .ET DES EFFETS MULTIPLICATEURS Les enquêtes que nous avons réalisées jusqu’ici sur des maladies en particulier ou sur la formation du bassin génétique en général et les structures de la population, ont permis de faire ressortir des phénomènes importants : - H n’y a sans doute pas plus de génopathies dans notre population que dans d’autres.Assurément, certaines maladies nous sont spécifiques, étant donné le mode de croissance démographique évoqué plus haut.Mais pour la même raison, d’autres maladies en général très fréquentes dans les populations blanches sont très rares parmi les Québécois francophones (p.ex., la thalassémie, la phényl-cétonurie).Sous ce rapport, le Québec ressemble beaucoup à des pays comme la Finlande ou la Norvège.- À cause des effets fondateurs, qui ont favorisé durant une longue période la reproduction des mêmes gènes, on observe pour plusieurs maladies des incidences élevées, accompagnées de fréquences relativement basses de mariages consanguins.- Tout en montrant de forts éléments d’homogénéité, la population du Québec présente aussi une stratification spatiale sans doute plus accusée qu’on ne l’a cru jusqu’ici.La coexistence de facteurs d’homogénéisation et de diversification représente du reste une voie de recherche des plus fécondes pour les prochaines années.- Les effets fondateurs régionaux, qui sont des phénomènes génétiques et démographiques, ont été amplifiés et prolongés à l’échelle locale par des effets sociaux multiplicateurs : sur le plan de la culture, des rapport sociaux et de l’économie rurale, divers facteurs ont joué en faveur des vieilles familles au détriment des nouveaux-venus et ont favorisé l’homogénéisation par le biais de l’endogamie.D'ICI L'AN 2000 : TROIS SIÈCLES ET DEMI D'HISTOIRE DE LA POPULATION QUÉBÉCOISE SUR ORDINATEUR La population francophone québécoise, à cause de ses dimensions ainsi que de son mode de formation et de croissance depuis près de trois siècles et demi, représente pour les scientifiques de nombreuses disciplines un terrain de recherche et d’action du plus grand inté- 3.LA MALADIE DE STEINERT La maladie de Steinert (ou dystrophie myotonique) est une génopathie dominante qui détériore progressivement le système musculaire et dont les premières manifestations graves surviennent à l'âge adulte.La population du Saguenay se caractérise par une prévalence exceptionnellement élevée de cette maladie.Cette très grande fréquence du gène est surprenante puisque, d'après la littérature médicale, ce dernier devrait en quelque sorte s'éliminer de lui-même.En effet, on pense que la maladie : a) réduit les capacités sexuelles ou procréatrices des sujets, b) s'aggrave d'une génération à l'autre, c) entraîne une mortalité élevée en bas âge, d) incite les malades au célibat ou à un mariage tardif, à cause de leur handicap physique.A l'aide du fichier-réseau BALSAC, nous avons pu reconstituer l'histoire familiale d'individus atteints et de témoins, afin de montrer que les premiers se départageaient très peu des seconds pour ce qui touche la reproduction démographique.Ce résultat a permis de tirer des conclusions importantes en rapport avec l'expression clinique du gène et la façon de l'étudier.Sur un autre plan, le fichier de population a également permis de reconstituer automatiquement les généalogies des malades, d'identifier les ancêtres qui ont introduit le gène dans la région et d'établir à la fois leur lieu de provenance (Charlevoix, dans presque tous les cas) et le calendrier de leur immigration.Références 1.BOUCHARD, G., ROY, R., DECLOS, M„ KOULADJIAN, K.et MATHIEU, J.la diffusion du gène de la dystrophie myotonique ou Saguenay (Québec) », Journal de génétique humaine, vol.36, n° 3, 1988, p.221-237.2.ROY, R., DECLOS, M., BOUCHARD, G.et MATHIEU, J.« la reproduction des familles touchées par la dystrophie de Steinert au Saguenay, 1885-1971 : paramètres démographiques », à paraître dans GENUS (Italie). 16 INTERFACE/JANVIER-FEVRIER 1989 FIGURE 2 PRÉSENTATION SIMPLIFIÉE DE L'INFÉRENCE GÉNÉALOGIQUE Ancêtres présumés porteurs Ancêtres présumés non-porteurs Ancêtres présumés non-porteurs Ascendance Descendance Personnes dites à risque dans la population actuelle Sujets atteints ou porteurs attestés Personnes dites à risque dans la population actuelle (Point de départ) L'inférence généalogique consiste à calculer les probabilités de transmission de gènes dans des descendances.A partir des porteurs connus dans la population actuelle, on cherche à identifier parmi leurs ancêtres ceux qui pourraient avoir été porteurs.On peut alors, en considérant la descendance de ces ancêtres présumés porteurs, déterminer dans la population actuelle les sujets « à risque » qui pourraient être porteurs.Il s'agit d'une voie de recherche neuve qui, appliquée à l'échelle d'une population, pourrait ouvrir des perspectives très prometteuses dans le domaine de la prévention des maladies génétiques.Cependant, avant qu'elle ne puisse se prêter à des applications courantes, il reste encore des défis méthodologiques importants à surmonter.SOREPy est présentement engagé.rêt.Aussi, depuis près de vingt ans, elle a suscité la construction de deux fichiers de population informatisés, permettant de reconstituer automatiquement les histoires familiales et les généalogies.Le premier est l’œuvre du Programme de recherche en démographie historique de l’Université de Montréal, sous la direction d’Hubert Charbonneau et de Jacques Légaré 6.Ce fichier contiendra d’ici peu les 700 000 actes de baptême, de mariage et de sépulture couvrant la période allant des débuts du peuplement, au XVIIe siècle, jusqu’à l’an 1800.Le deuxième est le fichier-réseau de SOREP.Il contient à ce jour plus d’un million d’actes de l’état civil.Il couvre toute la région du Saguenay de 1842 à 1986 et une partie des régions de l’est du Québec pour la période allant du début de leur peuplement jusqu’aux années récentes.Même en restreignant désormais la collecte des données aux actes de mariage (ils suffisent pour reconstituer les généalogies) et en tirant profit d’un échange de données avec les démographes de Montréal pour la période antérieure à 1800, il nous reste encore beaucoup de travail à faire, au centre SOREP, pour atteindre les buts fixés : il faut saisir près de 500 000 actes de mariage pour l’est de la province, en excluant la ville de Québec, et environ 700 000 en l’incluant.Pour ce qui est des régions du centre et du sud-ouest, c’est une masse plus considérable encore qu’il nous faudra traiter.Ces objectifs restent toutefois à notre portée, à condition de déployer les stratégies appropriées ; à condition aussi d’y mettre beaucoup de temps et d’énergie.Les enjeux, les profits escomptés sur le plan scientifique et humain sont proportionnés à l’ampleur des travaux.Au-delà des problèmes de gestion qu’il pose7, le fichier-réseau est au sens strict une infrastructure de l’interdisci- plinarité qui aide au renouvellement et à l’intégration des enquêtes sociales, historiques et biologiques.Sur le plan de la génétique médicale, enfin, il est un instrument sans précédent de connaissance fondamentale et appliquée.¦ Notes et références 1.En génétique, le fondateur est celui qui est à l'origine d’une nouvelle population, au sein de laquelle il transmet des gènes.Certaines populations comptent seulement quelques dizaines de fondateurs, d’autres quelques centaines de milliers.2.Par exemple, le fait que, contrairement à ce qu’on observe au Canada anglais et surtout aux Etats-Unis, l’expérience de la colonisation n’a pas suscité de légendaire triomphateur qui soit une source de fierté et d’affirmation.Bien au contraire, dans la langue courante, le « colon » est un être diminué, humilié.sinon humiliant.3.À propos du Saguenay, voir : IGARTUA, J.et De FREMINVILLE, M.« Les origines des travailleurs de l’Alcan au Saguenay, 1925-1939 », Revue d’histoire de l'Amérique française, vol.37, septembre 1983, p.291-308.BOUCHARD, B.« Introduction à l’étude de la société saguenayenne aux XIXe et XXe siècles », Revue d’histoire de l’Amérique française, vol.31, n° 1, juin 1977, p.3-27.4.À propos de l’histoire démographique de cette région, voir : POUYEZ, C., LAVOIE, Y., BOUCHARD, G., ROY, R.et autres.Les Saguenayens.Introduction à l’histoire des populations du Saguenay, XVI' — XXe siècles, Québec, Presses de l’Université du Québec, 1983, 386 p.5.L’une de ces enquêtes généalogiques, dirigée par Jean Davignon et Marc De Braekeleer, est réalisée conjointement par SOREP et l’Institut de recherches cliniques de Montréal, en collaboration avec le laboratoire de Brown et Goldstein (généticiens américains, prix Nobel de médecine en 1985).Elle porte sur l’hypercholestérolémie familiale, une maladie dominante qui est la cause de décès prématurés par infarctus.6.BATES, R., CHARBONNEAU, H., DESJARDINS, B., GUILLEMETTE, Y.-L., LÉGARÉ, J.et NAULT, F.« Naissance d’une population : les Français établis au Canada au XVIIe siècle », INTERFACE, vol.9, n° 1, 1988, p.24-29.7.Eu égard, par exemple, aux questions d’éthique et de confidentialité, auxquelles notre équipe a consacré depuis plus de dix ans une attention privilégiée.Voir, en particulier : GOULET, J., GAGNÉ, M.et GIRARD, D.Règles de droit et confidentialité, dossier n° 1, 1983, 175 p. INTERFACE/JANVIER-FÉVRIER 1989 LA SIMULATION DE L'ENVIRONNEMENT ATMOSPHÉRIQUE De Tchernobyl aux pluies acides PAR JANUS PUDYKIEWICZ Quel lien peut-il exister entre les pluies acides et le plus grand accident nucléaire jamais rapporté ojficiellement ?Simple : ces situations concernent toutes deux la dispersion dans l’atmosphère de contaminants.Dans un cas, il s’agit de substances chimiques et dans l’autre, d’éléments radioactifs.Mais il yarn autre point commun : toutes deux font l’objet de simulation numérique par ordinateur.Janus Pudykiewicz effectue des recherches en prévision numérique au Service de l’environnement atmosphérique (SEA) d’Environnement Canada.La dispersion atmosphérique de substances chimiques ou radioactives sur de longues distances est un processus très complexe.Dans la plupart des cas, la seule façon d’évaluer l’impact sur l’environnement d’une émission de polluants dans l’air est d’utiliser un modèle numérique.Ce modèle permet de simuler le comportement des contaminants dans l’atmosphère.Le Service de l’environnement atmosphérique (SEA) d’Environnement Canada s’intéresse depuis de nombreuses années à la conception et à la mise en service de modèles numériques destinés à simuler des situations d’urgence environnementale se produisant dans l’atmosphère terrestre.Ces modèles relativement complexes peuvent tenir compte de nombreux processus physiques et chimiques, qu’il nous serait impossible d’étudier autrement.L’un des modèles les plus importants mis au point dans le cadre de ces recherches est le modèle tridimensionnel global des processus chimiques tro-posphériques et stratosphériques.La troposphère, épaisse d’environ une dizaine de kilomètres, est la couche atmosphérique la plus proche de la terre.La stratosphère, elle, s’étend sur une trentaine de kilomètres au-dessus.Le terme « global » signifie que le modèle peut traiter le problème de dispersion sur tout le globe.Un sous-modèle est utilisé pour traiter le cas des contaminants aériens.Avec pour cadre l’accident de Tchernobyl, nous avons récemment testé avec succès la version la plus perfectionnée de ce modèle.Les résultats de la simulation se comparaient fort bien aux mesures prises à différents endroits dans l’hémisphère Nord au moment de la dispersion du nuage radioactif après la catastrophe.Stations Helsinki Stockholm Paris Chiba Rexburg Moosonee Frédéricton Greenwood Winnipeg Vancouver Beaverton Barrow Windsor Ottawa Chester Calgary Régina LE MODELE Le modèle est du type dynamique et spectral : dynamique, parce qu’il tient compte des mouvements de l’atmos- Cœfficient de corrélation Radioactivité Logarithme des radioactivités 0,70 0,73 0,78 0,80 0,24 0,73 0,85 0,96 0,52 0,93 0,80 0,95 0,76 0,84 0,81 0,94 0,65 0,91 0,63 0,90 0,47 0,91 0,38 0,84 0,72 0,86 0,77 0,88 0,94 0,95 0,80 0,89 0,78 0,87 TABLEAU 1 Corrélation entre les radioactivités mesurées dans 17 stations météorologiques de l'hémisphère Nord et celles obtenues par simulation.Un coefficient de corrélation a également été calculé pour le logarithme des radioactivités.Dans ce cas, les valeurs varient entre 0,73 et 0,95, ce qui montre que les valeurs prévues par le modèle concordent avec les observations. INTERFACE / JANVIER-FÉVRIER 1989 map m FIGURE 1 Dispersion, après l'accident de Tchernobyl du 26 avril 1986, du nuage radioactif à la surface du globe.Le 1er mai, ce nuage couvrait déjà le Groënland et l'Arctique canadien.Le 4 mai, il atteignait la côte ouest de l'Amérique du Nord (le).Le 9 mai, soit 13 jours après l'accident, le nuage englobait à peu près tout l'hémisphère Nord (lg).phère comme les vents, les variations de température et la formation des nuages, et spectral, parce qu’il repose sur des techniques de calcul ainsi nommées.Il comprend une paramétrisation très poussée de l’écoulement turbulent de l’atmosphère et de la formation de nuages.Mis au point au cours des trois dernières années, le modèle englobe tout l’hémisphère Nord, ce qui est suffisant pour traiter un cas comme celui de Tchernobyl.Toutefois, il sera bientôt possible de simuler les processus se déroulant sur tout le globe.Le modèle utilise un système de référence, centré sur le pôle Nord, qui comprend 180 divisions par 180 divisions.Il assure ainsi une définition de 150 km.La résolution verticale des équations du modèle est effectuée en définissant un certain nombre de couches atmosphériques.Dans la pratique, ces couches sont caractérisées par la pression qui y règne.Elles ne sont pas équidistantes : plusieurs se situent dans une région frontière, dans les premiers 1500 m, car c’est à cet endroit que la concentration de substances étrangères varie le plus rapidement en fonction de l’altitude.Pour simuler le cas particulier de Tchernobyl, la troposphère a été divisée en 11 couches.Dans la version globale du modèle, on peut distinguer davantage de couches et étendre la zone étudiée jusqu’à une altitude de 100 km, ce qui serait utile pour analyser, par exemple, le problème de la couche d’ozone.Le modèle repose en partie sur des équations de conservation de la masse qui expriment des liens entre les quantités de matière qui entrent et qui sortent dans un certain volume.A cause de sa complexité, ce système d’équations ne peut être résolu analytiquement.II faut alors faire appel à différentes méthodes numériques, dans lesquelles les fonctions analytiques représentant les variables météorologiques (vent, humidité, température, etc.) sont remplacées par des représentations discrètes.La solution des équations se fait donc numériquement, à partir des données météorologiques emmagasinées dans les archives du Centre météorologique canadien (CMC).Le système d’analyse le : 4 mai assimile des milliers d’observations faites à différents endroits.Il fournit, pour les simulations numériques, les valeurs décrivant à toutes les six heures la vitesse et la direction du vent ainsi que diverses variables météorologiques comme la température et l’humidité.Ce modèle tridimensionnel, conçu pour traiter une large variété de cas, peut être utilisé dans les situations d’urgence environnementale.La simulation vise le diagnostic d’événements passés à partir de données météorologiques disponibles, ou encore, la prévision de lb : 30 avril INTERFACE/JANVIER-FÉVRIER 1989 Id : 3 mai le : 1er mai lf : 6 mai lg : 9 mai Wmm mm lIliH m y l&lgp pi sssMSSggM mm £gs» «é mm rm «p mM mmm l’évolution d’une situation présente.Dans ce dernier cas, on peut simuler la dispersion de contaminants sur une très grande échelle spatiale comme dans le cas de Tchernobyl, ou sur une échelle moyenne, avec une meilleure définition et un modèle de prévision régional du temps.Le dispersion de substances radioactives peut aussi être simulée à long terme sur des périodes allant jusqu’à un mois.Une procédure interactive permet la sélection de la bonne configuration du modèle ainsi que des données météorologiques.Le programme propose différents scénarios d’accidents nucléaires ou autres.L’utilisateur n’a qu’à spécifier le moment et le lieu de l’événement.Certains cas dépassent, toutefois, les possibilités du système automatique et nécessitent le recours au modèle global.Il s’agit des situations, par exemple, où les sources de contamination sont multiples, en mouvement et où les processus se déroulant dans la haute atmosphère doivent être pris en compte. lllllgl mm - iü »» 1» L'ACCIDENT DE TCHERNOBYL L’accident de Tchernobyl, le 26 avril 1986, a disséminé une énorme quantité de produits radioactifs sur l’Europe centrale et occidentale.Les effets environnementaux du désastre se sont également fait sentir dans toute la partie septentrionale de l’hémisphère occidental.persion de poussières radioactives dans l’hémisphère Nord.Il nous a de plus donné l’occasion d’effectuer l’une de nos premières simulations en temps réel d’une situation d’urgence.Cette simulation a été effectuée avec un modèle hémisphérique, ce qui semblait suffisant dans un premier temps.Ce désastre environnemental nous a permis de démontrer l’utilité des modèles conçus au SEA en ce qui concerne la compréhension des phénomènes de dis- Dans les jours suivant l’accident, nous avons simulé avec un modèle bidimensionnel plus simple les mouvements grossiers des poussières radioactives1 (le modèle bidimensionnel est sembla- ble au modèle tridimensionnel, sauf qu’il ne tient pas compte des échanges de matière entre les couches atmosphériques).Cette première simulation d’urgence nous a alors permis de perfectionner notre système de simulation.La version actuelle est complètement tridimensionnelle et les calculs peuvent être effectués avec une définition horizontale allant jusqu’à 50 km sur tout l’hémisphère Nord2.Ce dernier modèle a été utilisé pour simuler, sur une période d’un mois en mode « diagnostic », la dispersion des substances radioactives libérées par l’accident de Tchernobyl (notons que le cas de Tchernobyl se compliquait du fait que la période d’émissions radioactives s’est étendue sur plus de 10 jours).L’objectif était de mieux comprendre les résultats de l’application du modèle et d’en permettre la visualisation.La simulation a été effectuée avec le superordinateur Cray du Centre météorologique canadien (CMC) à Dorval, un ordinateur très rapide doté d’une grande FIGURE 2 Position du nuage radioactif le 1er mai 1986 à 7000 m d'altitude : le processus de dispersion des contaminants est plus rapide dans les régions supérieures de l'atmosphère.environ INTERFACE/JANVIER-FÉVRIER 1989 LA DISPERSION DES POUSSIÈRES RADIOACTIVES Au cours des deux jours suivant l’accident de Tchernobyl, le nuage radioactif s’est déplacé presque entièrement vers la Scandinavie.La partie méridionale du nuage s’est dirigée vers le sud-est dans la direction du Moyen-Orient.Lors de cette première étape de la dispersion, la situation météorologique était marquée par un système de haute pression à l’est de la région de l’accident ainsi que par une basse pression à proximité de l’Islande.Le 28 avril, la situation se modifia et le segment nord du nuage radioactif se déplaça vers le sud, traversant la Pologne, l’Allemagne et l’Autriche (figure la).Par la suite, le 29 avril, après la disparition de la région de haute pression centrée au nord-est de Tchernobyl, un fort vent d’ouest commença à refouler les émanations radioactives à travers l’URSS.Le système cyclonique relié à la basse pression existant dans la région de l’Islande s’est alors mis à transporter des contaminants radioactifs de la Scandinavie et de la région orientale de la mer du Nord vers le Groënland.Ainsi, le 30 avril, l’étape initiale de dispersion avait mené à l’établissement de deux courants principaux pour le transport des substances radioactives (figure lb).Au cours des jours suivants, le nuage radioactif s’est déplacé vers l’Amérique du Nord selon ces deux trajectoires (Groënland et URSS).Le 1er mai, il couvrait le Groënland et l’Arctique canadien (figure le).La périphérie du nuage, faiblement radioactive, approchait même le nord du Québec.Une partie du nuage poussée par les vents d’ouest au-dessus de l’URSS s’est alors séparée du nuage de l’Arctique, principalement à cause du système de haute pression qui s’était développé au-dessus du pôle Nord.Le 3 mai, la partie orientale du nuage s’était répandue dans la basse atmosphère à travers l’Asie et l’océan Pacifique (figure ld).Remarquez les deux excroissances dissociées du nuage principal : elles résultent des importants mouvements d’air descendants du système de haute pression présent dans la partie orientale du Pacifique.La situation représentée à la figure ld reflète bien le caractère tridimensionnel du transport atmosphérique.Les rejets radioactifs se sont déplacés beau- coup plus vite dans la haute atmosphère puis ont été rabattus par des mouvements d’air descendants.Ils sont ainsi apparus au sud de la Californie dès le 4 mai (figure le).Dans l’Arctique canadien, le vent associé au système de basse pression centré sur le nord du Québec et au système de haute pression au-dessus du pôle Nord, a eu poür effet de transporter le nuage radioactif vers l’Ouest.Deux jours plus tard, le 6 mai, après la disparition du secteur de basse pression au nord du Québec, le nuage radioactif d’abord dispersé dans l’Arctique se déplaça rapidement vers le sud à travers l’Ontario, le Québec et les provinces de l’Atlantique (figure lf).Ces dernières furent touchées ce jour-là pour la première fois, puis affectées davantage par un nuage plus important arrivé le 9 mai.Dans la partie ouest du nuage radioactif, des courants descendants ont rabattu un peu de substances radioactives provenant des régions supérieures de l’atmosphère.La radioactivité fit son apparition le long de la côte Ouest, de l’Alaska à Vancouver et dans les Etats du sud-ouest des États-Unis.Le 9 mai, le nuage radioactif englobait à peu près tout l’hémisphère Nord parce que des tourbillons dus à des systèmes de basse pression, couplés au mouvement normal de l’air (vers l’est), ont poussé les rejets radioactifs vers les régions équatoriales (figure lg).À l’échelle de l’hémisphère, le nuage montre une configuration analogue à celle produite par la diffusion turbulente.Le déplacement à travers l’URSS vers l’Asie et le Pacifique résultait d’une combinaison du mouvement à très grande échelle et de mouvements tourbillonnaires, tandis que la migration de la radioactivité au-dessus de l’océan Atlantique était de nature purement tourbillonnaire.Le processus de dispersion fut beaucoup plus rapide dans les régions supérieures de l’atmosphère.La figure 2 montre, pour la journée du 1er mai, la position du nuage en altitude (environ 7000 m), où la pression est de 300 mbar.La caractéristique la plus marquante du transport à haute altitude est la modulation régulière (wave pattern) de la radioactivité au-dessus du Pacifique et de l’Amérique du Nord.Cette modulation est liée au déplacement très rapide engendré par le jet stream (vent à haute altitude associé au front polaire).L’application du modèle tridimensionnel aux processus chimiques dans l’atmosphère nécessitait une vérification poussée de la partie dynamique du modèle.Les mesures de radioactivité prises après l’accident de Tchernobyl, grâce à un réseau de stations de mesure couvrant la majeure partie de notre hémisphère, formaient pour une telle vérification un ensemble de données précieuses.L’Organisation météorologique mondiale et l’Agence internationale de l’énergie atomique envisagent d’ailleurs d’effectuer des comparaisons poussées entre ces mesures et les différents modèles utilisés pour la simulation de la dispersion des contaminants radioactifs après Tchernobyl.Cet important projet regroupera des chercheurs d’Europe, d’Asie et d’Amérique du Nord.Le présent article concerne la vérification préliminaire de notre nouveau modèle.Détail encourageant, les résultats sont déjà nettement meilleurs que ceux obtenus avec les modèles plus simples utilisés immédiatement après l’accident de Tchernobyl.Les résultats du modèle ont été corrélés aux valeurs de radioactivité de l’iode 131 au niveau du sol, mesurées dans 17 stations météorologiques de l’hémisphère Nord* 1 2 3.Le choix de l’iode, parmi la vingtaine d’isotopes relâchés dans l’atmosphère lors de l’accident, tient à ce qu’il est le plus dangereux dans la chaîne alimentaire.Chez l’être humain, par exemple, il se concentre dans la thyroïde.Le tableau 1 présente dans la première colonne les coefficients de corrélation essentiels à l’évaluation statistique du modèle.Mais étant donné la très grande variabilité de la radioactivité (des millions de Bq/kg mesurés près de Tchernobyl à des fractions de mBq/kg dans les endroits éloignés), le coefficient de corrélation a aussi été calculé pour le logarithme des radioactivités.Dans ce cas, les valeurs varient entre 0,73.et 0,95, avec une moyenne de 0,88.Le fait que le coefficient de corrélation soit si grand (une valeur de 1 indique un résultat parfait) montre que les valeurs prévues par le modèle concordent avec les observations.APPLICATION DU MODÈLE AUX PLUIES ACIDES Afin de comprendre ou éventuellement de prévoir l’ampleur des pluies acides dans notre environnement, il ne suffit pas de suivre le mouvement des substances émises dans l’air.Les modè- les doivent tenir compte, en plus du problème de dispersion, des processus chimiques dans l’atmosphère, ce qui est beaucoup plus difficile.Un prolongement naturel de notre travail sur Tchernobyl consistait à modifier les termes décrivant les sources et les déperditions des substances aériennes tout en les couplant avec le modèle de circulation atmosphérique.Le modèle décrit s’applique à différentes situations d’urgence.Un exemple?La simulation d’un cas où les conditions initiales sont moins importantes que l’interaction entre les processus chimiques et les conditions atmosphériques.L’aspect le plus difficile de la simulation concernant la chimie atmosphérique est la sélection des processus chimiques à inclure dans le modèle.Actuellement, plusieurs groupes de recherche considèrent des processus passablement différents, mais on ne sait pas encore lesquels décrivent le mieux ce qui se passe réellement dans l’atmosphère.CONCLUSION Le travail effectué montre clairement que le couplage des modèles environnementaux aux modèles numériques de prévision météorologique est très fructueux.Tous les paramètres de l’environnement atmosphérique sont ainsi traités de façon cohérente.Il est alors possible, avec des modèles possédant une résolution élevée, de bien simuler la dispersion dans l’atmosphère terrestre de substances radioactives ou autrement nocives.Dans des situations d’urgence, des modèles opérationnels peuvent désormais fournir des informations précises et utiles.La disponibilité d’un modèle raffiné du comportement de l’atmosphère améliorera également notre compréhension du phénomène des pluies acides et du sort de la très importante couche d’ozone stratosphérique.¦ Références 1.PUDYKIEW1CZ, J.« Numerical Simulation of the Transport of Radioactive Cloud from the Chernobyl Nucleal Accident », à paraître dans Te llus, 1988.2.PUDYKIEWICZ, J.« Simulation of the Chernobyl Dispersion with a 3-D Hemispheric Tracer Model », soumis pour publication dans Tel-lus, 1988.3.LARSEN, R., SANDERSON, C.G., RIVIERA, W.et ZAMICHIELLI, M.The Characterization of Radionuclides in North America and Hawaiian Surface Air and Deposition Following the Chernobyl Accident, rapport au Department of Energy (USA), 1986, 331 p. 22 INTERFACE/JANVIER-FÉVRIER 1989 LE FACTEUR D'AGRÉGATION DES PLAQUETTES Un médiateur de vie et de mort PAR GÉRARD PLANTE, MAREK ROIA-PLESZCZYNSKI ET PIERRE SIROIS Du cœur au cerveau en passant par les reins, le facteur d’agrégation des plaquettes se retrouve dans presque tous les tissus et organes de notre corps.Son importance ?Il est essentiel à la vie.Mais ce facteur est aussi en cause dans de nombreuses pathologies.C’est pourquoi il suscite un vif intérêt, d’autant plus que des antagonistes capables de bloquer son action ont récemment été mis au point.Gérard Plante est professeur au Département de physiologie et de biophysique de l’Université de Sherbrooke.Vice-doyen à la recherche, Marek Rola-PlesTjczynski est professeur au Département de pédiatrie, au Service d’immunologie de l’Université de Sherbrooke.Pierre Sirois est professeur au Département de pharmacologie de l’Université de Sherbrooke.Le facteur d’agrégation des plaquettes, mieux connues sous l’abréviation anglaise de P AF (.Platelet-Activating Factor) ou PAF-Acéther, a été découvert par Benvéniste et ses collaborateurs1 en 1972.Comme son nom l’indique, ce facteur agit sur l’agrégation des plaquettes, corpuscules essentiels à la formation du caillot sanguin.Pendant plus de dix ans, la publication dans laquelle Benvéniste avait exposé sa découverte est demeurée dans l’oubli.Mais récemment,la mise au point d’antagonistes du PAF2, substances naturelles ou chimiques capables de bloquer l’action de ce composé puissant, a remis le PAF au programme de la recherche dans les domaines de la biochimie, de la physiologie et de la pharmacologie.Les chercheurs œuvrant dans ces trois disciplines s’intéressent maintenant aux divers aspects des connaissances actuelles sur le PAF.Ils se posent trois questions.Premièrement : quels sont la structure chimique, les sites et les mécanismes biologiques de production du PAF (biochimie)?Deuxièmement : quels sont les effets de ce composé sur le fonctionnement normal (physiologie) des principaux organes cibles, ainsi que les conséquences morbides (pathophysiologie) pouvant résulter d’un déficit ou d’un excès de PAF en circulation ou dans les tissus?Troisièmement : quelles sont les caractéristiques et les propriétés des composés (pharmacologie) capables de réduire ou de bloquer complètement, chez l’animal de laboratoire et chez l’être humain, les actions physiologiques et pathophysiologiques du PAF?STRUCTURE CHIMIQUE ET SITES DE PRODUCTION Le PAF est un composé mixte, formé d’un sucre (le glycérol), auquel sont rattachées trois structures chimiques différentes : une chaîne lipidique dont le nombre d’atomes de carbone est variable ; un groupement phospho-choline ; un groupement acétate (d’où l’appellation PAF-Acéther), rattaché au carbone 2 de la molécule de glycérol (figure 1).La présence de ce groupement acétate est essentielle à la plupart des actions biologiques du PAF (les actions cardio-vasculaires surtout).Des études récentes ont montré que d’autres caractéristiques de cette molécule, en particulier la nature et la longueur de la chaîne lipidique, ou encore des modifications du groupe phospho-choline, pouvaient exercer une influence sur l’expression d’autres activités biologiques du PAF.La production de PAF est assurée par de nombreux tissus et organes ; les principaux sont schématisés à la figure 2.On peut noter l’importance et la diversité des sources potentielles de PAF : la plupart des cellules blanches (lymphocytes, monocytes et macrophages) et des plaquettes véhiculées dans les vaisseaux sanguins de l’organisme peuvent synthétiser et libérer le PAF, soit dans la circulation, soit directement à des sites spécifiques de l’appareil circulatoire3.Deux enzymes critiques contrôlent le métabolisme du PAF : l’acétyltransférase, d’une part, permet et contrôle l’ajout du groupement acétate sur la molécule de glycérol; l’acétylhydrolase, d’autre part, brise cette liaison importante, libère l’acétate et annihile de ce fait les principales propriétés biologiques du PAF.Il est intéressant et important de noter, tel qu’illustré à la figure 3, que la produc- FIGURE1 CHAÎNE LIPIDIQUE CH2 — 0 — CH2— R CH3 — C — 0 — CH I o GROUPEMENT I h ACÉTATE CH, — 0 — P — 0 — CHOLINE I OH GROUPEMENT PHOSPHO-CHOLINE Structure chimique du facteur d'agrégation des plaquettes (PAF).Le PAF est un composé mixte, formé d'un sucre (le glycérol), auquel sont rattachées trois structures chimiques différentes : une chaîne lipidique dont le nombre de carbone est variable, un groupement phospho-choline et un groupement acétate. INTERFACE / JANVIER-FÉVRIER 1989 23 tion de lyso-PAF, précurseur immédiat du PAF, est étroitement liée au métabolisme de l’acide arachidonique.En effet, on remarque que sous l’effet de l’enzyme régulateur phospholipase A2, pour chaque molécule de lyso-PAF synthétisée, une molécule d’acide arachidonique est libérée.Or, ce lipide important est le point de départ de la production de deux groupes de médiateurs, les prostaglandines et les leucotriènes4.Ce fait est d'une importance critique pour la compréhension des effets physiologiques du PAF, dont certains se caractérisent par des phénomènes d’antagonisme, ou même parfois, par des phénomènes d'amplification.Les uns et les autres peuvent fort bien s’expliquer par l’activation des voies métaboliques issues de l’acide arachidonique.En effet, les prostaglandines et les leucotriènes, deux classes générales de médiateurs, regroupent une bonne dizaine de composés biologiquement actifs, capables de neutraliser ou de magnifier les effets du PAF.EFFETS PHYSIOLOGIQUES ET PATHOPHYSIOLOGIQUES DU PAF Le PAF est l’un des derniers-nés de la lignée de plus en plus importante des hormones à production, à action et à dégradation locales, appelées autacoï-des.Cette lignée comprend aussi des molécules plus connues (angiotensine O, bardykinine, endothéline), possédant comme le PAF de puissants effets vasculaires.Il n’est donc pas surprenant de voir les actions physiologiques du PAF se manifester dans presque tous les tissus et organes du corps animal.En effet, ceux-ci reçoivent tous, à des degrés divers, la fraction du débit cardiaque qui est nécessaire à leurs fonctions propres.Toutefois, le terminus de la circulation sanguine dans chaque organe, ou microcirculation, ne répond pas de façon uniforme aux autacoïdes vaso-actifs, dont fait partie le PAF.Certains organes répondent ainsi de manière différente à l’administration intraveineuse de PAF ou d’antagonistes du PAF.Pour des raisons analogues, la production concomitante de métabolites de l’acide arachidonique et de lyso-PAF (tel que mentionné plus haut), peut varier d’un organe à l’autre, et expliquer par conséquent des effets physiologiques différents, spécifiques en quelque sorte de chaque organe.Il est donc apparu intéressant d’examiner : 1) les effets généraux du PAF FIGURE 2 CELLULES SANGUINES PLAQUETTES LYMPHOCYTES MONOCYTES MACROPHAGES I REIN -?PAF -?t ENDOTHÉLIUM VASCULAIRE La production du PAF est assurée par de nombreux organes dont les principaux sont le rein et l'endothélium vasculaire (tissu constitué par une seule couche de cellules qui tapisse l'intérieur des vaisseaux et du cœur).La plupart des cellules blanches (lymphocytes, monocytes et macrophages) et les plaquettes véhiculées dans les vaisseaux sanguins de l'organisme peuvent également synthétiser et libérer le PAF.chez l’animal intact, effets qui pourraient résulter, par exemple, d’une libération massive de ce médiateur par les cellules sanguines et influencer l’animal entier ; 2) les actions isolées du PAF sur un organe spécifique, actions qui, elles, pourraient correspondre davantage à des situations résultant d’une libération locale du PAF.Deux approches méthodologiques différentes permettent d’examiner ces éléments.Dans la première, on étudie les effets globaux du PAF.On choisit généralement d’administrer le médiateur par voie intraveineuse chez l’animal de laboratoire intact, celui-ci pouvant être éveillé ou anesthésié.Les changements mesurés dans ce contexte reflètent un ensemble d’actions physiologiques, résultant bien sûr d’effets directs du PAF, mais aussi, d’effets indirects, induits par la libération d’autres composés.La seconde approche méthodologique consiste à examiner plutôt les effets locaux du PAF sur un tissu ou un organe spécifique.Pour ce faire, on utilise une technique d’injection qui permet de livrer directement, dans l’organe choisi, la substance à tes- ter, en l’occurrence le PAF.Cette injection est faite chez l’animal intact, en général anesthésié, par l’introduction d’un cathéter dont l’extrémité est soigneusement placée dans l’artère de l’organe choisi, comme le poumon, le cœur ou le rein.Il s’agit dans ce cas d’une approche in vivo.Une autre approche consiste à travailler sur un organe isolé, prélevé d’un animal de laboratoire vivant, et étudié dans des conditions qui reproduisent le plus fidèlement possible la situation physiologique normale (température, milieu intérieur, etc.).Il s’agit dans ce cas d’une approche in vitro.Ces deux façons d’examiner les effets biologiques d’une substance donnée ont leurs avantages et leurs inconvénients, qu’il importe de garder en perspective au moment d’interpréter les résultats expérimentaux.Les principaux organes cibles et les conséquences des actions vasculaires du PAF sont décrits sommairement dans les paragraphes qui suivent.EFFETS DU PAF SUR LE SYSTÈME CARDIO-VASCULAIRE L’effet net du PAF, administré dans l’organisme normal, se caractérise par une perméabilisation globale de la microcirculation, qui laisse alors s’échapper le plasma du compartiment vasculaire vers les espaces extravasculaires, aussi appelés espaces interstitiels.Ce phénomène dramatique de perte de liquides (eau, protéines et sels minéraux) se solde par une baisse subite de la pression sanguine.Simultanément, ou indépendamment, le débit cardiaque chute, par suite de la baisse de la circulation de retour au cœur droit, ou d’un effet direct du PAF sur la perfusion coronarienne et la fonction même du muscle cardiaque.Le résultat global de ces fonctions est quand même très net : après une injection intraveineuse d’une dose suffisante de PAF (de l’ordre de 0,8 g/kg), un état de choc, souvent irréversible, s’installe5.En résumé, le PAF exerce certainement des actions pathophysiologiques sur le système cardiovasculaire, mais il possède peut-être des vertus physiologiques, sur le plan du contrôle de la perméabilité sélective de certains territoires de la microcirculation.C’est une hypothèse que des études subséquentes devront vérifier. 24 INTERFACE / JANVIER-FÉVRIER 1989 FIGURE 3 PHOSPHOLIPASE A2 ACÉTYLTRANSFÉRASE ACÉTYLHYDROLASE ACETATE ACETATE LEUCOTRIÈNES LYSO-PAF PROSTAGLANDINES ACIDE ARACHIDONIQUE PHOSPHOLIPIDES MEMBRANAIRES Synthèse et dégradation du PAF.Deux enzymes critiques contrôlent le métabolisme du PAF : l'acétyltransférase, d'une part, permet et contrôle l'ajout du groupement acétate sur la molécule de glycérol ; l'acétylhydrolase, d'autre part, brise cette liaison importante, libère l'acétate et annihile de ce fait les principales propriétés biologiques du PAR Il est intéressant de noter que la production de lyso-PAF, précurseur immédiat du PAF, est étroitement liée au métabolisme de l'acide arachidonique.En effet, pour chaque molécule de lyso-PAF synthétisée à partir des phospholipides membranaires, une molécule d'acide arachidonique est libérée.Or, ce lipide est le point de départ de la production de deux groupes de médiateurs, les prostaglandines et les leucotriènes.EFFETS DU PAF SUR LE SYSTEME RESPIRATOIRE La libre circulation de l’oxygène vers le sang des capillaires pulmonaires, et celle du gaz carbonique, du sang vers l’atmosphère extérieure, sont assurées par l’ouverture des bronches.Le système bronchique, rigide sur une partie de son trajet, est semi-rigide sur la plus grande partie de sa longueur totale.Les muscles qui entourent cette dernière partie se contractent ou se dilatent, normalement de façon harmonieuse, pour assurer la libre circulation de l’oxygène et du gaz carbonique.Plusieurs médiateurs contrôlent les fonctions du muscle péribronchique.On a récemment montré que le PAF augmente la réactivité du muscle de l’arbre bronchique6, action qui se solde par l’induction d’un bronchospasme, phénomène de contraction pathologique qui donne l’asthme bronchique.Ce phénomène peut conduire à la détresse respiratoire, caractérisant de nombreuses conditions cliniques, telle l’anaphylaxie pulmonaire, une situation potentiellement mortelle.En ce qui concerne le système respiratoire, il semble donc que le PAF ait davantage d’effets pathophysiologiques que physiologiques.EFFETS DU PAF SUR LE REIN Le rein occupe une place centrale dans le maintien du milieu intérieur.Grâce à l’abondante circulation qui y prend place (20 p.cent du débit cardiaque), cet organe effectue des opérations de filtration sanguine et de récupération sélective du filtrat ainsi formé, qui sont de l’ordre de 145 litres par jour chez la personne normale.E apparaît donc évident que de toutes petites variations de la circulation rénale et du processus de filtration sont susceptibles de débalancer les opérations vitales de filtration-réabsorption rénales.Or, ces opérations sont sous l’influence dominante de nombreux agents humoraux (angiotensine II, vasopressine, prostaglandines, leucotriènes, kinines).Le PAF est normalement produit par le rein et nous avons récemment démontré que ce médiateur diminue la circulation rénale et la filtration, tout en augmentant le processus de réabsorption du filtrat glomérulaire.Ces effets se traduisent par une diminution marquée de la formation d’urine et une accumulation dans le sang de certains déchets métaboliques, ce qui correspond à un état d’insuffisance rénale aiguë7.D’autres évidences montrent aussi que le PAF pourrait exercer une action délétère chronique sur la fonction du rein, aggravant, entre autres, l’hypertension artérielle qui caractérise certaines formes d’insuffisance rénale chronique notées chez l’animal de laboratoire.En résumé, le PAF exerce sur le rein des actions pathophysiologiques.Les rôles physiologiques éventuels de ce médiateur sur la fonction rénale sont en cours d’étude.Comme nous l’avons souligné pour le système cardiovasculaire, il est vraisemblable que le PAF participe à la modulation normale de la microcirculation du rein, vu ses actions importantes sur les vaisseaux sanguins.EFFETS DU PAF SUR LE SYSTÈME HÉMATOLOGIQUE Le facteur d’agrégation plaquettaire tient son nom des importantes actions hématologiques qu’il exerce, en particulier sur le système de coagulation sanguine, faisant intervenir, bien sûr, les plaquettes.En plus d’activer la coagulation du sang, probablement en situation physiologique et certainement dans certaines conditions morbides caractérisées par une coagulation intravasculaire disséminée8, le PAF participe aux phénomènes généraux de l’inflammation par le biais de ses actions sur les globules blancs (leukocytes).E y induit, entre autres, la production d’interleukine, un médiateur critique des réactions immunitaires.Le PAF intervient très probablement aussi dans les phénomènes de rejet de greffe d’organe9.Vraisemblablement physiologiques au départ, les actions du PAF sur le système hématologique et immunitaire jouent, de toute évidence, un rôle critique dans de nombreux états pathophysiologiques.EFFETS DU PAF SUR D'AUTRES SYSTÈMES DE L'ORGANISME Parmi les autres organes qui peuvent être la cible du PAF, il faut mentionner les systèmes digestif et nerveux central.On a rapporté que le PAF induit la formation d’ulcère sur la paroi muqueuse de l’estomac et de l’intestin10.De plus, ce médiateur semble jouer un rôle INTERFACE/JANVIER-FEVRIER 1989 25 important dans le développement de l’inflammation du pancréas (pancréatite), un organe digestif critique pour les processus de digestion et d’absorption intestinales.À ce chapitre, le PAF exerce donc des actions potentiellement importantes en pathophysiologie digestive.L’œdème du cerveau, qui représente l’aboutissement terminal de la plupart des accidents vasculaires de nature ischémique (thromboses et embolies cérébrales), semble induit, du moins en partie, par le PAF.Il apparaît que la perméabilisation excessive de la microcirculation cérébrale, qui suit l’interruption brutale du flot sanguin, résulte d’une libération de PAF par les cellules endothéliales des parois des vaisseaux, ainsi que par les cellules et les plaquettes sanguines11.LES ANTAGONISTES DU PAF L’intérêt que le monde scientifique a montré à l’égard du PAF au cours des dernières années, résulte en grande partie de la mise au point des antagonistes de ce médiateur.Ceux-ci représentent, d’une part, des outils précieux pour l’étude des effets physiologiques du PAF et, d’autre part, des armes thérapeutiques potentielles.Ces antagonistes sont en effet capables de bloquer certains des effets délétères du PAF lorsque celui-ci est produit et libéré en excès.Le PAF est un composé difficile à mesurer dans les liquides biologiques et les tissus, de telle sorte qu’il existe peu d’études où l’on a pu corréler, à ce jour, les effets imputés au PAF, à des dosages précis de ce médiateur dans les tissus qu’il est censé influencer.Nombre des antagonistes du PAF actuellement disponibles en pharmacologie, sont des antagonistes des récepteurs cellulaires.Les récepteurs situés sur la membrane des cellules constituent, pour la majorité des hormones et autacoïdes, la première étape de leur action biologique finale.C’est pourquoi beaucoup d’efforts ont été faits en pharmacologie, au cours des dernières années, pour concevoir des composés capables de se lier à divers récepteurs dans le but de les neutraliser, atténuant ou empêchant ainsi les actions des hormones et autacoïdes.Les antagonistes des récepteurs du PAF se subdivisent en deux catégories : les antagonistes naturels, comme les gingkolides et la kadsurénone, qui n’ont aucune ressemblance avec la structure chimique du PAF, et les antagonistes de synthèse, qui eux, possèdent une chimie beaucoup plus apparentée au PAF l2.L’utilisation de ces composés est à la base de la plupart des découvertes récentes concernant les effets physiologiques et pathophysiologiques du PAF sur l’organisme intact et sur des préparations expérimentales isolées.Le développement de certaines de ces molécules, à des fins thérapeutiques, évolue très rapidement depuis quelques années, comme en font foi de nombreux résultats positifs obtenus chez l’animal de laboratoire.Il est possible de bloquer entièrement les effets cardiovasculaires du PAF avec la plupart des antagonistes décrits plus haut.Nous avons pu étudier l’effet protecteur du BN52021, un dérivé des gingkolides, sur l’effondrement de la pression artérielle chez l’animal de laboratoire, phénomène classiquement observé après l’injection de PAF chez cet animal.Cet antagoniste naturel prévient la baisse de tension artérielle et la chute du débit sanguin rénal, normalement attendues dans ces conditions et conduisant à l’insuffisance rénale7.Qu’en est-il des manifestations pulmonaires du PAF?Il est également possible de bloquer les effets bronchoconstricteurs du PAF, qui produisent l’asthme, en utilisant les antagonistes de ce médiateur chez l’animal de laboratoire6.Malheureusement, il n’existe pas encore, à ce jour, d’études cliniques permettant d’envisager une utilisation bénéfique des antagonistes du PAF pour le traitement de l’asthme des détresses respiratoires d’origine anaphylactique (réactions allergiques).Nous avons montré récemment que le BN52021, un antagoniste spécifique des récepteurs du PAF, protège le rein contre l’ischémie aiguë provoquée par une obstruction complète de l’artère rénale.L’arrêt complet du flot sanguin au niveau d’un organe très demandant en oxygène, s’accompagne habituellement de lésions de nécrose irréversibles, ne permettant pas la reprise de fonction.Or, l’administration d’un antagoniste du PAF, dans de pareilles conditions, est associée à une reprise de fonction circulatoire rénale de plus de 50 p.cent13.Ces observations nous paraissent intéressantes en regard de 1’utilisation éventuelle de tels antagonistes, en prévention ou en thérapeutique active, soit dans les cas d'insuffisance rénale aiguë survenant à la suite d’accidents vasculaires majeurs, soit encore, en association avec les techniques de préservation d’organe pour fins de transplantation l3.Au chapitre des maladies du tube digestif et du système nerveux central, les actions des antagonistes du PAF permettent également d’envisager des progrès intéressants, puisque déjà chez l’animal de laboratoire, il est possible d’enrayer les complications œdémateuses et hémorragiques délétères qu’entraîne la pancréatite aiguë.De manière similaire, l’administration de BN52021 diminue ou empêche le développement de l’œdème cérébral qui suit un accident ischémique expérimental, superposable à la thrombose cérébrale aiguë rencontrée si fréquemment chez l’être humain 11.PERSPECTIVES ET CONCLUSIONS À l’exemple d’autres chapitres de l’histoire de la médecine, l’épisode PAF est intéressant à plusieurs égards.D’abord, il s’est écoulé une dizaine d’années après la découverte du PAF, un médiateur d’importance capitale, avant que la communauté scientifique ne s’intéresse à l’étude de ses effets biologiques.Ensuite, la découverte des effets physiologiques du PAF grâce à la mise au point d’antagonistes est survenue bien avant l’établissement de techniques précises de mesure du PAF dans les liquides biologiques.Enfin, les résultats préliminaires issus de l’expérimentation animale génèrent un grand espoir quant à l’utilisation éventuelle des antagonistes du PAF dans le traitement de conditions morbides ayant tenu si longtemps en échec la thérapeutique médicale.Parmi celles-ci, on trouve : le choc irréversible, l’infarctus du myocarde, l’anaphylaxie pulmonaire, l’insuffisance rénale aiguë, la pancréatite aiguë hémorragique, l’oedème cérébral et le rejet de greffe.Les antagonistes du PAF ont certes permis des progrès considérables dans les domaines de la physiologie et de la pathophysiologie reliés aux médiateurs lipidiques.Leur intérêt évident pour les champs de la physiopathologie et de la thérapeutique humaine va requérir encore beaucoup de temps, d’énergie et de crédits à la recherche.¦ Références 1.BENVÉNISTE, J„ HENSON, P.M.et COCH-RANE, C.G.« Leukocyte-Dependent Histamine Release from Rabbit Platelets.The Role of IgE, Basophils and a Platelet-Activating Factor »,J.Exp.Med., vol.136, 1972, p.1356.2.BRAQUET, P.« The Gingkolides : Potent Platelet-Activating Factor Antagonists Isolated from Gingko Biloba l : Chemistry, Pharmacology and Clinical Applications », Drugs of the Future, vol.12, 1987, p.643.3.DIAGNE, A., FAUVEL, J., RECORD, M., CHAP, H.et DOUSTE-BLAZY, L.« Studies on Ether Phospholipids : II.Comparative Composition of Various Tissues from Human, Rat and Guinea Pig », Biochim.Biophys.Acta, vol.793, 1984, p.221.4.SCHLONDORFF, D.et NEUWIRTH, R.« Platelet-Activating Factor and Kidney », Am.J.Physiol., vol.251, p.FI.5.BESSIN, P., BONNET, J., APFFEL, D., SOULARD, C., DESGROUX, L., PELAS, I.et BENVÉNISTE, J.« Acute Circulatory Collapse Caused by Platelet-Activating Factor (PAF-Acether) in Dogs », Eur.J.Pharmacol., vol.86, 1983, p.403.6.JANCAR, S., THÉRIAULT, P., BRAQUET, P.et SIROIS, P.« Comparative Effects of Platelet-Activating Factor, Leukotriene D4 and Histamine on Guinea Pig Trachea, Bronchus and Lung Parenchyma », Prostaglandins, vol.33, 1987, p.199.7.PLANTE, G.E., HÉBERT, R.L., LAMOU-REUX, C., BRAQUET, P.et SIROIS, P.« Hemodynamic Effects of PAF-Acether », Pharmacol.Res.Commun., vol.18, 1986, p.173.8.BOURGAIN, R.H., MAES, L., BRAQUET, P., ANDRIES, R., TOUQUI, L.et BRAQUET, M.« The Effect of 1-O-alky 1-2-acetyl-sn-glycero-3-phosphocholine (PAF-Acether) on the Arterial Wall », Prostaglandins, vol.30, 1985, p.185.9.FOEGH, M.L., KHIRABADI, B.S., ROW-LES, J.R., BRAQUET, P.et RAMWELL, P.W.« Prolongation of Cardiac Allograft Survival with BN-52021, a Specific Antagonist of Platelet-Activating Factor », Transplantation, vol.42, 1986, p.86.10.GONZALEZ-CRUSSI, F.et HSUEH, W.« Experimental Model of Ischemic Bowel Necrosis.The Role of Platelet-Activating Factor and Endotoxin », Am.J.Pathol., vol.112, 1983, p.127.11.BAZAN, N.G., PANETTA, T., MARCHE-SELLI, V.L.et SPINNEWYN, B.A.« A Platelet-Activating Factor Antagonist Inhibits the Cerebral Blood Flow and Neurochemical Changes Caused by Cerebral Injury-Reperfusion », dans Gingkolides, Chemistry, Biology, Pharmacology and Clinical Perspectives, P.Braquet, J.R.Prous Science Pub., 1988, p.681-685.12.BRAQUET, P.et GODFROID, J.J.« PAF-Acether Specific Binding Sites : 2.Design of Specific Antagonists », Trends Pharmacol.Sci., vol.7, 1986, p.397.13.PLANTE, G.E., SIROIS, P.et BRAQUET, P.« Platelet Activating Factor Antagonism with BN52021 Protects the Kidney Against Acute Ischemic Injury », Prostaglandins, Leukotrie-nes and Essential Fatty Acids, vol.34, 1988, p.53. 26 MODEM INTERFACE/JANVIER-FÉVRIER 1989 Marie Larochelle est cher-cheure au Département de didactique à l’Université Laval.Jacques Désautels est professeur agrégé au Département de didactique de l’Université iMval.A propos du « quotient scientifique » des jeunes Québécois et Québécoises PAR MARIE LAROCHELLE ET JACQUES DÉSAUTELS Au cours de l’automne, les médias ont fait largement écho aux résultats d’une recherche portant sur les performances des jeunes Québécois et Québécoises à des tests dits de science.Selon le responsable de cette étude, Gilles Dussault, la situation serait alarmante.Dans le présent article, les auteurs interrogent la légitimité des fondements épistémologiques de cette étude et des recommandations dont elle était accompagnée.1 y a quelques mois à peine, les discours sur la douance laissaient présager des lendemains idylliques : ici et là se trouveraient des « p’tits doudous » et des « p’tites doudoues » (surnom donné aux doués et douées) .aux Q.I.prometteurs jtour assurer la faisabilité des projets scientifico-techniques de l’État québécois.Il y a quelques semaines, cependant, la romance en prenait pour son rhume : nos jeunes auraient un « Q.S.»1 (quotient scientifique) déplorable, ils n’auraient rien pigé aux enseignements de la science, en fait ce seraient de fieffés cancres ! Pourtant, si l’on s’amuse un tant soit peu à scruter la représentation qu’ont les élèves de la science et celle qui cautionne l’usage de tests, qu’observe-t-on ?Est-ce que l’une et l’autre ne partageraient pas des plages communes, voire la même croyance naive en une science qui décrit l’essence même des « choses » plutôt que nos interactions avec celles-ci ?Et, si tel était le cas, ne faudrait-il pas réviser la distribution du statut de cancre ?Ou à tout le moins doter celui-ci d’ubiquité ?Illustrons ces propos à saveur, avouons-le, polémique.OÙ LES PLUS CANCRES NE SONT PAS TOUJOURS CEUX ET CELLES QU'ON PENSE.Nous connaissons tous cette réalité amère : l’on est dit doué ou pas, selon ce qu’un test en décide ! Tests de Q.I.ou tests de Q.S., leur prétention profonde, toujours la même et maintes fois déboutée, c’est de mesurer l’intelligence ou, si l’on préfère une autre métaphore, le « bagage » de connaissances.Malgré le contenu de certains de ces tests, ils n’en permettent pas moins, selon leurs promoteurs, de séparer le bon grain de l’ivraie, d’identifier les personnes atteintes de douance (intellectuelle, scientifique, etc.) et celles qui résistent au virus.Le caractère présumé scientifique du procédé garantit la légitimité des opérations ; entendre par là : usage de calculs, de chiffres et parfois de mathématiques.En d’autres termes, à partir d’une situation d’interactions entre un instrument (le test) et une personne testée, on conclut sur ce que cette personne est ou n’est pas, possède ou ne possède pas.Faisons une digression et voyons comment, en science, une telle situation peut être interprétée.La fin du XIXe siècle et le début du XXe siècle ont marqué un tournant fatal pour les représentations que les scientifiques avaient de leurs pratiques : l’édifice théorique de la physique se lézardait sous l’impact des coups de bélier conceptuels de la ther- modynamique et de la microphysique.En effet, les microphysiciens, notamment, en montrant que la science n’étudiait que ce qu’elle perturbait, faisaient crouler l’idée d’une science qui croyait révéler la réalité.Autrement dit, le fait de mesurer perturbait le phénomène, et la connaissance ainsi obtenue nous informait non pas sur ledit phénomène, mais sur l’interaction entre un instrument de mesure et le phénomène perturbé, c’est-à-dire l’objet d’étude.Adieu idée de réalité, idée de divulgation et même idée de matière2 : la science n’étudiant pas la réalité telle que perçue par les sens, l’expérience ne dévoilait pas les charmes réglés de Dame Nature et les chercheurs n’étaient pas des reproducteurs, mais bien des producteurs de phénomènes.Leurs objets d’étude étaient des objets idéalisés, modélisés, et cette activité de modélisation reposait sur nombre d’interprétations théoriques et instrumentales, à la fois scientifiques et extra-scientifiques.Par là, la mise à l’épreuve de cette modélisation permettait, somme toute, la production de connaissances ne portant que sur cette modélisation, sa fécondité et ses impasses.L’idée d’une nature « à l’ordre » reprenait sa juste place dans les rangs des postulats inhérents au travail scientifique, de même que dans ceux qui caractérisent l’imaginaire collectif d’une société à une époque donnée3.Revenons aux thèses concernant le quotient et surtout aux conclusions auxquelles elles aboutissent, à savoir que les résultats obtenus au cours d’une situation d’interaction nous informeraient non pas sur cette situation (ni sur les conditions de sa construction), mais sur l’un de ses termes, en l’occurrence la personne testée.Étrange, non ?Certes, ce glissement de sens n’en est pas à sa première dénonciation et plusieurs travaux mettent au jour ses vices et ses retards épistémologiques, ainsi que les dégâts pédagogiques qu’il entraîne4.Cependant, c’est un autre aspect de ce glissement qui retiendra notre attention ici, soit la représentation de la science qui supporte ces thèses, leurs applications et ce qu’on leur fait dire.Nous avons vu plus haut que la science ne s’intéresse pas à la réalité.Elle se construit une réalité à partir de ce qu’elle en perçoit.Dans cet ordre d’idées, les concepts scientifiques ne font pas référence à des entités palpables : ils sont des définitions opératoires (orientées vers l’action) ou des définitions opérationnelles (informant sur les opérations), elles-mêmes tributaires d’un réseau conceptuel établi.Ils ne logent donc pas dans une nature généreuse à souhait, mais plutôt dans l’imagerie scientifique.Pas plus qu’on ne voit la force gravitationnelle, on ne voit le champ iiiBMl **-—minftrt'i INTERFACE / JANVIER-FÉVRIER 1989 magnétique : ce qu’on voit est la chute d’un corps ou le déplacement de l’aiguille d’une boussole.De même, la masse inerte n’est pas une propriété intrinsèque des objets.Ce concept tire sa signification des relations qu’il entretient avec les concepts de force et d’accélération, relations formalisées dans l’équation force = masse x accélération.Un usage pertinent de ce concept suppose donc la compréhension du cadre de référence qui a permis sa formulation.En faisait fi de ces contraintes de production et de légitimité du savoir scientifique, les discours sur les Q.I.et les Q.S.tombent à pieds joints dans un réalisme naïf qui les conduit : a) à masquer les postulats de base à partir desquels ils ont été construits ; b) à prendre la représentation d’un phénomène ainsi construit pour la réalité ; c) en conséquence, à « substantialiser » les concepts, c’est-à-dire à leur imputer une localisation matérielle chez la personne testée.Or, ces discours sur les Q.I.et les Q.S.sont faits par des adultes que l’on suppose familiers avec les connaissances en mathématique et en science.N’ont-ils donc rien compris à ces savoirs qui semblent aussi faire problème à nos jeunes ?Sont-ils des cancres?Lorsqu’on examine, à partir de travaux récents en didactique des sciences, le discours de jeunes adolescents et même celui de jeunes adultes en rapport avec la nature du savoir scientifique, on ne peut s’empêcher d’observer des similitudes avec les discours précités.On retrouve ainsi : a) La croyance selon laquelle les concepts que le savoir scientifique recouvre ont une existence matérielle, comme l’illustre le discours d’un élève de cégep à propos du concept de particule : « Une particule telle que définie existe réellement.Les particules sont déjà là.A ce moment-là, ce n’est pas un physicien qui les a créées pour expliquer des phénomènes.Elles sont déjà là5.» Ou encore, selon laquelle ces concepts sont des propriétés des matériaux, comme l'explique cette élève du secondaire qui propose d’utiliser le papier d’aluminium pour conserver la fraîcheur d’un objet, car « .les matériaux comme la laine ont tendance à réchauffer quelque chose6.» Est-il surprenant alors que ces jeunes aient de la difficulté à saisir les concepts scientifiques qui font l’objet des tests ?b) La prégnance de l’idée selon laquelle le savoir scientifique est le reflet de la réalité, comme le pense cet adolescent invité à commenter l’idée de loi en science : « Une loi de la nature, c’est ce qu’il y a.Tu n’as pas le choix de le croire ou non, c’est ça.Les lois de la nature, ce sont les choses comme elles sont réellement (.).On ne peut pas changer ça.C’est la réalité, en fait.7 » En somme, à l’instar des faiseurs de discours sur les Q.I.ou les Q.S., qui finissent par loger leurs concepts de travail dans la personne testée, les élèves logeraient les concepts scientifiques dans la nature.Ils seraient ainsi conduits à penser que la principale compétence requise pour produire ces connaissances tient à l’aptitude à « constater le spectacle » d’une réalité pré-existante et déjà organisée.Sont-ils des cancres ?Si oui, pourquoi font-ils la manchette, eux, et pas les autres ?Sinon, comment expliquer, chez les uns et chez les autres, cette tendance à « substantialiser » un savoir particulièrement abstrait ?Ce n’est certes pas, on en conviendra aisément, dans les thèses sur les Q.I.ou les Q.S.qu’on trouvera matière à réflexion.Il nous faut donc de nouveau faire une digression.LES JEUX DE LA CONNAISSANCE Imaginons que nous vous invitions à participer à un jeu qui vous est étranger, le tennis par exemple, sans vous préciser les règles de son déroulement ni ses finalités.D est possible que vous ayez une certaine connaissance du jeu de badminton et que vous tentiez de « faire avec ».Il est possible aussi qu’aucun de ces jeux ne vous soit familier et que vous vous trouviez dans l’inconfortable position de jouer (surtout si on vous y oblige) en inférant coup par coup les règles de ce jeu.Vous pouvez aussi être amené à penser que le sens à donner à ce jeu vous échappera indéfiniment ou que ce jeu n’a tout simplement pas de sens, ou encore, qu’il n’est accessible qu’à des intellects particuliers ! Dans ce contexte, il est plausible de penser que votre apprentissage du jeu en question ne se déroulera pas sans heurts ni grincements conceptuels, ni même sans ratés.C’est presque une ROBERT ASCAH, CECM INTERFACE / JANVIER-FÉVRIER 1989 LES PERFORMANCES DES JEUNES QUÉBÉCOIS ET QUÉBÉCOISES EN SCIENCES Plus de 7000 élèves et 550 professeurs de 227 écoles du Québec ont participé, au printemps 1986, à une étude sur l'enseignement et l'apprentissage des sciences au primaire et au secondaire.Sous l'égide de l'Association internationale pour l'évaluation du rendement scolaire (IEA), 23 autres pays de 4 continents ont mené la même étude.Un rapport préliminaire publié par l'IEA au début de 1988 permet de comparer les résultats québécois à ceux de 9 à 23 pays, selon les parties du dossier.Gilles Dussault, de l'Université du Québec à Hull, était coordonnateur du projet pour le Québec.Les élèves québécois de la 5e année du primaire obtiennent, au questionnaire de sciences principal, des résultats qui les classent au 4e rang de 16 pays, tout juste derrière le Japon, la Corée du Sud et la Finlande, devant le Canada anglais et loin devant l'Australie, la Pologne, l'Angleterre et Hong-Kong.En 3e année du secondaire, la performance des élèves québécois accuse un recul relatif par rapport à celle des élèves de 9e année des autres pays : le Québec glisse au 7e rang des nations, cède le pas au Canada anglais et voit la marge qui le séparait de l'Australie, de la Pologne et de l'Angleterre se rétrécir grandement.En 5e année du secondaire, le recul du Québec devient absolu.A un questionnaire général de sciences, tout autant qu'à des questionnaires spécialisés de chimie et de physique, les élèves du Québec se classent au tout dernier rang de 13 ou 14 pays.A un questionnaire spécialisé de biologie, le Québec est le 13e sur 14, ne devançant que les États-Unis.Il est donc recommandé que l'on généralise un cours de sciences obligatoire en 2e année du secondaire; que non seulement on maintienne, mais qu'on enrichisse les programmes de chimie et de physique des 3e et 4e années du secondaire et que l'on redonne à l'enseignement des sciences le temps qu'on lui a amputé il y a quelques années.Donner suite à ces recommandations permettrait à nos élèves du secondaire d'avoir, en sciences, une performance qui à tout le moins se rapprocherait de la moyenne de celles des élèves des autres pays industrialisés.Source DUSSAULT, G.L'enseignement des sciences dans les écoles secondaires du Québec, bilan, recommandations et interrogations, lexte préparé pour le Sommet québécois delà technologie tenu à Montréal du 12 au 14 octobre 1988.banalité que de souligner comment un observateur averti ne s’y laisserait pas prendre et comprendrait que l’aspect critique du jeu ne tient ni à une déficience ni à une lacune cognitive qui vous appartiendraient, mais bien à l’absence d’informations sur les règles qui contribuent à définir le jeu.Comment pourrait-on vous reprocher de ne pas savoir ce qu’on ne vous a pas appris ! Une situation d’apprentissage d’un nouveau jeu de connaissance n’est guère différente.Et elle est peut-être encore plus critique lorsque les règles et le déroulement du jeu sont particulièrement contre-intuitifs, comme le jeu de la connaissance scientifique, même si on y emploie des termes apparemment similaires à ceux du jeu de la connaissance ordinaire, tels que force, énergie, lumière.En outre, la confusion peut être accrue par les contingences du jeu.Pensons aux contextes de jeu où les interactions ne sont ni facultatives ni sporadiques, mais obligatoires et fréquentes, comme dans le contexte scolaire.Saura-t-on spontanément distinguer l’autorité rationnelle (compétence) dont peut faire montre l’enseignant de l’autorité rationnelle qu’il exerce pour maintenir un certain climat de communication dans la classe ?En fait, il s’agit d’un jeu très complexe et, comme le soupçonnent quelques chercheurs en didactique des sciences8, sa non-transparence peut conduire les élèves à confondre les types d’autorité et à penser, par exemple, que la validité d’un savoir dépend du seul pouvoir ou de la position sociale de celui qui le propose.Les élèves sont-ils informés de cela ?Connaissent-ils les règles du jeu scientifique, les enjeux que représentent leurs définitions ainsi que les difficultés conceptuelles que tous ces aspects soulèvent, même pour les plus expérimentés en la matière?Sont-ils au fait de la socialité inévitable de ce jeu dans sa production comme dans ses produits?En deux mots, ont-ils l’occasion de jouer délibérément ?Certaines personnes répliqueront peut-être qu’on leur présente des règles telles que la « méthode scientifique ».Mais qu’est-ce que cette méthode ?Se réduit-elle au schéma caricatural O-H-E-R-I-C (observation, hypothèse, etc.), qui caractérise bien plus le procédé de communication d’un travail effectué que le déploiement de celui-ci ?Faut-il rappeler le débat autour du projet positiviste, qui prétendait à baliser le chemin conduisant à coup sûr de l’ignorance à la connaissance ! Nos élèves sont-ils informés de ces discussions qui ont marqué et marquent encore les échanges au sein de la communauté scientifique ?Que savent-ils de cette réflexion critique qui constitue l’une des dimensions du travail scientifique ?Comment pourront-ils comprendre les produits de ce travail s’ils ignorent leur contexte de production ?Comment peut-on s’attendre, par exemple, à ce qu’ils retiennent les lois scientifiques s’ils ignorent tout de la construction du sens de ces lois, comme le souligne si bien Isabelle Stengers : « Pourquoi doit-on, par priorité, « apprendre les lois » dans le secondaire : c’est la première chose qui est oubliée ; et c’est ce qui effectivement appelle un enseignement dogmatique, parce que qui dit loi dit simplification gigantesque, appareils extrêmement artificiels, réduction du problème à ce que l’appareil en peut traiter.C’est-à-dire quelque chose dont, si on l’explique vraiment, on se demandera de quoi il y a loi, en fait9.» Bref, n’est-il pas illusoire d’espérer que nos élèves comprennent la spécificité du savoir scientifique si le jeu de la connaissance auquel on les convie est à la fois factice, désuet et cachottier ?Plusieurs écrits de scientifiques contemporains critiquent d’ailleurs, à tort ou à raison, la représentation traditionnelle de la science, qui auréole ce jeu.Nous pensons ici aux Atlan, d’Es-pagnat, Jacquard, Kuhn, Knorr-Cetina, Laborit, Lewontin, Pri-gogine, Stengers, pour n’en nommer que quelques-uns.L’ignorance des règles du jeu n’est pas la seule interprétation plausible des difficultés qu’éprouvent nombre d’élèves dans leur apprentissage des sciences.A ce jeu, ils apportent ce qu’ils savent déjà en termes de contenus, d’instruments et d’habitudes de connaissance.Explorons brièvement cette autre piste d’interprétation.Comme nous en avons tous fait l’expérience, nous n’attendons pas les premiers cours de science pour élaborer des explications .au sujet des phénomènes constitutifs de notre quotidien.Or, et ce fut là un programme de recherches particulèrement fécond en didactique des sciences* 1 2 3 4 5 6 7 8 9 l0 11, ces conceptions, dites spontanées parce qu’élaborées avant tout enseignement formel, persisteraient même après la fréquentation d’un tel enseignement.Loin de nous l’idée de les anéantir, car il s’agit de conceptions pertinentes et viables à l’intérieur d’un certain jeu de connaissance.Mais, appliquées sans discernement à un autre jeu, elles peuvent compliquer sérieusement la compréhension de celui-ci.Illustrons ceci plus simplement : si, pour sortir d’une pièce, la physicienne devait s’interroger sur la valeur de ses perceptions (s’agit-il d’une porte, etc.), sur ce qu’est l’espace, s’il est continu ou discontinu, en bref, si elle s’interrogeait à partir du savoir scientifique sur le sujet, il y a fort à parier qu’elle renoncerait à son projet.D s’agit là de règles et de théories non pertinentes par rapport à l’objectif visé ! Par contre si, dans l’exercice de sa profession, elle impute aux électrons le statut d’existence matérielle qu’elle attribue aux objets courants, elle risque de nouveau de buter sur des difficultés conceptuelles insurmontables eu égard, comme nous l’avons indiqué, à la nature bien particulière des concepts scientifiques.En somme, il s’agit non seulement d’apprendre à discriminer les jeux de la connaissance mais également d’interroger son propre savoir, d’en connaître les présupposés et les limites.Or, cet exercice intellectuel n’est pas simple et l’histoire des sciences montre qu’il a constitué pour bien des scientifiques un obstacle qu’ils n’ont pu surmonter.Dans cette perspective, est-ce bien pertinent de miser, comme d’aucuns le laissent entendre", sur une augmentation de la « densité » des programmes, ou sur un accroissement du nombre d’heures de cours pendant lesquels on continuera à montrer le « vrai » et le « faux », pour que s’évanouissent par enchantement les difficultés d’apprentissage des élèves ?Ces solutions ne sont-elles pas simplistes, voire triviales?Ne schématisent-elles pas indûment la complexité de l’acte de connaître tout comme celui d’enseigner?Et puis, histoire de terminer sur la note d’ironie que nous nous étions proposés de donner à cet article, mais que nous n’avons pu maintenir, ces solutions sont-elles seulement légitimes si l’on pense à la représentation de la science qui supporte les travaux les cautionnant ?Ne peut-on pas penser que ces travaux nous informent bien plus sur la compréhension de la science qu’en ont ses promoteurs que sur celle qu’en ont les élèves ?¦ Remerciements Nous tenons à remercier la professeure Christiane Edom, qui a bien voulu relire ce texte et nous signaler les passages alambiqués.Nous en avons cependant conservé quelques-uns, comme vous avez pu le constater ! Notes et références 1.Nous empruntons cette expression au journaliste Pierre Cayouette, utilisée dans un article paru dans Le Devoir, le jeudi 29 septembre 1988.Par ailleurs, nous avons réagi une première fois à ces allégations en montrant comment, dans le rapport Dussault, on établissait des comparaisons sans fondements entre les performances des élèves de divers pays (voir Le Devoir, 25 octobre 1988).2.POINCARÉ, Henri.La science et l’hypothèse, Paris, Flammarion, collection « Champs », 1968 (1902), p.247-250.3.Le numéro 12 de la revue Le Genre Humain (printemps-été 1985) est particulièrement éclairant sur les usages de l’idée de nature.4.Voir, entre autres : BERTHELOT, Jocelyn.L’école de son rang, Québec, Centrale de l’enseignement du Québec, 1987.5.Rapporté dans : BENYAMNA, Salah.La prégnance du modèle particulaire dans les représentations d'étudiants en science à l'égard de phénomènes naturels, thèse de doctorat, Québec, Université Laval, Département des sciences de l’éducation, 1987, p.301.6.Rapporté dans : ERICKSON, Gaalen et TIBERGHIEN, Andrée.« Heat and Temperature » dans DRIVER, R., GUESNE, E.et TIBERGHIEN, A.(éd.).Children's Ideas in Science, Milton Keynes, Philadelphia, Open University Press, 1985, p.71.7.Rapporté dans : LAROCHELLE, Marie et DÉSAUTELS, Jacques.À propos de la nature du savoir scientifique et de son procès : les modèles épistémologiques spontanés des adolescent-e-s, rapport de recherche, Ottawa, Conseil de recherches en sciences humaines du Canada, 1988, p.119.8.Voir : RUSSELL, Thomas.« Analyzing Arguments in Science Classroom Discourse : Can Teachers’ Question Distort Scientific Autority?», Journal of Research in Science Teaching, vol.20, n° 1, 1983, p.27-45.9.STENGERS, Isabelle.« L’histoire des sciences et comment s’en servir », dans Sens et place des connaissances dans la société, Paris, Éditions du Centre national de la recherche scientifique, 1986, p.144.10.Outre l’ouvrage cité à la note 5, voir : DRIVER, R.et ERICKSON, G.« Theories-in-Action : Some Theoretical and Empirical Issues in the Study of Students’ Conceptual Frameworks in Science », Studies in Science Education, n° 10, 1983, p.37-60.GILBERT, J.K.et WATTS, M.D.« Concepts, Misconceptions and Alternative Conceptions : Changing Perspectives in Science Education », Studies in Science Education, n° 10, 1983, p.61-98.11.DUSSAULT, G.et GADBOIS, C.« L’enseignement des sciences au Canada français », Spectre, août 1987, p.27, 35. ¦Bslli INTERFACE/JANVIER-FEVRIER 1989 SCIE NCEC LIPS JE REVIENS CHEZ NOUS yrm )• > 3 FA?" O c % i RAiiSg \aR^Sos\ ,© Déplacés de leur territoire sur une distance inférieure à un kilomètre, la majorité des écureuils roux retrouvent leur chemin grâce à une stratégie systématique d’essais et erreurs.Après son premier échec, l’écureuil repartira dans la direction opposée.Une stratégie qui se justifie j pleinement, a constaté le biologiste Jacques Bovet, car l’erreur d’orientation la plus fréquente est justement de 180 degrés.11 a de plus remarqué que les nombreuses tentatives de l’écureuil se font à l’intérieur d’un rayon qui correspond à l’expérience d’exploration de l’animal.Directeur du Département de biologie de l’Université Laval, M.Bovet est l’un des rares biologistes au monde à s’intéresser aussi activement à la question de l’orientation spatiale chez les petits mammifères.L’étude de l’orientation à grande distance chez les mammifères revêt un caractère important puisque cette capacité de retrouver son chemin est probablement un mécanisme fondamental de la survie des animaux.=3^ Mais pour bien comprendre comment l’écureuil retrouve son chemin, il faut d’abord savoir que ce petit rongeur a une forte notion de son territoire.Au cours de sa vie, il ne déménagera pas plus de deux ou trois fois.« Il s’agit d’une stratégie très efficace car il est avantageux de bien faire connaître son territoire.L’écureuil sait où se trouve la nourriture, où sont les abris en cas de danger, il connaît les prédateurs et ses voisins », explique M.Bovet.Sédentaire comme la plupart des mammifères, l’écureuil revient donc toujours vers son nid.Régulièrement toute- -^AGNè-Tiaues.fois, l’écureuil roux explorera un nouveau territoire, question de savoir s’il ne s’y trouverait pas une source de nourriture particulièrement abondante.Dans ses expéditions, il parcourra alors quelques centaines de mètres, parfois plus, et reviendra à son point de départ, c’est-à-dire son nid.Les principales expériences de Jacques Bovet ont consisté à capturer des écureuils et à les transporter à une certaine distance de leur nid sans qu'ils aient la possibilité de voir le chemin emprunté.Puis, on a observé de quelle façon ils tentaient de retourner à leur nid.« Nous avons constaté, rapporte-t-il, que dans sa stratégie, l’écureuil dissocie la distance et l’orientation.Il sait dans quelle direction se trouve son nid sans toutefois avoir une idée de la distance.» Une fois libéré, l’écureuil consacre d’abord un certain temps à se toiletter et à fureter autour de lui.Il semble un peu désemparé.En éthologie, le toilettage est considéré comme une activité de substitution.C’est un peu comme pour les humains ; lorsque l’animal ne sait que faire, il se gratte ! Ses esprits retrouvés, l’écureuil fait une première tentative pour retrouver son chemin.« La plupart d’entre eux prennent la bonne direction », souligne le biologiste.Mais ils reviennent après avoir parcouru une certaine distance qui correspond à l’expérience en tant qu’explora-teur de chaque individu.Autrement dit, si l’écureuil avait l’habitude d’explorer dans j un rayon de l’ordre de 400 m, il aura ten- e dance, lors de l’expérience, à parcourir ^ sensiblement la même distance pour : INTERFACE / JANVIER-FEVRIER 1989 DES BROUILLARDS ACIDES retrouver son nid.D se comporte comme s’il se retrouvait au point ultime d’une reconnaissance et entreprend donc un retour sur une distance correspondante.Les chercheurs ignorent toujours pourquoi l’écureuil part souvent dans la bonne direction.Il semble évident qu’il dispose d’information pour ce faire.L’orientation selon le champ magnétique est encore une hypothèse à vérifier.Dans le cas des écureuils, l’hypothèse est très fragile puisqu’ils sont transportés dans une cage métallique qui déforme considérablement le champ magnétique naturel.En plus, le collier émetteur est relativement près des fosses nasales, considérées comme le site hypothétique de la perception de ce champ, ce qui peut aussi perturber cette perception.A première vue, les recherches menées par Jacques Bovet semblent très fondamentales.Cependant, il est possible d’en dégager certaines applications futures, notamment dans l’aménagement de la faune.Par exemple, ces recherches pourraient permettre de comprendre pourquoi certains grands mammifères, comme les ours, sont capables de revenir inlassablement à un site duquel on tente de les éloigner pour des raisons de sécurité.Par ailleurs, Jacques Bovet a commencé des travaux similaires portant sur des sujets humains.En combinant les résultats de ses travaux, il pourrait être possible d’améliorer les techniques de recherche de personnes perdues en forêt.Nous savons, par exemple, qu’elles ne sont jamais, comme les écureuils, très loin de leur point de départ.Vous croyez que les principales responsables du dépérissement des forêts sont les pluies acides ?Vous devriez peut-être réviser votre jugement ! Des chercheurs du Service de l’environnement atmosphérique d'Environnement Canada (SEA) et de plusieurs universités québécoises et canadiennes ont en effet découvert qu’une menace pire encore plane sur nos forêts : les brouillards acides.Tout a commencé quand le chercheur Robert Schemenauer, du SEA, a eu l’idée de mesurer l’acidité des brouillards se formant sur des sommets du sud du Québec.Il est bien connu que les brouillards se forment plus souvent en altitude que dans les vallées.Or, les études tendent à démontrer que le dépérissement des forêts, en Amérique du Nord comme en Europe, tend lui aussi à se faire sentir de façon plus marquée dans les zones montagneuses.Se pourrait-il qu'il y ait un lien entre ces deux phénomènes ?Pour le savoir, Robert Schemenauer et une équipe ont prélevé, 365 jours par année, depuis 1986, des échantillons d’eau de brouillard sur les monts Sutton, dans les Cantons de l'Est, et Tremblant, dans les Laurentides.Ces échantillons ont été soumis à des analyses de pH et de composition chimique.Les résultats semblent bien confirmer l’hypothèse du chercheur : les brouillards se formant sur ces deux sites sont trois à cinq fois plus acides que la pluie et la neige qui y tombent.Ce n’est pas tout.L’équipe du SEA a également constaté que la concentration en ions sulfate, nitrate et ammonium de ces brouillards était de deux à dix fois plus élevée que dans les pluies, et parfois plus encore.Les nuages chimiques et acides qui enveloppent les sommets des Laurentides et des Cantons de l’Est ont-ils des effets néfastes sur la végétation ?Selon Robert Schemenauer, c’est fort probable, car ces montagnes sont recouvertes de brouillard près de la moitié du temps.Le brouillard y déposerait autant d’eau que l’ensemble des précipitations, et trois à cinq fois plus d’ions d’hydrogène.Or, ceux-ci sont responsables de l’acidité.L’effet néfaste des brouillards serait, de plus, augmenté par le fait qu’ils se déposent sur toutes les parties des plantes (branches, feuilles, fleurs, fruits) et non seulement sur le sol.Pour verifier cette hypothèse, Robert Schemenauer a fait appel à d’autres é Iv;;:;:; > INTERFACE/JANVIER-FEVRIER 1989 pes, dont celle de Paul Comtois, du Département de géographie de l'Université de Montréal.Paul Comtois a évalué la viabilité des pollens de bouleau et d’érable selon l’altitude sur les mêmes sites.Jusqu’à 600 ou 700 m, 80 p.cent du pollen, en moyenne, est viable.Mais entre cette altitude et les sommets, ce pourcentage tombe, à guère plus de 2 p.cent.Or cette altitude correspond justement à celle où commence la zone des brouillards.« Pour le moment, on ne peut établir avec certitude de relation entre la viabilité du pollen et la fréquence des brouillards, explique Paul Comtois.Mais plusieurs indices vont dans ce sens : en laboratoire, les grains de pollen d'érable sont très affectés par l'acidité.» Par la suite, les chercheurs tenteront de vérifier si cette chute de viabilité a un effet sur la reproduction des arbres.En attendant, les travaux de Peter Schuepp, de l’Université McGill, laissent supposer que les brouillards acides entravent la croissance des arbres et menacent leur survie pendant l'hiver.« Nous avons mesuré la teneur en ions de la neige qui provient de la condensation du brouillard.Cette neige, qui peut rester tout l'hiver sur les branches des arbres, renferme des1 quantités étonnamment grandes de potassium, de magnésium et de calcium.Or.nous croyons que ces sels proviennent des arbres, qui les ont perdus parce que l'acidité et les ions contenus dans la neige ont rendu leurs feuilles perméables.» L'impact de ces pertes d'éléments nutritifs pourrait être d’autant plus grand qu'elles se produisent durant l’hiver, alors que les arbres sont privés d'éléments nutritifs.L'ensemble de ces travaux constitue le projet « Chimie des brouillards en haute altitude » ou CHEF (Chemistry of High Elevation Fogs), auquel participent également des scientifiques de l’Université de Toronto, de l'Université de Dalhousie et du Service canadien des forêts.Ils devraient se poursuivre jusqu’en 1991.A cette date, on en saura plus sur les méca nismes de formation de ces inquiétants brouillards acides et on connaîtra aussi résultats d’un projet jumeau mené aul nord-est des États-Unis, le Mountain! Cloud Chemistry Project (MCCP).Espé rons qu'il ne sera pas, à ce moment, troj tard pour agir.LA LUTTE AU PARKINSON Parkinson : le nom à lui seul fait trembler.Ce mal terrible qui frappe un quinquagénaire sur 200, un sexagénaire sur 100, tarde à livrer ses secrets.Pourtant, les travaux menés par le psychologue chercheur Jean Saint-Cyr jettent un éclairage nouveau sur plusieurs facettes de cette pathologie.« A l’heure actuelle, les dispositions biologiques de la maladie de Parkinson sont très mal définies.On sait que la composante génétique n’est pas en cause, mais on ignore à peu près tout des facteurs environnementaux », explique Jean Saint-Cyr.Cet ex-chercheur au Département de physiologie de l’Université de Montréal est maintenant chef des services psychologiques à l’hôpital Toronto Western.Ignorance, mais aussi remise en question.La maladie affecte une région du cerveau qui intervient dans la motricité et elle se traduit par des tremblements caractéristiques.D’autres changements, notamment une modification de l’expression du visage (faciès grave et figé), ont longtemps fait croire à la « dépression » chez le parkinsonien.Or, les travaux de Jean Saint-Cyr apportent un éclairage nouveau à cet égard.« L’annonce de la maladie entraîne un découragement évident chez ces individus, surtout les plus jeunes, suivi d’un certain isolement social.Mais contrairement à la dépression clinique reconnue (perte d’appétit, de sommeil, etc.), on a affaire ici à un type de dépression épisodique, réversible, très évident lorsque le parkinsonien doit effectuer une résolution de tâche.» Jusqu’ici, l’équipe de Jean Saint-Cyr a évalué plus de 400 patients, envoyés de partout au pays à l’hôpital Toronto Western.Traditionnellement, la démence fut une autre caractéristique associée à la maladie de Parkinson.On a même parlé d’une forme différente de la démence sénile de l’Alzheimer.Jean Saint-Cyr soutient qu’à l’heure actuelle, on ne peut appliquer ce terme aux parkinsoniens, puisque le déficit intellectuel est très léger et très difficile à démontrer.En fait, le fonctionnement intellectuel et les perceptions sensorielles du parkinsonien ne sont pas modifiés de façon importante.Et la mémoire, dont le déficit est très sévère dans le cas de l’Alzheimer, n’est ici que légèrement diminuée.« En revanche, la résolution d’une tâche nouvelle nécessite un apprentissage beaucoup plus long », fait valoir Jean Saint-Cyr.Le malade éprouve beaucoup de difficultés à reproduire un mouvement moteur dans l’espace.Grâce à l’arsenal thérapeutique, notamment le L-dopa, un précurseur de la dopamine, on peut contrôler les symptômes moteurs.Pour les symptômes affectant la pensée, c’est autre chose.La lésion dopaminergique est bien connue, mais on suppose aussi que d’autres types de lésions, notamment la carence d’un autre neurotransmetteur, l’acétylcholine, seraient en cause.La lésion associée à la maladie de Parkinson détruit en partie certains groupes de cellules nerveuses.On ignore pour l’instant si ces lésions sont concernées dans les troubles de la pensée.Jusqu’à récemment, l’évaluation du rendement intellectuel des parkinsoniens se heurtait à une difficulté de taille : on n’avait pas trouvé une tâche capable de mesurer leur performance intellectuelle sans que leur handicap moteur ne gêne l’expérience.L’équipe de Jean Saint-Cyr a surmonté cet obstacle en mettant au point la « Tour de Toronto », version simplifiée d’un test psychologique (résolution de tâche) inspiré de la Tour de Hanoi.Dans sa version originale, la Tour de Hanoi, utilisée auprès des amnésiques, est un test qui consiste à déplacer, puis à empiler de nouveau cinq disques de couleurs différentes sur trois chevilles, ce qui nécessite 31 opérations.et plusieurs jours de labeur pour certains patients ! INTERFACE/JANVIER-FÉVRIER 1989 La version torontoise n’utilise que quatre disques et 15 opérations.« Ce qui permet au parkinsonien de résoudre la tâche en une heure et demie », précise Jean Saint-Cyr.Déjà, certains chercheurs étrangers ont recours à la Tour de Toronto, qui permet de mesurer uniquement la performance intellectuelle des parkinsoniens.LA SOURDE OREILLE Le mal d’oreille chez les enfants est pour les Inuit ce que sont pour nous les maladies cardiaques chez les adultes, c’est-à-dire la manifestation de problèmes sociaux et culturels.Ce n’est donc pas un hasard si, à Kuujjuarapik, un village situé au confluent de la baie d’Hudson et de la Grande rivière de la Baleine, les Inuit sont bien plus touchés par cette affection que les Cris ou les Eurocanadiens.« Contrairement aux Cris ou aux Eurocanadiens, rapporte Rose Dufour, anthropologue et conseillère en recherche et planification socio-économique au Centre hospitalier de l’Université Laval, les Inuit ne considèrent pas le froid comme une source de maladie.» De fait, ces derniers pensent que le froid est plutôt un allié avec lequel il faut apprendre à composer.Cette perception, combinée au fait qu’ils s’échauffent généralement vite et qu’ils ont même souvent trop chaud, explique pourquoi, beau temps mauvais temps, les Inuit s’emmitouflent beaucoup moins que les membres des deux autres communautés qu’ils côtoient.Plusieurs chercheurs ont affirmé que le froid peut être en cause dans la production de l’otite moyenne.Toutefois, avant que Rose Dufour n’entreprenne ses recherches doctorales, sous la direction du professeur Marc-Adélard Tremblay, en 1985, aucune information n’avait été recueillie afin de savoir comment les Inuit Les essais ont permis d’échafauder des hypothèses intéressantes.On a constaté que la mémoire à court terme des parkinsoniens reste pratiquement intacte.Contrairement aux patients atteints de la maladie d’Alzheimer, ils n’oublient pas cinq minutes après.En revanche, leur mémoire « procédurale » est très déficiente, lors de la résolution de tâche.Ce qui suggère, croit-on, qu’il existe un système de mémoire différent de la mémoire à court terme et non codé de manière verbale.« Notre contribution a été de suggérer un début de définition d’un système intellectuel non conscient », fait valoir Jean Saint-Cyr.Les résultats encourageants obtenus avec la Tour de Toronto ont débouché sur des applications cliniques concrètes.L’équipe utilise régulièrement cette tâche pour dépister les cas de démence (mesurée au niveau du lobe frontal par le test).On y a aussi recours pour évaluer le rendement des patients résistants au traitement classique avec le L-dopa, et pour qui les traitements pharmacologiques de rechange provoquent des troubles de la mémoire procédurale.CLAUDEFORAND , *saj SUIANNE MCH> -
de

Ce document ne peut être affiché par le visualiseur. Vous devez le télécharger pour le voir.

Lien de téléchargement:

Document disponible pour consultation sur les postes informatiques sécurisés dans les édifices de BAnQ. À la Grande Bibliothèque, présentez-vous dans l'espace de la Bibliothèque nationale, au niveau 1.